Acoltzi Bonilla Kenia, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla
INVESTIGACIóN COVID-19
INVESTIGACIóN COVID-19
Acoltzi Bonilla Kenia, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Durante el Verano de la Investigación Científica y Tecnológica del Pacífico trabajé en el proyecto Investigación COVID-19 de la línea de investigación titulada Cómputo distribuido, guiada por la Dra. Bárbara Emma Sánchez Rinza.
METODOLOGÍA
Para la consecución de este proyecto, se realizó primeramente un análisis de encuestas existentes referentes a la pandemia, para con ello desarrollar la encuesta más adecuada para este proyecto, una vez que la encuesta estuvo lista, se distribuyó entre ciudadanos de diversas edades, desde adolescentes hasta ciudadanos de la tercera edad, alcanzando 196 respuestas, posteriormente se llevó a cabo el análisis de dichas respuestas, con lo que 188 resultaron válidas. Una vez que se hizo la depuración de encuestas, las respuestas fueron comparadas, resultando con ello 11 gráficas que fueron de ayuda para realizar un mejor análisis de la situación referente a COVID-19 en el país. Algunos de los gráficos muestran información acerca de la situación ocupacional de los encuestados, mientras que otras se enfocan en la salud, tomando en cuenta sus hábitos alimenticios, de actividad física y medidas de higiene.
CONCLUSIONES
Mediante estos gráficos fue posible llegar a una conclusión acerca de cómo de buena ha sido la distribución de información preventiva por parte de las autoridades, además de hacernos notar que el seguimiento de las medidas de prevención no es suficiente para estar protegidos. De igual manera se llegó a una conclusión acerca de cómo ha sido la deserción escolar y la pérdida de empleos, comparando qué tipo de trabajador es el que más se ha visto afectado entre trabajadores asalariados y trabajadores autónomos.
Acosta Ibarra Sheyla, Universidad de Sonora
Asesor:Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
ADSORCIóN DE PB UTILIZANDO CELULOSA OBTENIDA DE MORINGA OLEIFERA LAM.
ADSORCIóN DE PB UTILIZANDO CELULOSA OBTENIDA DE MORINGA OLEIFERA LAM.
Acosta Ibarra Sheyla, Universidad de Sonora. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La elevada concentración de contaminantes, ocurrida de manera natural o antropogénica en el agua, es un problema a nivel mundial donde varios países de Asia, Europa y Latinoamérica han estado reportados en los últimos años. La presencia de iones metálicos y metaloides son tóxicos y peligrosos en el medio acuático, representando una gran preocupación mundial debido a sus graves consecuencias para la salud humana, e incluso en concentraciones extremadamente bajas. Además, este tipo de metal (Pb) se encuentra clasificado como carcinógeno humano según la Agencia de Protección Ambiental de los Estados Unidos (EPA) y la Agencia Internacional para la Investigación del Cáncer (IARC).
METODOLOGÍA
Se utilizaron residuos de madera obtenidos a través de la poda del árbol de Moringa. Se realizó un proceso de pulpeo Kraft para extraer la celulosa y después realizar una hidrólisis ácida. Para el proceso Kraft se utilizó un digestor Kamir a una temperatura de 160 a 170 °C, de 20 a 30 minutos con niveles de sulfidez de 20 a 27%. Después se realizó un tratamiento de hidrólisis ácida a las fibras con una solución de 40% (v/v) de ácido sulfúrico. Las nanofibras de celulosa se obtuvieron con una técnica de ultrasonicación (40 minutos a 60 kHz) con crio trituración mediante nitrógeno líquido para después ser secado.
Para la síntesis del material, se pusieron en contacto 4 gramos de celulosa con 40 mL de extracto de hoja de Moringa. Para esto, se colectaron hojas frescas, se lavaron con agua de-ionizada y se secaron a temperatura ambiente. Se tomó una muestra de hojas secas para mezclarse con agua destilada por 45 minutos y el sobrenadante se filtró para obtener el extracto. Se preparó una solución de 0.5 M de cloruro de hierro (III) ajustada a un pH de 8 con ácido clorhídrico e hidróxido de sodio. Al extracto se le agregó ésta última solución por goteo y se mezcló continuamente. El material obtenido se filtró y lavó con agua destilada para después guardarse en un desecador.
Para su caracterización, se utilizaron diferentes métodos y equipos para determinar morfología y propiedades superficiales. Se necesitó de un equipo de espectroscopia para ver los cambios de grupos funcionales en la síntesis (así como en la adsorción), microscopio electrónico de barrido, un instrumento para medir la potencial zeta y otro para la difracción mediante rayos X (el cual nos determina la presencia de la fase cristalina de la celulosa).
Se realizaron experimentos por lote para poder determinar la remoción del plomo. Se realizaron muestras con alícuotas que se pusieron en contacto con el material en envases de plástico. El nivel del pH para el plomo fue de 2 inicialmente, pero después el pH de la solución se ajustó a 5 (con ayuda de acido clorhídrico e hidróxido de sodio) debido a las especies catiónicas presentes. Los envases se agitaron separadamente hasta llegar al equilibrio y la concentración inicial de Pb(NO3)2 fue de 2 mg/L. Después de esto, el sobrenadando se separó con filtración y la solución residual se analizó por espectrometría. Como parte del cuidado de la muestra para su análisis, la solución se guardó en refrigeración y en envases de plástico o vidrio para evitar precipitación y oxidación. Para determinar la efectividad de reproducibilidad, los experimentos se repitieron tres veces.
Los datos obtenidos se ajustaron a modelos cinéticos para poder evaluar de mejor manera los parámetros óptimos para el tratamiento en los sistemas por lote. Por su gran uso en sistemas de remoción de metales pesados, los datos se ajustaron para la Elovich, la Lagergren de pseudo-primer orden y de pseudo-segundo orden por regresión no linear usando Statistica.
Adicionalmente, se realizaron las isotermas de adsorción para diferentes concentraciones para poder determinar los parámetros de equilibrio del sistema. Se partió de 5 mg/L y se consideraron valores hasta el 500 mg/L. Se agitaron a diferentes temperaturas y se replicó el experimento tres veces. Para el plomo, los valores de pH para sus iones estuvieron entre 3 y 5.5. Para la adsorción, los datos se ajustaron a las isotermas de Freundlich (superficies heterogéneas) y de Langmuir (mono capa en su superficie).
CONCLUSIONES
El material de adsorción tenía carga negativa, por lo que los cationes fueron fácilmente adsorbidos. El nivel de pH en la solución es de importancia ya que éste determinará la carga en la que se dará mayor adsorción. En el caso del plomo, el modelo de pseudo-primer orden fue el que mejor describía la adsorción de este metal pesado y el tener las nano partículas de hierro en el material mejoró la selectividad del plomo en el proceso de remoción. En conclusión, las nano fibras de celulosa con partículas de hierro se demostraron ser un adsorbente bastante eficiente para el plomo.
Acosta Púa Aura Marcela, Universidad de la Costa
Asesor:Dra. Miriam Siqueiros Hernández, Universidad Autónoma de Baja California
ESTUDIO DE FIBRAS NATURALES UTILIZADAS EN MATERIALES COMPUESTOS DE MATRIZ POLIMÉRICA PARA LA MANUFACTURA DE PRÓTESIS TRANSTIBIAL
ESTUDIO DE FIBRAS NATURALES UTILIZADAS EN MATERIALES COMPUESTOS DE MATRIZ POLIMÉRICA PARA LA MANUFACTURA DE PRÓTESIS TRANSTIBIAL
Acosta Púa Aura Marcela, Universidad de la Costa. González Ortega Paula Daniela, Universidad Santo Tomás. Asesor: Dra. Miriam Siqueiros Hernández, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Introducción
Durante las últimas décadas se ha incrementado significativamente el uso de materiales poliméricos en las más diversas aplicaciones, debido a algunas importantes ventajas frente a otros materiales, como la facilidad de procesamiento, la productividad que puede alcanzarse en su obtención, su baja densidad y su bajo costo.
Diversos estudios coinciden en señalar las ventajas de usar fibras naturales como cargas en compuestos de matriz polimérica, entre las que se destacan: provienen de recursos renovables, lo cual facilita su disponibilidad; son de bajo costo, biodegradables, por lo tanto se atenúa el impacto sobre el medio ambiente, y además son livianas. Una característica de gran interés es que presentan propiedades mecánicas que, en algunas aplicaciones, son comparables con materiales de refuerzo sintéticos convencionales como las fibras de vidrio o de carbono.
Las fibras naturales se clasifican según su origen vegetal, animal o mineral. A su vez, las fibras de origen vegetal se clasifican de acuerdo con la parte de la planta de la que se extraen, como se muestra en la Figura 1. (Velásquez, Pelaéz, & Giraldo, 2016)
METODOLOGÍA
2. Materiales compuestos
2.1. Evolución de los materiales compuestos
Los materiales compuestos han cobrado gran importancia en la industria aeronáutica, aeroespacial, automotriz y en la fabricación de generadores eólicos, en general, en la fabricación de objetos que poseen muy bajo peso, con una alta resistencia. Esto se debe a que los materiales compuestos, comparados con el acero son cinco veces más fuertes, dos veces más rígidos y pueden llegar a ser cuatro veces más livianos.
Un material compuesto consiste en dos o más materiales (proporciones razonables >5%) que trabajan juntos y cada uno contribuye estructuralmente a un nivel macroscópico con sus propiedades. Esto resulta en una combinación y el material resultante tiene propiedades superiores a la de los constituyentes, tal como se muestra en la figura 2. (Rosel, Molina, Paz, & Ruiz, 2018)
2.2. Clasificación de los materiales compuestos
Los materiales compuestos se clasifican en tres divisiones cuales son: Reforzados por partículas, fibras y estructurales como se muestra en la Figura 3. La fase dispersa de los compuestos reforzados con partículas tiene aproximadamente las mismas dimensiones en todas las direcciones. Por su parte, los compuestos estructurales están hechos de multicapas y son diseñados para tener baja densidad y alto grado de integridad estructural. (Córdova, 2019)
2.3. Propiedades de los materiales compuestos
- Matriz
- Refuerzo
- Teoría de Homogenización
3.Fibras naturales
3.1. Fibras vegetales basadas en celulosa natural
Las fibras vegetales son materiales fibrosos que pueden extraerse de la naturaleza. En mayor proporción se componen de celulosa, lignina, hemicelulosa y otros componentes en menor cantidad. Las fibras celulósicas se encuentran en la naturaleza de diversas formas, es así como se clasifican de acuerdo con la figura 4. (Córdova, 2019)
4. Propiedades de las fibras vegetales
Las fibras vegetales presentan características, las cuales les permiten ser utilizadas como refuerzo en matrices poliméricas, las mismas que están relacionadas con las propiedades finales del material compuesto. Siendo resistentes a esfuerzos de 19 tracción, compresión, flexión e impacto. (Balladares, 2017)
CONCLUSIONES
De acuerdo con la revisión bibliográfica llevada a cabo en esta investigación; se plantea realizar un estudio a nivel teórico sobre fibras naturales utilizadas en materiales compuestos de matriz polimérica para la manufactura de prótesis transtibial, con el fin de identificar las fibras vegetales que por sus excelentes propiedades mecánicas puedan ser usadas en materiales compuestos de matriz polimérica para la fabricación de prótesis transtibial, lo anterior con el propósito de mejorar la calidad de vida, el bienestar y satisfacer las necesidades de la población que requiera de dichas prótesis. Por otro lado, desde el enfoque medioambiental esta es una propuesta con alto impacto ambiental, social y de sostenibilidad para aprovechar de manera eficiente los recursos naturales.
Adame Galeano María Fernanda, Instituto Politécnico Nacional
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
Adame Galeano María Fernanda, Instituto Politécnico Nacional. Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez. Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla. Segura Martínez Alejandro, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La evaluación de la señal electromiográfica (EMG) tiene muchas aplicaciones en el área biomédica especialmente en interfaces hombre-máquina. Para procesar los datos de EMG es necesaria la fase de preprocesamiento, en esta fase se establece la extracción de características e índices para procesar y analizar la señal con el fin de crear clasificadores y modelos de regresión. Una vez que la precisión de dichos modelos y clasificadores es lo suficientemente efectiva, el método de análisis podría cambiar de fuera de línea a en línea, para procesar los datos en tiempo real y desarrollar una aplicación específica de control de dispositivos con EMG.
El objetivo de este estudio realizado durante el verano de la investigación, es la creación de diferentes scripts que clasifiquen mediante el método Off-line y a través de la aplicación de algoritmos de Machine Learning, las Fases, Velocidad, Peso y Fatiga y compilar todos los scripts en una aplicación o GUI para usarlos fácilmente.
METODOLOGÍA
Protocolo Experimental
Consiste en la adquisición de EMG durante la realización de una flexión-extensión del brazo la cual consta de 5 fases, dichas 5 fases constituyen un Trial (repetición). Se realiza un trial a distintas velocidades: rápida (16 segundos de duración), normal (20 segundos) y lenta (24 segundos), esto constituye un run (corrida). Además, 5 runs forman un bloque y en cada uno de ellos el usuario carga un peso diferente en su mano. Los pesos usados para este estudio fueron 0 libras, 2 libras y 5 libras. En total se tienen a analizar 3 bloques, 15 runs y 45 trials. Los músculos del bíceps braquial, tríceps braquial, braquiorradial y braquial son los involucrados en el movimiento de flexión-extensión que se realiza en el experimento; sin embargo, solo se capturan las señales del bíceps braquial y tríceps braquial. Se plantea que este protocolo puede ser utilizado con cualquier adulto sin trastornos del movimiento.
Adquisición de la señal:
Se utilizará una ortesis adaptable a la que se le colocaran los electrodos superficiales que estarán conectados a un equipo o dispositivo de adquisición de señal EMG, en paralelo a esto se conectará un encoder con un dispositivo de lectura de señales digitales, ambos circuitos se conectarán a un software que leerá los datos del EMG, en este experimento fue utilizado el dispositivo g.STIMbox y el software BCI2000. Las señales EMG se muestrearon con una frecuencia de 4800 Hz.
Posteriormente se establecen parámetros que se utilizarán en el procesamiento de los datos, entre estos parámetros se encuentran: Tipo de estudio, clasificador, feature, normalización, etc.
Procesamiento y análisis:
En este punto se desarrollaron una serie de scripts en el programa MATLAB con el fin de automatizar el preprocesamiento de los datos y lograr llevar un mejor manejo de los cálculos y algoritmos durante el procesamiento de cada estudio.
En el caso de los clasificadores se usa uno de los siguientes métodos:
Linear Discriminant Analysis (LDA).
SVML (Support Vector Machine Linear).
SVMR (Support Vector Machine Reggresion).
Para el análisis de fatiga se toman los datos de los 45 trials y se intuye que en el primer trial se tendrá una mucho menor fatiga que en el número 45 por lo que se ordenan los datos en este mismo orden.
Para este análisis se tomaron cuatro diferentes índices de fatiga:
Average rectified value (ARV), el cual es similar al Mean Absolute Value (MAV).
Zero crossing (ZC)
Slope sign changes
Waveform length (WL)
Posteriormente se grafican los distintos índices de cada trial y se diferencian entre biceps y triceps. A partir de los resultados de esta graficación se determinó que los mejores índices para este estudio son ARV y WL.
Para la creación de los modelos de regresión lineal se usaron dos comandos de MATLAB regress y mdl, ambos se probaron con el conjunto de datos provistos de cuatro variables ARV de bíceps, WL de bíceps, ARV de tríceps y WL de tríceps, teniendo la variable a relacionar como el número de trial puesto que esta debe de estar directamente relacionada con la fatiga.
CONCLUSIONES
La clasificación entre el movimiento sin peso añadido y con peso añadido resultó ser muy eficiente, entre distintos pesos no se obtuvieron tan buenos resultados. La clasificación entre velocidades tiene una eficiencia regular en todas las fases del movimiento con 0.83 de exactitud, y mala para ciertas fases o individuales, llegando a tener menos 0.6 de exactitud. Por otro lado, la clasificación biclase entre pesos obtuvo muy buenos resultados independientemente de la fase seleccionada, llegando a tener valores de exactitud mayores a 0.95. Mientras que para la clasificación triclase de pesos se obtuvieron resultados muy cercanos al 100% de predicción considerando las fases de flexión, contracción y extensión del movimiento. Los mejores índices para el análisis de fatiga fueron ARV y WL; además, se concluye que es importante considerar todas las fases del movimiento para la regresión lineal, teniendo una diferencia en el valor R cuadrada de entre 0.32 y 0.23.
A lo largo de la estancia de investigación, se lograron adquirir de manera satisfactoria conocimientos sobre señales electromiográficas, su adquisición, sus características y las diversas formas procesarlas para lograr obtener resultados. Además de obtener conocimientos sobre algoritmos de Machine Learning y del manejo del programa MATLAB, mismos que culminaron en la elaboración satisfactoria de un guide para facilitar el manejo de los estudios y sus resultados. Por último, se espera mejorar en un futuro algunos aspectos mínimos mencionados para el procesamiento de las señales.
Aguilar Carreño Aishazury, Universidad Tecnológica de Huejotzingo
Asesor:Dr. Luis Fernando Castillo Ossa, Universidad de Caldas
SIRPLAN SISTEMA INTELIGENTE DE RECONOCIMIENTO DE PLANTAS (INVERNADERO)
SIRPLAN SISTEMA INTELIGENTE DE RECONOCIMIENTO DE PLANTAS (INVERNADERO)
Aguilar Carreño Aishazury, Universidad Tecnológica de Huejotzingo. Salgado Martinez Yahaira Guadalupe, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Luis Fernando Castillo Ossa, Universidad de Caldas
PLANTEAMIENTO DEL PROBLEMA
Se pretende a través de esta pasantía de investigación, desarrollar un Sistema Computacional que a través de la aplicación de Técnicas de Aprendizaje de Máquina, permita el reconocimiento de plantas, para sugerir el cuidado, seguimiento y recomendaciones generales para el cuidado de ellas.
METODOLOGÍA
Se pretende realizar el trabajo a partir de las siguientes etapas
Definir los tipos de plantas que por interés de la comunidad o los interesados de la aplicación, son importantes u aportan para su reconocimiento automática a partir de imágenes.
Establecer la configuración (propiedades) de los archivos de imágenes con respecto a su tamaño, color, formato para aplicar técnicas de reconocimiento de patrones.
Definir los aspectos generales para la creación del Dataset de Referencia (Entrenamiento y Validación) de acuerdo con las plantas definidas.
Entrenar una red neuronal artificial a través del Lenguaje de Programación Python que permita definir los pesos sinápticos en las neuronales.
Establecer los resultados de validación a partir de un Subconjunto de imágenes de entrenamiento.
Sugerir las recomendaciones a partir del reconocimiento de las plantas.
Crear una aplicación de consola para la validación y para una fase posterior definir una aplicación WEB ( A trsvés de servicios WEB).
CONCLUSIONES
Es un proceso metodológico, secuencial de apropiación de técnicas de IA para un objetivo en particular.
Obtener resultados, analizarlos y sugerir recomendaciones para la aplicación de este tipo de técnicas.
Implementar una estrategia computacional para solucionar el problema.
Validarlo para su posterior continuidad en un entorno real, para recomendaciones en el cuidado de las plantas.
Aguilar Gómez Pedro Nicolás, Instituto Politécnico Nacional
Asesor:Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
CLASIFICACIóN DEL LENGUAJE PRAGMáTICO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO
CLASIFICACIóN DEL LENGUAJE PRAGMáTICO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO
Aguilar Gómez Pedro Nicolás, Instituto Politécnico Nacional. Alzate Grisales Jesus Alejandro, Universidad Autónoma de Manizales. Asesor: Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Estudios señalen que la evolución de las capacidades pragmáticas es bastante amplia, por lo cual el uso del lenguaje pragmático ha sido atribuido a estructuras especificas en el cerebro y redes neuronales funcionales. De este modo, la evaluación del lenguaje pragmático en grandes grupos de estudiantes puede llegar a ser una tarea muy demandante en tiempo, además de requerir personal capacitado, como psicólogos, para dicha tarea, por lo cual el uso de algoritmos de Procesamiento del Lenguaje Natural (NLP) e Inteligencia Artificial será de vital importancia. Partiendo de esta premisa, el presente proyecto propone el uso de algoritmos para clasificar de forma automática el desarrollo cognitivo de estudiantes de primaria y secundaria. Esta herramienta coadyuvará a los expertos para acelerar su trabajo y proporcionará información con respecto al desarrollo del lenguaje pragmático en los diferentes grupos de estudiantes.
METODOLOGÍA
Se contó con 2 conjuntos de datos con 155 preguntas hecha en los niveles primaria y secundaria. Ambos conjuntos de datos son etiquetados por personal calificado, obteniendo así, para cada respuesta un numero entre el 0 y el 3 que evalúa desde un completo sin sentido la respuesta a un grado alto de sentido. Las respuestas 0 fueron eliminadas. Con los datos filtrados se emplearon dos modelos computacionales para la clasificación de reactivos siendo BERT y GPT-2.
Para GPT-2 se utilizaron dos modelos de preentrenamiento siendo el modelo original de OpenAI con nombre ‘gpt2’ y el modelo en español desarrollado por Josué O. y Berny C. con nombre ‘datificate/gpt2-small-spanish’.
Para el clasificador los datos fueron divididos en dos sets uno de entrenamiento y otro de prueba con una proporción de 80% y 20% respectivamente. Dichos datos se encuentran en .txt por implementación del código. Con los sets de datos depurados y almacenados se carga Transformers y todas las librerías necesarias, de las librerías se instalan en específico imgaug 0.2.5 y matplotlib 3.4.0 para graficar los resultados.
Por configuración se utiliza la etiqueta ‘Zero’ como una clase de datos vacía para descartar los reactivos sin respuesta y evitar errores en tiempo de ejecución. El código consta de 2 clases que tienen como propósito leer el contenido de los archivos para crear la base de datos y convertir el texto en etiquetas numéricas.
Las funciones por su parte se encargan de proveer un conjunto de respuestas con una estructura numérica al clasificador para comenzar el proceso de entrenamiento y realizar la validación mediante una estructura similar a la función de entrenamiento. Posteriormente se carga el modelo a utilizar y su tokenizador para evaluar su rendimiento.
En el caso del entrenamiento con BERT, se toman en cuenta 2 modelos con diferentes características, buscando que ambos modelos fueran preentrenados en español o al menos el vocabulario con el que este fue entrenado tenga palabras en español. El primero de estos es llamado BETO, un modelo desarrollado por la Universidad de Chile. Por otro lado, se encuentra BERT-Multilingual, un modelo creado y entrenado por Google Research.
Luego de obtener las arquitecturas y configuraciones originales en el repositorio de GitHub original de cada modelo, se utiliza Tensorflow para el ensamble y entrenamiento de estos. Inicialmente, se utiliza el vocabulario de cada modelo para ajustar el tokenizador, de forma que se convierten las palabras en un formato numérico entendible para los modelos de aprendizaje profundo. Posteriormente, se carga el modelo y los pesos correspondientes. Se entrenan ambos modelos por 30 épocas cada uno, teniendo en cuenta datos de entrenamiento, validación y prueba, con una distribución de 80%-10%-10% respectivamente. Es importante aclarar que durante el entrenamiento del modelo se utilizaron métricas, como Matthews Correlation Coefficient (MCC) y la función de perdida fue Sigmoid Focal Cross Entropy, con el fin de evaluar correctamente los resultados teniendo en cuenta el desbalance de clases en los datos, dónde hay más muestras para la clase 1 y 3 que para la clase 2.
Por último, al tener los modelos entrenados siendo BERT y GPT-2, se evalúan los datos de prueba, obteniendo, gráficas con los resultados obtenidos de MCC y la perdida, y se genera un reporte de evaluación que entrega la precisión por clase, además de una matriz de confusión.
En BERT el procedimiento anteriormente mencionado se utiliza, además, para la estrategia de validación cruzado, con la que se busca evaluar la estabilidad de los resultados presentados por los diferentes modelos.
CONCLUSIONES
La estancia de verano permitió un acercamiento a la implementación de técnicas de inteligencia artificial de vanguardia en el campo de las ciencias de la computación. Las implementaciones, mostraron un mejor rendimiento en la precisión de la clasificación con el preentrenamiento en español que con el preentrenamiento original, algo que se pudo observar principalmente en las variaciones de los modelos basados en BERT, en el que el mejor resultado fue reportado por BETO. Además, el uso de métricas para la evaluación de resultados, teniendo en cuenta el desbalance de los datos, demostró ser una herramienta útil, sin embargo, se propone aumentar el número de respuestas en las bases de datos de manera que permita nivelar o tener más muestras de la clase que menos muestras tiene para cada pregunta.
Al ser un proyecto extenso los resultados obtenidos son todavía prematuros, sin embargo, con los resultados y observaciones encontradas durante la estancia que permiten plantear la viabilidad del proyecto para trabajar a futuro, para de esta manera obtener resultados más prometedores y precisos no solamente en la clasificación en la pragmática del lenguaje, sino también, la evaluación de dichos resultados en relación al desarrollo cognitivo y dificultades o ventajas existentes entre estudiantes a nivel primaria y secundaria en Latinoamérica.
Aguilar Magaña Hannia Issabella, Instituto Tecnológico de Colima
Asesor:Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
IDENTIFICAR LOS FACTORES DE RIESGO EN LA IMPLEMENTACIóN DE LEAN SIX SIGMA PARA RESOLVER PROBLEMáTICAS DE MANUFACTURA DEL SECTOR AUTOMOTRIZ.
IDENTIFICAR LOS FACTORES DE RIESGO EN LA IMPLEMENTACIóN DE LEAN SIX SIGMA PARA RESOLVER PROBLEMáTICAS DE MANUFACTURA DEL SECTOR AUTOMOTRIZ.
Aguilar Magaña Hannia Issabella, Instituto Tecnológico de Colima. Asesor: Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Lean Six Sigma (LSS) se ha convertido en la estrategia de negocios mas popular durante los últimos año, implementando la mejora continua (CI) en el sector de manufactura, servicios y sectores públicos. Esta metodología engloba principios de ambas metodologías. Los especialistas en LSS aseguran que esta integración le da a la organización más eficiencia y afectividad, ayuda a tener un mayor rendimiento y más rápido que la implementación de forma aislada. (Salah et al. 2010).
Entre los años 1987 y 2007, el uso de Six Sigma, la popular metodología de CI ha salvado a 500 compañías un estimado de $427 billones de dólares, de acuerdo a un articulo publicado por iSixSigma.
LSS se define como un enfoque establecido que busca identificar y eliminar los defectos, errores y fallas en los procesos o sistemas concentrándose en las características de importancia crítica para los clientes (Antony, 2008).
Sigue la estructura DMAIC de seis sigma para alcanzar la satisfacción del cliente y mejorar los resultados financieros de las empresas. Existen muchas razones por las cuales las empresas aplican esta metodología combinada mejorar la calidad del producto, hacer más eficientes los procesos de producción, aumentar el desempeño del negocio y la expansión de sus mercados a una competencia global.
En lo que concierne a esta investigación, se busca responder a las siguientes cuestiones ¿Cuáles son lo factores de riesgo a los que se enfrentan los ingenieros, al momento de implementar Lean Six Sigma en los procesos de manufactura en el sector automotriz?.
La falta de patrocinadores, la entrega del proyecto fuera de tiempo y fuera de forma, la falta de recursos económicos, que la propuesta no resuelva la problemática y que el proyecto quede inconcluso, son algunos de los factores de riesgo comunes en la industria al momento de implementar un proyecto. Es por eso que se requiere identificarlos, pues esto puede ayudarnos a prevenir que se realicen los proyectos de manera errónea y no se terminen, dando resultados poco favorables.
METODOLOGÍA
La revisión sistemática de literatura (SLR) descrita Denyer et al. (2008), McPherson y Jones (2010) y Tranfield y col. (2003), nos permite interpretar la información obtenida de un tema de investigación. Este método tiene numerosas ventajas en comparación con los métodos tradicionales no estructurados. Adopta procesos replicables, científicos y transparentes (Tranfield et al. 2003, p. 209) que permite: (1) minimización de sesgos y errores; (2) mejora la calidad de la revisión del proceso y los resultados; (3) confirmación de su valides a través de la replicación de los pasos durante su proceso de revisión; (4) Sintetizar y organizar la literatura encontrada.
Para la implementación de esta sistemática se van a seguir tres pasos los cuales son (1) Planificar la revisión, (2) realización de la revisión, (3) informar de los resultados de la revisión.
En el primer paso, Planificar la revisión, se debe identificar las necesidades de realizar RSL, se hace una formulación de las preguntas de investigación, se generan las cadenas de búsqueda y se seleccionan las fuentes de datos para la extracción de estudios primarios.
En el segundo paso, Realización de la revisión, corresponde a la definición de los criterios de incisión y exclusión, la ejecución de un proceso de selección de estudios y una evaluación de la calidad del estudio.
Y en el tercer paso, que son los Resultados, se presentan los resultados obtenidos de los estudios primarios.
CONCLUSIONES
Con esta investigación, mediante la búsqueda de información, se esperan encontrar los factores de fracaso o riesgo al momento de implementar proyectos Six Sigma dentro del sector automotriz.
Una buena implementación de LSS, puede traer múltiples beneficios si se logra una correcta aplicación, previniendo riesgos como: no tener patrocinador, no contar con los recursos económicos para su implementación, no entregar en tiempo y forma, la propuesta no resuelve el problema, proyectos inconclusos, etc.
Aguilar Mancillas Andrea Monserrat, Instituto Tecnológico de Tepic
Asesor:Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
TRANSFORMACIóN DIGITAL EN LAS MICRO Y PEQUEñAS EMPRESAS
TRANSFORMACIóN DIGITAL EN LAS MICRO Y PEQUEñAS EMPRESAS
Aguilar Mancillas Andrea Monserrat, Instituto Tecnológico de Tepic. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia industrial han existido importantes avances tecnológicos, sin embargo la transformación digital en cualquier ámbito son objeto de especial interés de estudio gracias a la velocidad de las mejoras y cambios que ofrece además del grado de expansión que genera en toda la sociedad, ayudando a innovar la manera de comunicarse con sus clientes dentro como fuera de la empresa, logrando identificar correctamente su mercado, conocer sus necesidades para darles un servicio/producto con mayor calidad y especializado para cada uno de ellos.
La presente investigación realiza un análisis en base a recopilación de información donde se muestra el proceso que las empresas, específicamente micro y pequeñas, llevan al adaptarse al entorno digital para ante las nuevas tecnologías y hábitos que poseen los clientes para la adquisición de bienes, productos y servicios.En la transformación digital de cada tipo y contexto empresarial, debe ser una prioridad el lograr una integración tecnológica basada en la comunicación de los sistemas de información que permitan apoyar a la organización en la toma de decisiones. Es por eso que se considera la necesidad de contar con una estrategia donde se unifican todos los canales que abarcan el mercado del comercio para lograr así una comunicación coherente y coordinada. El fundamento principal de este trabajo es la omnicanalidad, ya que abarca la integración de todos los conceptos que inciden en el ámbito digital, como los dispositivos móviles, y en el ámbito tradicional.
METODOLOGÍA
Fase de planeación:
Se identificaron los temas de estudios, conforme a la pertinencia de formación de los investigadores. Seleccionando el proceso y herramientas utilizadas para la Transformación Digital en la Micro, Pequeñas y Medianas Empresas de Colombia y México.
Fase de Definición de alcance:
De acuerdo a la información encontrada y estudiada, en los procesos de Transformación Digital en las empresas, seleccionado el proceso como herramienta de estudio para el relacionamiento y gestión de los clientes en las MIPYMES.
Fase de Recolección de información:
Se investigan las diferentes definiciones y alcance del proceso en las MIPYMES, teniendo los siguientes resultados:
Actualmente existen estudios previos desarrollados acerca de la transformación digital de manera general, hablando de las herramientas existentes y como es que evoluciona la tecnología a través de los años. Sin embargo, la mayoría son estudios enfocados a grandes empresas las cuales además de ser de empresas posicionadas en el mercado, éstas ya cuentan con los sistemas de información digital y es notable cómo en los estudios solo es desarrollado los temas de la importancia o beneficios que estos sistemas han traído en la forma de atender a sus clientes, vender sus productos y administrar con facilidad la logística de la empresa.
De acuerdo con los datos de Forbes en México existen cerca de 4.2 millones de MIPyMES, las cuales contribuyen con alrededor del 52% del Producto Interno Bruto (PIB) y generan el 70% del empleo formal.
El apoyar a estos mercados impactaría no solo en el desarrollo del país, sino también a cada una de las empresas que están pasando por un momento de transición en los que ofreciéndoles la información necesaria acerca de este proceso digital, la tecnología se convertirá en su mejor aliado.
Las MIPYMES, de alguna u otra manera, y con mayor o menor éxito, están trabajando conceptos como mobile first (primera versión de una web optimizada para móviles) omnicanalidad (canales digitales, análogos y físicos para interactuar con el cliente), experiencia de usuario, advocacy o marketing de recomendación, influencers, entre otros. Ajustandose completamente a la generación Z, ya que promueve economías más dinámicas, más creativas y sobre todo más eficientes.
Fase de resultados:
Esta investigación tiene como resultado, el estudio del proceso y el diseño de un modelo de implementación para la transformación digital en las MIYPES.
CONCLUSIONES
Anteriormente el consumidor y su relación con las empresas era una comunicación a través de múltiples canales, pero de forma aislada, dejando de lado la interconexión entre ellos, a partir de la digitalización se atrajo un cambio importante generando la necesidad de crear nuevas estrategias.
La omnicanalidad es un tema popular en la actualidad y en las empresas, donde integran todos los canales existentes de atención al cliente, es decir, teléfono móvil, mails, chats, redes sociales, entre otras. Los OMS son una solución para atender los desafíos impuestos de la omnicanalidad, Order Management System es un sistema que permite capturar pedidos, independientemente del canal de ingreso y los lleva a un hub único de pedidos, desde donde son atendidos. Así, los pedidos de clientes son procesados a partir de los pedidos ingresados en el hub e incluye la definición de estrategias de pricing (teoría económica que permite fijar un precio que aporte valor al cliente), así como también lo referente a las reglas de asignación de stock y despacho.
El propósito de esta y todas la herramientas que permiten integrar los canales de comercio es que las comunicaciones iniciadas por el consumidor en un sitio puedan continuar sin ningún inconveniente por otro, estableciendo así conocimiento y seguridad para el cliente.
Muchas de las MIPYMES en México todavía utilizan obsoletas aplicaciones que no son compatibles con las prácticas comerciales emergentes, las pequeñas empresas tienen las mismas necesidades que las grandes, pero se enfrentan a diferentes desafíos en vista de sus limitados recursos y capacidades financieras.
Falta mucho por descubrir sobre el mundo digitalizado, pero empezamos a tener bases sólidas y contrastadas que pueden ser sumamente útiles para encarar la propia evolución profesional y organizativa hacia lo digital, ayudando a generar un impacto que afecta a las empresas en forma transcendental.
Aguilar Mendoza Felix Nemecio, Instituto Tecnológico de Chilpancingo
Asesor:Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
IMPLEMENTACIóN DE RED NEURONAL
IMPLEMENTACIóN DE RED NEURONAL
Aguilar Mendoza Felix Nemecio, Instituto Tecnológico de Chilpancingo. Cruz Cardenas Jose Nathaniel, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La gran diversidad de plantas ornato en el mundo resulta un desafío para poder identificar con exactitud cada una de estas plantas incluso para personas que están entrenadas en el campo de la botánica, debido a la inmensa cantidad de información que se puede obtener de las plantas es imposible para un ser humano poder acceder a esa información de forma inmediata y trabajar con ella.
METODOLOGÍA
Este texto expone el proceso de investigación que realizamos para el desarrollo de la red neuronal, comenzamos nuestra investigación aclarando algunas preguntas como, por ejemplo: ¿qué es una red neuronal?, ¿qué aplicaciones tienen una red neuronal?, ¿cómo está formada una red neuronal? y ¿cuáles son las mejores herramientas para el desarrollo de una red neuronal?, consultamos en fuentes de información a nuestro alcance.
Con una idea clara de que lo es una red neuronal, el alcance que esta puede tener, así como, de nuestro conocimiento y habilidad actual, definimos que nuestro proyecto sería capaz de identificar si una planta pertenece al grupo de las angiospermas o gimnospermas, mediante una imagen.
Para lograr el completo desarrollo del proyecto comenzamos por sugerencia del nuestro asesor el Dr. Juan Antonio Aguilar Rodríguez, con nuestro primer encuentro con el lenguaje de Python mediante una herramienta de Google llamada Colaboratory, la cual nos permite escribir y documentar código Python sin necesidad de instalar ningún software en nuestro equipo.
Investigando sobre algún proyecto parecido, encontramos un notebook en Colaboratory (véase Anexo 1), el cual podía identificar una planta dentro de una imagen, este proyecto hacia uso de librerías que nos facilitaría el trabajo de la creación de modelos de redes neuronales, así como de su entrenamiento, las librerías de las que hablamos son; TensorFlow, la cual es una librería de código abierto desarrollada por Google, de aprendizaje automático atreves de tareas, esto para entrenar redes neuronales que puedan detectar y descifrar patrones y correlaciones y Keras, esta es una librería de código abierto escrita en Python, capaz de crear modelos de aprendizaje sobre TensorFLow.
Durante la investigación de mas proyectos parecido encontramos otro proyecto de una red neuronal capaz de identificar ropa por medio de imágenes (véase Anexo 2), lo desarrollamos como practica y al ver que tenía una gran similitud con lo que buscábamos desarrolla decidimos tomarlo como base, cambiando su entrenamiento para que, en lugar de identificar ropa, identificara flores.
Nuestra Inteligencia Artificial busca identificar si una planta es angiosperma o gimnosperma y de manera simple, la diferencia entre estos 2 tipos es que, las angiospermas tiene flores y las gimnospermas no las tienen, siendo las flores el patrón que la red neuronal debe buscar para poder clasificar la planta. Ya que lo que buscamos hacer es una red neuronal capaz de clasificar imágenes, usaremos una red neuronal convolucional.
Las redes Neuronales Convolucionales (CNN) son es un tipo de Red Neuronal Artificial con aprendizaje supervisado que procesa sus capas imitando al ojo humano para identificar distintas características en las entradas que hacen que pueda identificar objetos y ver. Para ello, la CNN contiene varias capas ocultas especializadas y con una jerarquía: esto quiere decir que las primeras capas pueden detectar líneas, curvas y se van especializando hasta llegar a capas más profundas que reconocen formas complejas como un rostro o la silueta de un animal.
La detección de un objeto para la red neuronal, será realizada por medio de las Convoluciones. es decir, tomar grupos de pixeles cercanos de la imagen de entrada e ir operando matemáticamente (producto escalar) contra una pequeña matriz de tamaño 3×3 pixeles llamada Kernel que recorre toda la imagen de entrada, con esto vamos generando una nueva imagen filtrada por el kernel, esta nueva imagen es que resalta ciertas características de la imagen original, esto para poder distinguir un objeto de otro.
El primer paso en el desarrollo y entrenamiento de nuestra inteligencia artificial, fue con la descarga y extracción del dataset de imágenes dentro de un archivo comprimido .zip.
Lo siguiente fue modificar el tamaño de las imágenes, así como de su coloración y pixelado, todo esto dentro de un bucle for, el cual itera sobre todas las imágenes del dataset, y guardando las nuevas imágenes en un arreglo, seguido se genera un arreglo de etiquetas para la identificación de las fotografías con los valores de 0 y 1 dependiendo de la cantidad de imágenes de flores que hay.
Posteriormente se genera una segunda etiqueta que muestra el nombre de la flor, en nuestro caso toma el valor de Rosa o Girasol, seguido a esto, cada imagen se la asigna su etiqueta donde le da su nombre ya sea una rosa o un girasol
Lo siguiente fue realizar las importaciones de las librerías TensorFlow y Keras, para comenzar con el entrenamiento de la red neuronal, el entrenamiento que recibió fue de 30 iteraciones
La fase final es tomar de manera aleatoria una imagen dentro de la base de datos y espera la predicción de nuestra red neuronal, como última prueba tomas una imagen externa y después de que esta fuera redimensiona y editada, se hace la predicción con el modelo que se está utilizando de la red neuronal
CONCLUSIONES
Con la finalización de este proyecto logramos desarrollar nuestra primera inteligencia artificial, la cual es capaz de identificar a que grupo pertenece la planta de una imagen.
Nuestro principal interés para el desarrollo de este proyecto fue académico, siendo el querer conocer más acerca de las inteligencias artificiales, que hoy en día cada vez están más presentes en nuestra vida cotidiana, y con todo lo que tuvimos que investigar por nuestra cuanta, lo que nuestro asesor nos recomendaba y lo que experimentamos durante el desarrollo de la inteligencia, consideramos que nuestro entendimiento de cómo desarrollar una inteligencia artificial aumento bastante.
Aguilar Morales Luis Alejandro, Instituto Tecnológico de Comitán
Asesor:Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
Aguilar Morales Luis Alejandro, Instituto Tecnológico de Comitán. Ariza Carbonó Geraldin Paola, Corporación Universitaria Americana. Roa García Daniela, Corporación Universitaria Minuto de Dios. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Desde la alerta de la Organización Mundial de la Salud (OMS) acerca de la pandemia del virus SARS-CoV-2 (COVID-19), en donde la interrupción de muchas actividades productivas, ha generado problemas también en la provisión de insumos, nacionales e importados, para las empresas que han seguido operando (CEPAL, 2020); México se encuentra inmerso en una grave crisis económica como consecuencia de la pandemia por SARS-CoV-2 (COVID-19). De acuerdo a los resultados de la encuesta telefónica de ocupación y empleo (ETOE) con cifras oportunas de abril de 2020 que emitió el INEGI, la tasa de participación económica en abril de 2020 fue del 47.5% respecto a la población de 15 años y más, cifra inferior en 12.3 puntos porcentuales a la de marzo del mismo año. Esta disminución representa una variación a la baja de 12.5 millones de personas económicamente activas, formales e informales, principalmente por encontrarse en un estado de suspensión laboral temporal ocasionado por la cuarentena (Senado de la República , 2020) .Proposición con punto de acuerdo de urgente y obvia resolución, por el que se exhorta al poder ejecutivo federal a implementar un programa de carácter nacional que otorgue un ingreso básico universal de apoyo económico a los trabajadores formales e informales de nuestro país, que permita mitigar los efectos de la crisis económica provocados por la pandemia del SARS-CoV-2 (COVID-19), ante el terrible impacto económico de la contingencia y los alarmantes datos de desempleo informados por el INEGI, en México la actividad de la industria manufacturera se redujo un 10,9% en los primeros cuatros meses del año y los sectores más afectados han sido los de cuero y calzado (-29,5%) y equipo de transporte (-26,9%), mientras que la industria de alimentos registró un aumento del 2,5% (CEPAL, 2020).En Colombia, el 96% de las empresas tuvieron una caída en sus ventas (el 75% registró una disminución superior al 50%) así como el 82% de las empresas formales podrían subsistir solo entre uno y dos meses con sus propios recursos (CEPAL, 2020)
METODOLOGÍA
El tipo de investigación desarrollada es teórica-practica donde se busca por medio de la revisión bibliográfica profundizar en la diversas temáticas implementadas para llevar a cabo el proceso investigación y de esta manera por medio de la práctica de cada una de las encuestas conocer la información práctica de la metodología 5s en las diferentes industrias donde se obtuvo una población objeto de estudio de los países de México y Colombia, con un total de 100 encuestados de tal manera que se organice de forma adecuada la información de la metodología y la forma de llevar a cabo el procedimiento en los distintos países.
Por consiguiente, la encuesta implementada es de vital importancia en el objeto de estudio de la metodología de tal manera que la encuesta tiene preguntas puntuales (cerradas) sobre la información general de las empresas y preguntas abiertas donde los participantes relatan la implementación de las 5s en el proceso de la pandemia del SARS-CoV-2 (COVID-19) en los diferentes países.
En este artículo se basó en el desarrollo de una encuesta con el fin de evaluar el comportamiento de las 5s en las industrias colombianas y mexicanas durante la pandemia del SARS-CoV-2 (COVID-19) donde se busca determinar los resultados sobre la aplicación de dicha metodología en las diferentes industrias, la investigación en curso es de tipo investigativa de tal manera que por medio de dicho instrumento se buscó analizar la herramienta en las diversas compañías.
CONCLUSIONES
La aplicación de las 5s, conlleva a un ajuste rutinario y el análisis de estrategia de implementación para las empresas que lo apliquen, las cuales deben de introducirlo de manera gradual para poder garantizar una correcta adopción de la nueva forma de trabajo a los trabajadores, con esto se puede asegurar el vínculo entre el compromiso y la responsabilidad mismas que conllevan a un bien entre trabajadores, administrativos, directivos y área de trabajo, lo cual ante la presente pandemia del SARS-CoV-2 (COVID 19) , se considera como un elemento crucial para poder sobrellevar las actividades laborales sin recurrir al ausentismo o la disminución del rendimiento, por medio del compromiso de los empleados con el orden, la limpieza y el seguimiento de las medidas sanitarias establecidas.
El grado de implementación de las 5s, se establece en Colombia hay 74% de aplicabilidad de los principios de las 5s, comparándolo con México que es del 65% en donde los encuestados de cada país, responden que el hecho de tener estas herramientas les permite agilizar sus actividades, en una proporción del 91% con respecto a Colombia y un 76% en México; en el grado de consideración de la limpieza, ambos países denotaron un 70% de aplicabilidad de métodos.
En última instancia del presente documento, se recalca que las 5s son un conjunto de herramientas y estrategias, las cuales han hecho presencia como herramienta para enfrentar la actual pandemia de SARS-CoV-2 (COVID 19) y han mostrado el impacto que estas pueden tener si se implementan de manera correcta, no solo para mejorar la productividad y garantizar un clima ambiental seguro para los trabajadores, también son fundamentales para crear conciencia en todos los rangos jerárquicos de las empresas y estos puedan seguir los lineamientos establecidos para obtener una organización controlada, misma que puede ser medida y analizada para evaluaciones y ajustar acciones correctivas, en caso de necesitarlas.
Aguilar Navarrete Carlos Iván, Instituto Tecnológico de Comitán
Asesor:M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
EL EMPRENDIMIENTO Y LA VINCULACIóN EN LAS IES, ESTRATEGIAS PARA SU MEJORA.
EL EMPRENDIMIENTO Y LA VINCULACIóN EN LAS IES, ESTRATEGIAS PARA SU MEJORA.
Aguilar Navarrete Carlos Iván, Instituto Tecnológico de Comitán. Asesor: M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
En la última década se ha incrementado la falta de empleos, por lo que los jóvenes recién egresados no pueden adentrarse a la vida laboral de forma inmediata al culminar sus estudios profesionales.
En México la situación al respecto no presenta muchas mejoras. En el último trimestre de 2019 el porcentaje de desempleo se encontraba en un 3.4% y en 2020 cerraba con un 4.6%, según datos del INEGI. A raíz de la pandemia por COVID 19 durante 2020, estos datos fueron en aumento, obligando a muchos negocios a cerrar, a empresas a reducir el número de su personal para sobrevivir y muchas de las pequeñas empresas que estaban en su primer año de actividades no sobrevivieron a la crisis por lo que su fin llegó antes de su segundo año de vida. Estas y muchas más situaciones dejaron a miles de familias desempleadas, por lo que se vieron en la necesidad de sobrevivir ideándose algún negocio propio (en su mayoría informales), aquí es donde el emprendimiento tuvo un incremento importante dentro de nuestro país, ya que el 90% de los mexicanos presentan interés en un iniciar un negocio propio. La problemática inicia con que a pesar del interés la mayoría de estos no cuentan con los conocimientos ni herramientas necesarias para emprender alguna idea de negocios.
Muchas de las Instituciones de Educación Superior (IES) brindan apoyo y orientación a sus jóvenes alumnos para llevar acabo su idea de negocios, con esto ayudan a incrementar la economía local, generar empleo y ofrecer sus servicios a las grandes empresas. Sin embargo, esto ya no parece contar del todo con estrategias basadas en los requerimientos actuales, dado que el mundo empresarial actual se mantiene en constantes cambios y constantemente para mantenerse al margen de los mercados competitivos, por lo tanto, debe darse mejoras en las estrategias y vinculaciones para que los nuevos proyectos emprendedores tengan oportunidad de crecer en el mercado actual.
METODOLOGÍA
Con la investigación documental se obtuvo información precisa para adentrarse en el tema y conocer como se ha dado el emprendimiento en nuestro país, en donde desde el 2012 se presentaba con una economía basada en la eficiencia gracias a que contaba con 6 pilares de la competitividad, esto colocaba al mercado mexicano en la posición número 12 a nivel mundial y permitía que la cultura emprendedora comenzara a desarrollarse de manera exitosa gracias al consumo interno que se da en el país.
Con el diseño y aplicación de una entrevista a la Dra. Saida Libia Peña Cano, quien cuenta con amplia experiencia en emprendimiento y vinculación, se logró apreciar varios puntos que reflejan como las IES han apoyado al emprendimiento, las fortalezas y debilidades que estas tienen respecto al tema y como todo esto hace que las ideas de negocio prosperen o no. De igual manera, nos proporcionó información respecto a cómo se ha manejado la vinculación para fortalecer los conocimientos, desarrollar los proyectos y mejorar las estrategias para que los jóvenes emprendedores pongan en marcha su proyecto. También nos aportó datos que nos ayudaron a conocer las estrategias que se utilizan actualmente, siendo estas partes fundamentales para la cultura emprendedora, sin embargo, en la actualidad no han existido muchas mejoras para realizar una mejor labor. Esto obliga a las IES a trabajar como pueden y con lo que tienen para que los emprendedores puedan seguir adelante con el proyecto. Muchas instituciones de educación superior han logrado vincularse con otras instituciones y empresas para ayudar al emprendimiento.
Realizando una encuesta a docentes de diferentes instituciones de educación superior se amplió el panorama sobre la situación y como cada una apoya de diferente manera al emprendimiento, también arrojaron información sobre las mejoras que se pueden aplicar, las desventajas que se pueden eliminar y los cambios institucionales que se pueden dar para que cada vez sean más jóvenes los que decidan emprender y puedan ser asesorados correctamente en sus instituciones, además de contar con el apoyo de otras para concluir el desarrollo de cada proyecto.
Se proponen estrategias rediseñadas que las IES han utilizado para el emprendimiento y la vinculación, así como la creación de otras partiendo de los análisis realizados. Esto permitirá mejorar muchos aspectos para que la cultura emprendedora tenga mejores oportunidades con su proyecto.
También se presenta el impacto de la realización de este proyecto de investigación en la educación de calidad, perteneciente al desarrollo sostenible de la agenda 2030.
CONCLUSIONES
Durante la estancia del verano científico he logrado aplicar mis conocimientos, técnicas y habilidades de investigación para desarrollar este proyecto, también he adquirido nuevos conocimientos que me han ayudado a desarrollarme en el ámbito profesional, aplicando nuevas técnicas y herramientas que me permiten realizar un mejor trabajo. Esto ha tenido como resultado un proyecto que se ha trabajado con éxito y que aún se encuentra en la realización de la última etapa, pero que con el trabajo previo ha demostrado que nuestro país, México, cuenta con un gran potencial en cuanto a emprendimiento gracias a que los mexicanos nos caracterizamos por la imaginación, lo cual llevada a cabo da como resultado la creación de proyectos innovadores, replicables, con gran potencial y sobre todo exitosos cuando son realizados con las estrategias, herramientas y la orientación correcta. Por ello, es importante que las IES realicen mejoras para continuar con el emprendimiento exitoso de sus jóvenes estudiantes, dándoles las herramientas correctas y actualizadas para llevarlos a cabo.
Se espera que con propuestas de estrategias para el emprendimiento y la vinculación haya una mejora significativa que impacte en el aumento de proyectos a desarrollar e incubar, esto ayudará a los jóvenes a terminar con un negocio propio y así evitar el desempleo que se presenta actualmente, además, ayudarán a generar empleos en su región y a aumentar la economía local.
Aguilar Ortiz Jatzin Armando, Instituto Tecnológico de Lázaro Cárdenas
Asesor:Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
NAVEGACIóN AUTóNOMA DE VEHíCULOS A ESCALA
NAVEGACIóN AUTóNOMA DE VEHíCULOS A ESCALA
Aguilar Ortiz Jatzin Armando, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La navegación autónoma ha cobrado una mayor importancia en los últimos años. El propósito es limitar en todo lo posible la interacción humana. Una de sus aplicaciones está en los automóviles; vehículos terrestres que se conduzcan de forma autónoma y segura.
METODOLOGÍA
Se utilizaron vehículos a escala 1:10 Autominy, los cuales cuentan con un procesador principal, una IMU, un LIDAR, una cámara RGBD y una batería LIPO de 14.8 V. Los vehículos corren en ROS melodic en Ubuntu 18.04.
Los vehículos fueron inicialmente diseñados para recorrer un circuito oval dentro de un ambiente controlado. Diseñamos un nuevo circuito y realizamos pruebas a los vehículos en él. Se realizaron modificaciones a los paquetes de ROS de los vehículos para que pudieran recorrer el nuevo circuito, ya que había dos grandes diferencias: la forma de la pista y el color de las líneas de carriles.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos de ROS y ponerlos en práctica. Se logró que los vehículos recorrieran el nuevo circuito de forma autónoma. Se pretendía también que, utilizando el LIDAR, detectaran y esquivaran obstáculos, y mediante algoritmos de segmentación semántica detectaran diversos objetos en las imágenes capturadas por la cámara, como pueden ser la calle, otros coches, personas, cruces peatonales, señales de tránsito, etc. Pero debido a las limitaciones de tiempo no se pudieron culminar estas últimas.
Aguilar Ramírez Carlos Francisco, Instituto Politécnico Nacional
Asesor:Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
Aguilar Ramírez Carlos Francisco, Instituto Politécnico Nacional. Cruz González René Francisco, Universidad Autónoma del Estado de México. Rodriguez Pumarino Britany, Universidad Autónoma de Tamaulipas. Romero Díaz Alma Daniela, Universidad Autónoma del Estado de México. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metalmecánico hasta la bioingeniería médica.
Hoy día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con un amplio catálogo de tecnologías de impresión 3D y sus procesos periféricos, así como el manejo de diversos materiales y aleaciones, que lo convierte en el único Hub a nivel Latinoamérica con la capacidad de ofertar servicios con las tecnologías de (MA) más novedosas. (Un Hub se puede definir como un espacio para aprender, trabajar, crear y tiene características que la diferencian y que brindan oportunidades para unir a las personas). Otro organismo al cual se recurrió fue La Sociedad Estadounidense para Pruebas y Materiales (ASTM), esta es una de las mayores organizaciones en el mundo que desarrollan normas voluntarias por consenso.
La ASTM, además brinda un foro para el desarrollo y publicación de normas voluntarias por consenso, aplicables a los materiales, productos, sistemas y servicios.
Un recurso tecnológico indispensable en el desarrollo de este proyecto es la inteligencia artificial (IA), esta es empleada en algunas funciones propias del asistente virtual Alexa, de Amazon, tales como el procesamiento de lenguaje natural y el aprendizaje automático (machine learning).
Para una mejor comprensión de lo expuesto anteriormente, cabe señalar que los asistentes de voz son programas de software basados en IA, son capaces de reconocer con elevada precisión y responder a comandos de voz para ejecutar una serie de tareas y preguntas según las fuentes de información disponibles. Una de sus grandes ventajas hoy en día es que, hacen posible a los usuarios interactuar con diferentes plataformas de hardware mediante la voz. Esta es una de las razones por las cuales esta tecnología es una parte medular del proyecto.
Aunado a lo anterior, Alexa es el asistente virtual controlado por voz creado por Amazon, y lanzado en noviembre de 2014 junto a su línea de altavoces inteligentes Echo. Empiezas invocandolo diciendo su nombre, momento en el que el altavoz o dispositivo en el que esté integrado se pondrá a escuchar.
Por lo que se busca desarrollar un sistema basado en procesamiento de voz aplicado a la asistencia en la industria de la manufactura aditiva en México.
Derivado de ello es que existe la necesidad de concentrar toda esta información en un medio digital. Para que así, pueda ser consultada por los usuarios previo al depósito para garantizar las mejores condiciones de impresión y la calidad adecuada en la impresión de sus piezas.
Se pretende resolver un problema existente que se ha estado manifestando al consultar los diferentes parámetros de proceso en la manufactura aditiva, los cuales impactan en las propiedades térmicas, mecánicas, químicas por mencionar algunas. Dichos parámetros de proceso son consultados a través de diferentes fichas técnicas o manuscritos de divulgación científica. Por lo cual se requiere que dicha información se almacene en una base de datos para agilizar el proceso y utilizarlos en los diferentes instrumentos de la compañía. Así como también información relacionada con las propiedades microestructurales que caracterizan a las aleaciones utilizadas en procesos de fabricación aditiva.
METODOLOGÍA
Con base en la versión anterior del proyecto, el cual se trabajó en ediciones anteriores del programa Delfín y que nos sirvió de base para seguir haciendo mejoras debido a que lo que se tenía hasta el momento eran casos que si bien ya eran funcionales, aún hacía falta agregar nuevas funciones al desarrollo y con esto alcanzar la versión 3.0 del proyecto.
Tomando en cuenta las herramientas utilizadas en el desarrollo de versiones anteriores, las cuales fueron Amazon Web Services (AWS) y Amazon Alexa Skills. Se optó por seguir una metodología de división de tareas en los aspectos de mayor importancia en el desarrollo del proyecto:
Población de Base de Datos
Desarrollo de software
En la cual cada integrante desarrolla actividades que se complementan,de manera paralela con las actividades de los demás integrantes, para posteriormente presentar dichos avances al equipo.
No sin antes haber dado una breve introducción a las tecnologías utilizadas en el ciclo anterior y comprender el proyecto del cual se disponía, todo esto para detectar algunas de las vulnerabilidades del sistema y durante el transcurso del verano científico ir optimizando para un uso más preciso y sencillo.
En el caso particular de la Base de Datos, se busca optimizar el diseño de ésta, para evitar la redundancia de datos, ampliar los casos de uso y disponer de la información de una manera más precisa y concisa.
Por otro lado, el caso particular de la investigación radica en recopilar información útil para cubrir el proceso de la manufactura aditiva, dicha información se basa en las propiedades de las aleaciones, tales como propiedades térmicas, sus composiciones y datos mecánicos. Además, también se recopiló información de los distintos proveedores que hay en el mercado tanto nacional como internacional.
Por último, en el caso particular del software se busca aplicar reingeniería para optimizar los procesos de software desarrollados en veranos anteriores, así como crear nuevas funciones en el proyecto (casos de uso), esto con la finalidad de enriquecer la utilidad del programa de asistencia.
CONCLUSIONES
Durante esta estancia de verano se busca obtener los conocimientos necesarios para entender el proceso de la manufactura aditiva y la importancia de su presencia en la industria hoy en día. Dando la posibilidad de conocer más el lenguaje de programación Python y poner en práctica su aplicación en el desarrollo de servicios sustentados por Amazon, además de las propiedades térmicas, mecánicas y químicas de las Aleaciones utilizadas en el proyecto y el diseño de experimentos para el testeo de la Skill. Se espera que en próximos años se implementen más casos de uso al proyecto y pueda ser lanzado.
Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato
ANáLISIS EN CFD DE UN SISTEMA BIOCLIMáTICO PARA GRANJAS PORCíCOLAS INTENSIVAS
ANáLISIS EN CFD DE UN SISTEMA BIOCLIMáTICO PARA GRANJAS PORCíCOLAS INTENSIVAS
Aguilar Rosas Emmanuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La población mundial se espera que crezca a casi 10 mil millones para 2050, impulsando la demanda agrícola en un escenario de crecimiento económico modesto, en un 50 por ciento en comparación con 2013. El crecimiento de ingresos en países pobres y en desarrollo, acelerarían a una transición dietética de mayor consumo de carne, frutas y verduras, en comparación con los cereales, lo que requeriría cambios significativos en la producción y en la utilización de los recursos naturales (FAO, 2017).
El desarrollo e implementación de energías renovables es necesario para realizar una transición hacia economías bajas en carbono y segura desde el punto de vista energético, y la bioenergía tiene el potencial de hacer una contribución significativa. Es la única fuente renovable que puede reemplazar a los combustibles fósiles en todos los mercados energéticos: en la producción de calor, electricidad y combustibles para el transporte (IEA Bioenergy, 2014).
Por lo tanto, es importante implementar tecnologías y herramientas de optimización, de bajo costo que promuevan un desarrollo sustentable en las granjas porcícolas; por medio de la utilización de biocombustibles en el sistema de calefacción, se permite la utilización de recursos que de otra forma se desperdiciarían.
La dinámica de fluidos computacional (CFD) es el análisis de sistemas que involucran flujo de fluidos, transferencia de calor y fenómenos asociados mediante simulación computarizada.
METODOLOGÍA
La metodología para un análisis CFD comprende una etapa de preprocesamiento, una etapa de procesamiento y una etapa de postprocesamiento.
Se analizaron distintos prototipos para la tubería central del sistema bioclimático, después se agregaron las lechoneras, finalmente se modificó el diseño para mejorar la distribución de la temperatura en el conjunto de lechoneras.
Para realizar cada análisis, se utilizó el software ANSYS 2019 R3, y a partir de la aplicación Workbench se realizaron las etapas principales de CFD, desde el preprocesamiento con DesignModeler y Mesh, en el procesamiento con Fluent y finalmente el postprocesamiento con CFD-Post.
Conociendo las etapas para realizar un análisis CFD, la secuencia del proyecto se dividió en 3 etapas (Donde para cada simulación se utilizaron tres velocidades de entrada de 3-6-12 m/s):
Determinar la geometría para la tubería central de distribución de aire caliente.
Analizar el sistema de aire caliente con las lechoneras.
Modificar el prototipo y determinar el que cumpla mejor las condiciones establecidas.
CONCLUSIONES
En la primera etapa del proyecto se analizaron 3 prototipos para la tubería central, y al comparar el comportamiento de la temperatura, los únicos que alcanzan obtener una temperatura del aire en la salida por encima de los 35 °C, son el primero y el tercero, sin embargo, el primer prototipo al mantener una temperatura mayor y constante a lo largo de todo el modelo es la mejor opción para garantizar la calefacción de la lechoneras.
En la siguiente etapa con el sistema ya completo, de acuerdo al comportamiento de la temperatura, la velocidad de 6 m/s es la más óptima para ofrecer una mejor distribución de calor a lo largo de las nueve lechoneras, con respecto a la presión también las zonas de presión negativa, alcanza un valor de -8.32 Pa, casi un cuarto de la presión negativa generada en la velocidad de 12 m/s. Y para la velocidad tiene un buen rango y debido a que el final del tubo cuadrado se encuentra cerrado, el contraflujo provoca que la temperatura del resto de las lechoneras se mantenga uniforme al resto.
Al agregar los bafles después de cada tubería de caída, y con una velocidad de entrada de aire de 3 m/s, la temperatura en las lechoneras se encuentra por encima de los 35°C. El sistema sin bafles, alcanza mayor temperatura en todas las lechoneras menos en la séptima y octava. Para el sistema con bafles, la temperatura ya no es tan uniforme en la zona superior de las lechoneras y en la última hay muchas zonas que no alcanzan los 35°C. Pero al incrementar a una velocidad de entrada de 6m/s se obtiene la temperatura deseada.
Aguilera Pérez Vicente, Instituto Tecnológico Superior de Uruapan
Asesor:Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan
INTEGRATEC APLICACIóN MóVIL PARA AYUDAR A LOS ESTUDIANTES DEL TECNM CAMPUS URUAPAN A LOCALIZAR ASESORES PAR.
INTEGRATEC APLICACIóN MóVIL PARA AYUDAR A LOS ESTUDIANTES DEL TECNM CAMPUS URUAPAN A LOCALIZAR ASESORES PAR.
Aguilera Pérez Vicente, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Roberto Loaeza Valerio, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Debido a la pandemia por la cual atraviesa el país, el mundo entero y a falta de actividad en el campus ha generado que el programa de asesores par del ITSU, deje de impartir asesorías de manera presencial, esto impactó de manera significativa en los estudiantes de las distintas ingenierías ya que dejaron de recibir la asesoría en las materias de ciencias básicas, afectando su desempeño académico, debido a las dificultades de comunicación entre en los asesores par y los estudiantes.
Por lo anterior y por la imposibilidad de impartir asesorías par para los alumnos que lo requieren, se ve en la necesidad de crear una aplicación móvil que beneficie al alumnado y al programa de asesoramiento par para generar nuevas formas de comunicación y acercamiento entre el asesor y el alumno que lo requiera con el fin de acoplarse a las tendencias actuales y hacer que el programa de asesoramiento par se modernice de acuerdo a las necesidades presentes y futuras.
METODOLOGÍA
Para desarrollar el sistema, se utilizó una metodología clásica, la cual es la metodología de desarrollo en cascada, la cual tiene una serie de fases bien definidas, las cuales son:
Análisis de requisitos.
Diseño del sistema.
Diseño del programa.
Codificación.
Pruebas.
Despliegue del programa.
Mantenimiento.
Se decidió esta dado que es una metodología bien definida y permite visualizar cada fase, más o menos al plan de trabajo en el proyecto y al cronograma de actividades.
CONCLUSIONES
Podemos decir que de acuerdo a lo obtenido, la aplicación será una herramienta funcional que cumple con el planteamiento mencionado e incluso supera las funciones las cuales se plantearon, permitiendo así dar un mejor servicio y mejorar el programa de asesores par que se lleva a cabo en el TecNM Camus Uruapan, mejorando así la forma de comunicación y mejorando la calidad educativa de cierta manera, beneficiando así a toda la comunidad del Instituto.
Aguilera Rodríguez Edgar, Universidad de Guadalajara
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
Aguilera Rodríguez Edgar, Universidad de Guadalajara. Cinco Martínez Fernando André, Universidad de Guadalajara. Galiote Estrada Leslie Teresa, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
En el instituto Nacional de Lenguas Indígenas (INALI), realizó un Catálogo de Lenguas Indígenas Nacionales donde nos habla de las familias lingüísticas de México, el INALI por medio del catálogo presenta a 11 familias lingüísticas.
La lengua nahuatl es el idioma de los Mexicas y esta sirvió como vehículo de comunicación en la época anterior como la posterior, a partir de la llegada de españoles el nahuatl comienza a perder función y prestigio en los ámbitos religiosos y públicos.
Por ello la pérdida de las lenguas es lamentable, con la determinación de intentar revertir esta problemática el Instituto Tecnológico Superior de Huauchinango desarrolló un títere animatrónico, con la finalidad de que las comunidades del municipio de Huauchinango aprendan el lenguaje nahuatl haciendo a la población.
Pero una problemática que se presenta en con el animatrónico es el movimiento de la mandíbula, puesto que, al abrir y cerrar ya con la máscara, no se puede percibir el movimiento que se desea, y se busca un mecanismo mandibular que sea el más adecuado para que pueda hacer las gesticulaciones más humanas posibles.
METODOLOGÍA
Diseño 3D de Yugo Escocés
Primeramente, se diseñó el mecanismo de yugo escocés en 3D y se simuló su movimiento. Para este ensamble se diseñaron cuatro piezas: la pieza excéntrica, la corredora, los ejes y las guías. La pieza excéntrica, que es la pieza circular que realizará la rotación y en la construcción en físico estará adjunta a la flecha del motor. Esta cuenta con un eje en el centro su cara posterior que le permite girar, y un eje el cual la une con la corredora. Se colocaron dos guías, una de cada lado de la corredora, por donde pasan las extensiones de estas, referidos como seguidores. El resultado obtenido es el de un cambio de movimiento rotatorio a lineal, al simular la acción de un motor sobre la pieza excéntrica.
Movimiento de Traslación Mandibular
Para realizar este movimiento de traslación se utiliza un solo mecanismo de yugo escocés, pero con dos ligeras variantes. La primera radica en la ausencia de un segundo seguidor, pues solo es necesario el seguidor que generará la traslación de la mandíbula. En este seguidor, se agregó una extensión vertical que cuenta con una ranura, donde se inserta un pequeño eje sobresaliente de la mandíbula, ubicado justo en el centro de esta. Este eje cuenta con un cabezal que permite que la mandíbula se mueva tanto adelante como hacia atrás junto con la corredora. El propósito de esta ranura y el eje que puede moverse libremente a través de esta es otorgar a la mandíbula ángulos de libertad para desplazarse hacia arriba y hacia abajo, debido a que este sistema se combinará con el sistema de rotación. Si la mandíbula estuviese fija a la corredora, tanto la mandíbula como el mecanismo de yugo escocés se moverían como un solo sistema, haciendo que todo el peso de estos dos elementos tenga que ser soportado por los mecanismos de apertura y cierre mandibular. Para evitar esto, se planifica hacer una plataforma ubicada en el cuello, puesto que este no se moverá y por lo tanto no hay mecanismos que se coloquen en este espacio. En esta plataforma se colocarán las dos piezas fijas, como lo son el motor y la guía, y sobre estas se colocarán las demás piezas móviles que conforman este sistema.
Movimiento de Rotación Mandibular
Para recrear este movimiento se utilizaron dos yugos escoceses, uno de cada lado de la mandíbula respecto al plano sagital. Cada uno de estos mecanismos se mantiene anclado tanto al maxilar superior, como al inferior mediante un pivote. Adicionalmente, ambos mecanismos pasan a través de un balero lineal que funciona como guía para un movimiento vertical.
Sobre el maxilar inferior se colocaron ranuras, donde se insertan los pivotes de los yugos escoceses; estas ranuras permiten el movimiento de traslación mandibular, ya sea de manera independiente o un conjunto de ambos movimientos. Todo este mecanismo simula la función de los músculos de la masticación.
CONCLUSIONES
Durante la estancia del verano, se logró adquirir conocimientos teórico y prácticos del software SolidWorks, en el cual se llevó a cabo del diseño propuesto, pues gracias a su gran variedad de herramientas de edición nos permitió un gran rango de posibilidades de diseño. Con ello, el mecanismo pensado para el rostro animatrónico es el llamado yugo escocés, sin embargo, por el momento solo es una idea que aún no se ha probado y se espera en el futuro pueda ponerse a prueba para ver las fallas y complementar con nuevas ideas.
Aguilera Vazquez Anette Michelle, Universidad de Guadalajara
Asesor:Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
ADSORCIóN DE BUTANOL EN SOLUCIONES ACUOSAS EN UN NUEVO TIPO DE RESINA MACROPOROSA DE ADSORCIóN: ESTUDIOS DE ISOTERMAS DE ADSORCIóN Y SIMULACIONES CINéTICAS
ADSORCIóN DE BUTANOL EN SOLUCIONES ACUOSAS EN UN NUEVO TIPO DE RESINA MACROPOROSA DE ADSORCIóN: ESTUDIOS DE ISOTERMAS DE ADSORCIóN Y SIMULACIONES CINéTICAS
Aguilera Vazquez Anette Michelle, Universidad de Guadalajara. Asesor: Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
-Realizar diferentes modelos cinéticos con respecto al análisis de un artículo de investigación relacionado a la adsorción de butanol para la obtención de biocombustible, con el fin de valorar la eficiencia y afinidad de un adsorbente (en este caso una resina) con el butanol.
-De igual forma, la realización de modelos químicos en 3D (moléculas, especies, estructuras) con el objetivo de que puedan adaptarse como auxiliar a los libros de química, siendo este un libro interactivo.
METODOLOGÍA
- Para la obtención de datos cinéticos se analizaron los datos experimentales obtenidos en el artículo, por medio de la lectura de tablas y gráficas.
-Se separaron los datos de forma que se dividieron de forma: datos isotérmicos y datos cinéticos. Esto para poder realizar el modelado de la isoterma y el modelado cinético.
-Se realizaron los cálculos en base a los datos obtenidos, empleando las ecuaciones correspondientes y graficando para lograr ver el ajuste del modelo con los datos obtenidos. Siendo estos analizados en Excel.
-Se graficaron los diferentes modelos empleados para comparar y identificar el que mejor ajuste, y asimismo, se aplicó el modelo de transferencia de masa proporcionado por la investigadora.
-Se recabó toda la información en una presentación para la síntesis de los datos y exposición de resultados.
-Para la realización de los modelos 3D, los modelos se obtenían del libro de química: Química La ciencia central, 12va edición. Se encontraban en una tabla donde se seleccionaban y se trabaja en ellos en el programa de AUTODESK: FUSION 360. Previo a esto se tomó un curso para poder familiarizarse con el programa.
CONCLUSIONES
- Se logro determinar que el adsorbente analizado es afín al butanol y no a los sub-productos de los cuales se obtiene el butanol (etanol y acetona).
-Se logró determinar un modelo matemático cinético con un buen ajuste para los datos experimentales, logrando predecir el comportamiento del adsorbente con respecto al butanol. En este caso se analizaron cuatro modelos, siendo uno (Modelo de difusión macroporoso) el más apto.
-Se encontró un modelo de ajuste para los datos isotérmicos, siendo la ecuación de Lagmuir la correcta para describir el comportamiento. De igual forma se comparó con otro modelo para corroborar esto.
- Se lograron realizar los modelos 3D exitosamente, siendo caracterizados lo más fielmente posible, a su figura modelo
.
Aguirre González Jhan Carlos, Universidad Autónoma de Manizales
Asesor:Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
IMPLEMENTACIóN DE REALIDAD AUMENTADA PARA LA INTERVENCIóN EN NIñOS CON PROBLEMAS DE PSICOMOTRICIDAD INFANTIL
IMPLEMENTACIóN DE REALIDAD AUMENTADA PARA LA INTERVENCIóN EN NIñOS CON PROBLEMAS DE PSICOMOTRICIDAD INFANTIL
Aguirre González Jhan Carlos, Universidad Autónoma de Manizales. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La psicomotricidad corresponde al área que estudia la interacción entre el conocimiento, las nociones, emociones y el movimiento en la infancia. Cabe aclarar que sobre el tema de psicomotricidad existen diversas construcciones teóricas. Sin embargo, para algunos autores la psicomotricidad en general representa la intervención educativa o terapéutica que tiene como propósito el desarrollo de las habilidades motrices y expresivas a partir del cuerpo (Viteri, 2012). La evolución de dichas capacidades permite la realización de una serie de movimientos corporales y acciones, así como su representación mental y consciente de los mismos. La evolución se encuentra estrechamente relacionada con características biológicas propias de cada niño y con el entorno familiar, social y cultural donde se desenvuelve, por ello una de las particularidades del desarrollo psicomotor en los niños es la existencia de ciertas variaciones interindividuales que regularmente se identifican en cambios que podrían considerarse normales o esperables o en su defecto como retrasos de maduración debido a causas temporales o permanentes (Vericat y Orden, 2013).
Los factores biológicos, socioculturales y psicosociales se han descrito como determinantes para alteraciones en el desarrollo psicomotor durante las primeras etapas del individuo, demostrando ser la tercera causa asociada a los problemas de aprendizaje en la población infantil. Según la Asociación Americana de Psiquiatría, se estima que las alteraciones psicomotoras tienen una prevalencia del 6 % en niños entre 5 y 11 años de edad, Holanda por ejemplo, ha reportado prevalencias del 2,7 % y en Singapur una prevalencia del 15,6 %. En la región de Zaragoza, España se observó que entre el 11 % y 12 % de las consultas por neuropediatría se realizaban por motivo de retraso psicomotor (Palacio et al, 2017).
Cuando se refiere a Latinoamérica la prevalencia de los problemas de aprendizaje asociados a alteraciones psicomotoras se ubica entre el 33 % al 45 %. Del mismo modo se han reportado retrasos en el desarrollo psicomotor en niños en condición de pobreza a partir de los 18 meses de edad según datos de la Secretaría de Desarrollo Social de México. En este sentido, se crea la necesidad de desarrollar un proceso de intervención hacia estudiantes, implementando tecnologías novedosas como la realidad aumentada, esto con el propósito de prevenir el desarrollo de problemas psicomotrices que puedan afectar áreas socioculturales y psicosociales de los niños.
METODOLOGÍA
Se comenzó con una revisión bibliográfica acerca de videojuegos serios dirigidos al apoyo terapéutico, para ello se utilizaron las bases de datos electrónicas Scopus, PubMed, Science Direct y Google Scholar en las cuales se realizó una búsqueda avanzada con los siguientes términos: por un lado, videogame o "video game" o "serious game" o "therapeutic game" o "gamification" y, por otro, Serious game o realidad aumentada y psychomotor.
Se incluyeron estudios correspondientes a artículos de investigación y revisiones, escritos en inglés y español, y no se descartó ningún artículo por el tipo de diseño de investigación o metodología, cabe aclarar que no se establecieron criterios de exclusión estrictos con el propósito de incluir más estudios que pudieran generar una visión más amplia sobre el estado del arte en este tema.
A partir de la revisión bibliográfica se determinaron las reglas del juego teniendo en cuenta la utilización de un micrófono y una cámara dentro de los dispositivos periféricos o integrados que requiere el computador:
Posicionarse enfrente del computador tal que sea visible por la cámara.
Repetir o imitar el movimiento animado mínimo 3 veces.
Ejecutar los comandos de voz para continuar con el juego y evitar salir del rango de visión de la cámara.
Posterior a ello se determinó el movimiento a imitar por los niños mediante una animación 2D mostrada por pantalla, cabe aclarar que se deben integrar más movimientos para el correcto alcance del proyecto.
Una vez concluidos los requerimientos del juego, como las reglas, dispositivos y movimientos a implementar, se procede al desarrollo del algoritmo y se realiza la estructuración de la estética y diseño final del videojuego. Finalmente, se realiza la puesta en marcha del videojuego serio para validar el correcto funcionamiento y realizar las mejoras necesarias a partir de la retroalimentación.
CONCLUSIONES
Teniendo en cuenta los procesos desarrollados y los resultados alcanzados hasta el momento, se ha logrado identificar la importancia del estudio de la psicomotricidad infantil y su impacto en el desarrollo intelectual, social y afectivo de los niños. Del mismo modo se logró observar que la implementación de tecnologías novedosas como la realidad aumentada pueden cumplir un papel fundamental en los procesos de enseñanza que se llevan a cabo en las aulas, permitiendo así la educación de calidad inclusiva y equitativa (ODS 4).
Aguirre Iniesta Eduardo Rodrigo, Universidad Mexiquense del Bicentenario
Asesor:Dr. David Abdel Mejía Medina, Universidad Autónoma de Baja California
MODELO DE RED NEURONAL PARA LA PREDICCIóN DEL RESULTADO DEL EXAMEN EGEL-CENEVAL EN BASE AL HISTORIAL ACADéMICO
MODELO DE RED NEURONAL PARA LA PREDICCIóN DEL RESULTADO DEL EXAMEN EGEL-CENEVAL EN BASE AL HISTORIAL ACADéMICO
Aguirre Iniesta Eduardo Rodrigo, Universidad Mexiquense del Bicentenario. Mejía Mario Edwin Josué, Universidad Mexiquense del Bicentenario. Asesor: Dr. David Abdel Mejía Medina, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El examen general de egreso EGEL CENEVAL se aplica de manera obligatoria a todos los egresados de la Universidad Autónoma de Baja California. Si bien en la gran mayoría de los programas educativos se obtienen resultados positivos, aún hay estudiantes que no obtienen los resultados esperados. Por ello, surge la necesidad de generar estrategias de detección de casos en riesgo de no obtener una calificación satisfactoria o sobresaliente, lo cual permitirá a su vez establecer programas de estudio que ayuden a los estudiantes.
En este sentido, las redes neuronales permiten predecir el resultado de una situación dada, a partir de una base de conocimiento, lo que las convierte entonces en una herramienta pertinente para esta actividad. Sin embargo, uno de los problemas principales para el uso de las redes neuronales es precisamente el obtener la información necesaria para entrenar a la red neuronal, sobre todo en aquellos ambientes donde la información no se puede recopilar o donde, como en este caso, la información es sensible y no es de fácil acceso.
De lo anterior, se resumen como las problemáticas de este trabajo el diseñar un algoritmo para generar un conjunto de datos sintéticos a partir de unos datos conocidos, y posteriormente encontrar el modelo de predicción a partir de los datos obtenidos.
METODOLOGÍA
Para el desarrollo de este trabajo se empleó la siguiente metodología:
Diseño de un algoritmo para la generación del conjunto de datos sintéticos
En esta etapa de analizan los datos reales con los que se cuenta, y se diseñan un algoritmo que permita obtener los datos que no se conocen, pero que son necesarios para el entrenamiento de la red neuronal.
Para el diseño del algoritmo, se hace un análisis de la información disponible, la cual consiste en la cantidad de alumnos por semestre de egreso de un programa educativo en específico, el promedio de calificaciones por semestre de egreso, y el resultado del examen de egreso de cada estudiante. A partir de lo anterior, se obtiene la calificación por estudiante por área de conocimiento, y los resultados del examen por área de conocimiento.
Pre-procesamiento de la información
Una vez obtenido el conjunto de datos sintético, los datos se acomodan de manera que puedan tener un mayor impacto en el entrenamiento de la red neuronal. Esta etapa normalmente incluye la normalización de todos los datos.
Entrenamiento de la red neuronal
Esta etapa es una de las más relevantes, ya que de aquí se obtendrá el modelo de predicción. Para esto, en un compilador de lenguaje Python, se entrenará a la red neuronal para optimizar el modelo de predicción, a partir de realizar las siguientes actividades:
Definir las variables de entrada
Definir las variables de salida
Definir la configuración de las capas ocultas
Definir los hiperparámetros
Es importante mencionar que no hay un algoritmo que establezca un método infalible y aplicable a todas las situaciones para llevar a cabo las actividades de esta etapa, por lo que se requiere que se lleven a cabo mediante una estrategia de optimización.
Validación del modelo de predicción
Una vez que se obtiene el modelo de predicción que produce mejores resultados, se requiere validar la independencia de los datos.
Para ello, el modelo se valida con la técnica k fold cross validation, en la que los datos del conjunto de entrenamiento se dividen en k bloques, y durante k iteraciones cada bloque se entrena al modelo con k-1 bloques, y se valida con el bloque restante; en cada iteración se utiliza un bloque diferente, de manera que los k bloques son usados como conjunto de validación. Al final, se promedian los resultados obtenidos en las k iteraciones. Si el resultado promedio se considera aceptable, y los resultados son similares a los obtenidos en el entrenamiento del modelo, entonces se concluye que el modelo es independiente de los datos.
Análisis de los resultados obtenidos
En esta etapa se realiza el análisis de las actividades realizadas en la metodología, con el motivo de conocer el impacto del conjunto de datos y las variables de entrada en los resultados obtenidos.
CONCLUSIONES
Las redes neuronales son una herramienta matemática de gran utilidad para la generación de modelos de predicción. Sin embargo, a pesar de la cada vez más amplia disponibilidad de herramientas para el entrenamiento de la red, es importante considerar todos los aspectos metodológicos para garantizar que los resultados que arroje el modelo son representativos del escenario en que se van a implementar.
Alamilla López Cynthia, Instituto Tecnológico de Pachuca
Asesor:Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)
ALGORITMOS METAHEURíSTICOS PARA LA OPTIMIZACIóN DEL TIEMPO DE PRODUCCIóN EN UNA PLANTA DE LA INDUSTRIA METALMECáNICA
ALGORITMOS METAHEURíSTICOS PARA LA OPTIMIZACIóN DEL TIEMPO DE PRODUCCIóN EN UNA PLANTA DE LA INDUSTRIA METALMECáNICA
Alamilla López Cynthia, Instituto Tecnológico de Pachuca. Reyes Lara Ana Valeria, Universidad de Sonora. Asesor: Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El caso de aplicación con el que se decidió trabajar es el de una industria metalmecánica de Aguascalientes dedicada a la elaboración de exhibidores metálicos. El proceso que se modeló y optimizó es el de doblado y corte de alambre, en donde las máquinas encargadas de realizar estas operaciones son paralelas no relacionadas y sus tiempos de ajuste son dependientes de la secuencia. Lo que se pretende lograr es minimizar el tiempo máximo de finalización, generando un programa de producción compacto.
Este es un caso clásico del flow shop híbrido flexible (HFS) el cual ha sido estudiado en el ámbito académico. El problema supone un conjunto de n órdenes que deben de ser procesadas por m máquinas, donde las máquinas son paralelas no relacionadas por lo que las órdenes de trabajo no pueden ser procesadas en cualquier máquina. Cada orden de trabajo tiene un tiempo de setup o ajuste en cada máquina, así como conlleva tiempos de procesamientos distintos para cada m. El tiempo que transcurre entre el inicio del primer trabajo en la primera máquina y la terminación del último trabajo en la última máquina se conoce con el término de makespan (Hojjati y Sahraeyan, 2009; Hmida et al., 2011). Teniendo en cuenta lo anterior, el objetivo será generar una programación que minimice el tiempo de makespan o tiempo máximo de finalización.
En general, el proyecto de investigación resultante tiene como objetivo principal dar avance al estado del arte en modelación y optimización con aplicaciones en problemas de ingeniería y ciencia. Estos productos de innovación tecnológica impactarán de manera directa en la generación del valor agregado en la industria.
METODOLOGÍA
Se comenzó con proponer tres métodos metaheurísticos para conseguir la optimización del proceso planteado, probando 10 instancias con las características de los sistemas de producción de la empresa en cuestión. Los algoritmos seleccionados son el de Búsqueda Aleatoria Simple (SRS), el Recocido Simulado (SA) y el Algoritmo Genético (GA). Los pseudocódigo de estos algoritmos son:
SRS
Generar un vector inicial xk
Definir k = 0
Generar un nuevo vector ŷ de acuerdo con una distribución de probabilidad. Si f(ŷ ) < f(xk), definir xk+1 = ŷ, si no xk+1 = xk
Detener el algoritmo hasta alcanzar K iteraciones; en caso contrario ir al paso 1 y definir k = k+1
SA
Elegir un vector inicial xk de manera aleatoria o determinista. Definir k = 0 y una temperatura inicial T.
Generar movimientos aleatorizados en el vector xk y con esto obtener un ŷ
Si f(ŷ) < f(xk), definir xk+1 = ŷ. En caso contrario, si U(0,1) < exp[f(xk) - f(ŷ))/T] definir xk+1 = ŷ; si no xk+1 = xk
Reducir la temperatura T de acuerdo a un programa de enfriamiento, por ejemplo, T = αT, donde α ∈ (0,1).
Detener el algoritmo hasta alcanzar K iteraciones o un valor mínimo de T. En caso contrario ir al paso 1. Definir k = k + 1
GA
Definir P = población inicial
Evaluar P
Mientras el criterio de término no se satisfaga,
Recombinar P = P'
Mutar P'
Evaluar P'
P = Reemplazar (P' U P)
Además de estos modelos, como participantes propusimos un método que consiste en generar un vector solución con la asignación aleatoria de las órdenes de trabajo de manera que cada máquina complete la misma cantidad de órdenes y, en caso de que el total de ellas sea un número impar, evaluar el vector de cada máquina para asignar la última orden a la máquina con el menor tiempo.
El siguiente paso consistió en generar una función objetivo base y codificar los algoritmos en Google Colab utilizando el lenguaje R, de manera que se obtuvieran valores para el tiempo de trabajo de las máquinas. Esto requirió el ajuste de los valores que cada parámetro tomó en las pruebas llevadas a cabo, lo cual se hizo de manera arbitraria guiadas por obtener un valor bajo en la varianza de los resultados obtenidos.
Se realizó una experimentación computacional en la cual se hicieron 30 ejecuciones independientes de cada algoritmo para cada instancia, recopilando las medias aritméticas, y con esa información se comparó el comportamiento de cada uno. Con dichos datos se realizó la prueba ANOVA donde se hizo la comparación estadística de las medias a través de la prueba de Tukey.
Tras probar los algoritmos se observó mejor desempeño en el Algoritmo Genético y el Recocido Simulado, estos tienen un rendimiento muy similar. Se observó que la programación del algoritmo del Recocido Simulado fue más sencilla, ya que los mecanismos internos del algoritmo son más simples en comparación con el Algoritmo Genético, el cual tiene una estructura más complicada de programar.
CONCLUSIONES
A manera de conclusión podemos decir que durante la estancia de verano virtual se logró conocer y aprender que existen distintos métodos metaheurísticos que pueden ser muy útiles al aplicarlos en problemas de ingeniería y ciencia. Por otra parte, desarrollamos habilidades de programación utilizando el lenguaje de R el cual se usó para codificar los algoritmos y poner en práctica métodos estadísticos como el Anova que nos ayudaron a hacer comparaciones del rendimiento de cada método.
El trabajo desarrollado puede extenderse con mayor experimentación y empleando otros algoritmos para después comprobar su funcionamiento en la industria del problema planteado y posiblemente equipararse a otros sectores.
Finalmente, el contenido aquí expuesto y su culminación se pretende llevar a una publicación con el propósito de transmitir los resultados y que se pueda generar un avance en el conocimiento científico, haciendo partícipes a industrias que tengan interés hacia este tipo de procesos de la planeación de la producción.
Alanis Marban Maria Montserrat, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
REMOCIóN DE PRODUCTOS FARMACéUTICOS EN SOLUCIóN ACUOSA EMPLEANDO UN ADSORBENTE A BASE DE CARBóN.
REMOCIóN DE PRODUCTOS FARMACéUTICOS EN SOLUCIóN ACUOSA EMPLEANDO UN ADSORBENTE A BASE DE CARBóN.
Alanis Marban Maria Montserrat, Instituto Politécnico Nacional. Bello Aguilar Cecilia Cristina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la mayor parte de las aguas residuales son desechadas hacia los cuerpos de agua, provocando contaminación al medio ambiente y elevado riesgo en la salud humana y animal (Hiew y col., 2019). Entre los compuestos orgánicos que se han detectado en estas aguas se encuentran los contaminantes emergentes los cuales incluyen pesticidas, productos de cuidado personal, detergentes, productos de desinfección, drogas y productos farmacéuticos, por mencionar algunos ejemplos (Teodosiu y col., 2018). En particular, los compuestos farmacéuticos han llamado la atención de los investigadores, ya que estos son vertidos al medio ambiente de forma continua y pueden provocar un impacto negativo en la salud humana y la vida acuática (Yakubu, 2017). Teniendo en cuenta esta problemática se han empleado diversos métodos para su remoción, entre ellos, la adsorción. Este proceso de separación destaca por su alta eficacia y fácil operación (Seo y col., 2016). Existen diversos materiales que pueden ser empleados como adsorbentes para la remoción de los compuestos farmacéuticos, la mayoría de estos provienen de desechos agroindustriales por lo que son de bajo costo y gran abundancia. Considerando lo anterior, este trabajo se enfocó en la remoción de naproxeno, diclofenaco y acetaminofén, empleando un adsorbente a base de carbón (el cual se obtuvo empleando un residuo lignocelulósico como precursor).
METODOLOGÍA
El adsorbente utilizado se obtuvo de la pirólisis del nopal tapón (Opuntia robusta). Previo al tratamiento térmico la biomasa fue triturada y tamizada hasta obtener un tamaño de partícula de 35 mallas. El tratamiento físico se realizó a 400 °C, durante 2 h, flujo de nitrógeno de 100 mL/min y una rampa de calentamiento de 10 °C/min. El material obtenido se lavó con agua desionizada (hasta obtener un pH constante en el agua de lavado), se secó durante 24 h, se trituró y tamizó para obtener partículas de 40 mallas. Los estudios de adsorción se llevaron a cabo durante 24 h empleando soluciones de naproxeno (NAP), diclofenaco (DIC) y acetaminofén (ACE) con concentraciones iniciales de 100, 400 y 700 mg/L, a pH 7, 30 °C y 120 rpm, poniendo en contacto 10 mL del adsorbato con 0.025 g del adsorbente. Transcurrido el tiempo de equilibrio el adsorbente fue separado de la solución mediante filtración. La concentración de los adsorbatos en las soluciones remanentes y sus concentraciones iniciales se determinaron con un equipo HPLC. Con los resultados obtenidos se calcularon las capacidades de adsorción (q, mg/g) mediante el siguiente balance de masa:
q=((Ci-Cf)*V)/m
donde Ci y Cf son las concentraciones iniciales y finales (mg/L) de los productos farmacéuticos, V es el volumen del adsorbato (L) y m es la masa de adsorbente (g) utilizada en los experimentos de adsorción.
CONCLUSIONES
Los resultados obtenidos con el tratamiento físico indicaron que después del proceso de pirólisis se tiene un rendimiento promedio de 48 %. Bajo las condiciones experimentales evaluadas se obtuvieron capacidades de adsorción máximas promedio de 22.86, 17.17 y 42.53 mg/g para NAP, DIC y ACE, respectivamente.
BIBLIOGRAFÍA
Hiew, B. Y. Z., Lee, L. Y., Lai, K. C., Gan, S., Thangalazhy-Gopakumar, S., Pan, G. T., Yang, T. C. K. (2019). Adsorptive decontamination of diclofenac by three dimensional graphene-based adsorbent: Response surface methodology, adsorption equilibrium, kinetic and thermodynamic studies. Environmental Research, 168, 241- 253.
Seo, P. W., Bhadra, B. N., Ahmed, I., Khan, N. A., Jhung, S. H. (2016). Adsorptive Removal of Pharmaceuticals and Personal Care Products from Water with Functionalized Metal-organic Frameworks: Remarkable Adsorbents with Hydrogen-bonding Abilities. Scientific Reports, 6(1), 34462.
Teodosiu, C., Gilca, A. F., Barjoveanu, G., Fiore, S. (2018). Emerging pollutants removal through advanced drinking water treatment: a review on processes and environmental performances assessment. Journal of Cleaner Production, 197, 1210-1221.
Yakubu, O. (2017). Pharmaceutical Wastewater Effluent-Source of Contaminants of Emerging Concern: Phytotoxicity of Metronidazole to Soybean (Glycine max). Toxics, 5(2), 10.
Alberto Tercero Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mg. Juan Carlos Galeano Garibello, Universidad del Valle
ESTRUCTURACIóN DE SISTEMAS DE ALUMBRADO PúBLICO PARA LA COMUNIDAD DE CHICHILPA POR MEDIO DE ENERGíAS RENOVABLES-SMART TOWN
ESTRUCTURACIóN DE SISTEMAS DE ALUMBRADO PúBLICO PARA LA COMUNIDAD DE CHICHILPA POR MEDIO DE ENERGíAS RENOVABLES-SMART TOWN
Alberto Tercero Jhoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Juan Carlos Galeano Garibello, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Chichilpa está ubicado en el municipio de San Felipe del Progreso, municipio perteneciente al Estado de México. Localizado a una altura de 2773 metros, CHICHILPA brinda hogar para 720 habitantes de los cuales 330 son hombres o niños y 390 mujeres o niñas. 383 de la población de CHICHILPA son adultos y 50 son mayores de 60 años.
Uno de los inconvenientes detectados en esta comunidad es la falta de alumbrado público, ciertos lugares cuentan con postes de luz (lámparas), sin embargo esto solo beneficia a pequeñas áreas y ciertas personas. La falta de alumbrado es un inconveniente que afecta a la comunidad en general, debido a que parte de la población regresa tarde de trabajar, de la escuela o incluso de realizar compras necesarias. De acuerdo con resultados de la Encuesta Nacional de Seguridad Pública Urbana (ENSU), difundida por el Instituto Nacional de Estadística y Geografía (Inegi) en marzo de 2019, dos de cada tres entrevistados perciben vulnerabilidad en espacios físicos, como las vías que recorren. Además, 62.9% considera la iluminación como insuficiente.
Una cuestión adicional se presenta cuando a pesar de contar con el servicio de electricidad (postes de luz) estos no tengan el mantenimiento adecuado y por consecuente estén en malas condiciones o inservibles en el mayor de los casos, provocando que la población se sienta insegura al momento de trasladarse de un espacio a otro. A pesar de que el lugar no tiene indicios de ser peligroso, la Comisión Nacional para el Uso Eficiente de Energía (Conuee) argumenta que la iluminación es un servicio público fundamental para que las poblaciones puedan desarrollar actividades en espacios exteriores durante la noche.
METODOLOGÍA
Este proyecto se desarrollará de una forma analítica, empezando con una investigación general sobre energías renovables utilizando un modelo Smart Town basándonos en resultados de sensores para alumbrado público.
El paradigma de desarrollo es XP.
CONCLUSIONES
Con este proyecto se pretende dar solución a la problemática de alumbrado público en la comunidad de Chichilpa, incorporando espacios seguros dentro de la comunidad y contribuyendo además con el cuidado del medio ambiente gracias al uso de energías renovables.
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Dr. Omar Antonio Vega, Universidad de Manizales
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit. Asesor: Dr. Omar Antonio Vega, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Dentro de un mundo globalizado como el actual donde cada vez se observan mayores avances tecnológicos y por tanto una evolución cultural que conlleva también a la de pensamiento, es necesario incentivar la participación de las nuevas generaciones haciendo que se fortalezcan sus habilidades y sean actores activos en la sociedad. El modo de hacerlo está al alcance y es la educación donde el uso de los recursos TIC resulta indispensable para alcanzar dichas competencias tecnológicas ya que el acercamiento a dispositivos digitales permite crear múltiples actividades que incentivan la transformación social.
La presente investigación indaga la manera cómo se hace uso de los diversos medios tecnológicos y de comunicación dentro de las aulas antes de la pandemia y desde los hogares durante la pandemia.
METODOLOGÍA
El tipo de investigación usada es la investigación acción participativa de tipo cualitativa y cuantitativa, que busca obtener resultados fiables y útiles para el análisis de situaciones colectivas, basando la investigación en la participación de los propios colectivos a investigar
Está fundamentado en la crítica social que promueve la auto- reflexión, considera que el conocimiento se da por el interés que parte de las necesidades de los grupos y se consigue mediante la capacitación de los sujetos para la participación y transformación social.
Se realizó una serie de preguntas que estaban contenidas en el cuestionario aplicado y que estas se dividían en dos apartados:
Utilización de las TIC antes de la pandemia por Covid-19
Utilización de las TIC durante la pandemia.
ANÁLISIS DE LOS DATOS: se interpretó la información de las preguntas contenidas en la encuesta con ayuda de graficas explicativas y comparativas así como de un documento en Excel como apoyo para interpretar los resultados de manera más clara y precisa.
Los docentes no pueden estar lejos de los avances tecnológicos, al contrario deben aprovecharlos para el aprendizaje de los alumnos ya que esta herramienta despierta gran interés en ellos y al darle un buen uso genera un aprendizaje significativo, por ende los docentes pueden utilizarla para favorecer el desarrollo de los alumnos.
RESULTADOS
Una vez obtenido los resultados del instrumento de investigaciòn se obtuvieron los siguientes Resultados:
La muestra está constituida por 24 docentes, con una edad promedio de 37,4 años, donde el más joven tiene 24 años de edad y 56 el mayor, con 35 años como la edad más común y una desviación estándar de 0,707.
En cuanto al género, hay una distribución de 50% para mujeres y el otro 50% para hombres, en tanto el 70,8% tiene una formación de pregrado (licenciado), 20,8% de maestría y el 8,3% restante ostenta el título de doctor.
Todos los docentes, con excepción de uno, laboran en instituciones del orden público, que se ofrecen educación primaria en el 45,8%, secundaria 37,5% y 16,7 educación media o bachillerato.
Las edades registradas en este estudio fueron en una variante de los 24 hasta los 56 años. Esto ayuda a comprender que docentes de edades variables llegaron a participar y se tomaron en cuenta para la investigación. Así mismo se obtuvo el dato que el genero en este caso fue igualitario ya que de 24 muestras 12 eran hombres y 12 mujeres, esto refiere que tanto hombres y mujeres aportaron sus ideas e ideales al estudio científico.
En esta investigación, de los 24 profesores encuestados 18 de ellos cuentan con un grado de licenciatura, 4 cuentan con maestría y 2 con doctorado.
CONCLUSIONES
Al tener en cuenta las competencias TIC para el desarrollo profesional docente se analizaron las encuestas teniendo en cuenta las competencias que deben desarrollar los docentes dentro del aula así como de su uso ahora en pandemia desde sus hogares. Ya que el propósito de la integración de TIC en la educación es mejorar los procesos de enseñanza y aprendizaje, dando un uso pertinente y responsable permitiendo así dinamizar tales procesos.
Según las respuestas dadas por los docentes en las encuestas se resalta que algunos tienen dudas del manejo de las TIC, debido a que varias de las preguntas enfocadas al conocimiento que ellos poseen de las TIC se evidencian respuestas donde nos dan a conocer que su conocimiento es mediano.
Durante el desarrollo de la presente investigación se resaltan importantes hallazgos que contribuyen al conocimiento de la realidad en cuanto al manejo de las TIC de las instituciones mexicanas públicas y privadas donde se logró identificar cuál es la apropiación y aplicación de las TIC por parte de los docentes.
Respecto al proceso enseñanza- aprendizaje, se observa que los docentes de las instituciones han asimilado el uso de TIC, tanto en su cotidianidad como en su labor profesional, es fundamental que los docentes estén actualizados y logren dinamizar el proceso de enseñanza
De lo anterior se concluye que es necesario incentivar el uso de los recursos tecnológicos y la mejor manera de hacerlo es fortaleciendo el conocimiento de estos, donde la capacitación juega un papel relevante de esta manera los docentes sienten la confianza del uso de las TIC y pueden transmitir esta motivación a los estudiantes quienes poseen la facilidad del manejo. De esta manera se conjugan saberes, formando una fusión interesante que permite aprovechar al máximo las bondades de los recursos TIC.
Alcantara Aguilar Alan, Instituto Politécnico Nacional
Asesor:Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero
ANáLISIS COMPARATIVO DE UNA EDIFICACIóN MODELADA CON BASE RíGIDA CONTRA UN MODELADO INCLUYENDO INTERACCIóN SUELO ESTRUCTURA POR EL MéTODO DEL COEFICIENTE DE BALASTO
ANáLISIS COMPARATIVO DE UNA EDIFICACIóN MODELADA CON BASE RíGIDA CONTRA UN MODELADO INCLUYENDO INTERACCIóN SUELO ESTRUCTURA POR EL MéTODO DEL COEFICIENTE DE BALASTO
Alcantara Aguilar Alan, Instituto Politécnico Nacional. Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Modelar una estructura de forma que más se asemeje al comportamiento que va a presentar en la realidad es uno de los aspectos más importantes al realizar un análisis estructural, ya que, nos permite tener una mayor seguridad de la posible respuesta que tendrá la estructura debido a las fuerzas actuantes y con esto, poder realizar el diseño de los elementos estructurales de una forma más eficiente o que mejor se adecue a las necesidades.
Un factor importante al representar sel comportamiento estructural es el poder modelar de una manera adecuada el medio de soporte de la estructura, normalmente, el modelado se realiza suponiendo una base empotrada, lo cual no siempre es una realidad, ya que, no es aplicable a todos los casos, sólo en algunos muy específicos (suelos muy rígidos o edificios con cimentaciones profundas).
Debido a lo anterior, en esta investigación se pretende realizar una comparación de resultados de un modelo considerando una base empotrada contra un modelo considerando el efecto de la interacción suelo estructura, con lo anterior, poder determinar cómo es la variación de los resultados que se obtienen en ambos modelos y poder concluir qué tan adecuado es realizar la suposición de considerar una base empotrada; para el modelo que considera la interacción suelo-estructura, se realizará por medio de una interacción estática suelo-estructura con ayuda del método del coeficiente de Balasto.
METODOLOGÍA
Para poder realizar la comparación de los resultados, se realizaron dos modelos en el programa de elementos finitos SAP2000.
Primeramente, se realizó el modelado de la edificación que considera una base empotrada, aplicando un análisis modal-espectral.
Posteriormente se realizó el modelo que considera la interacción suelo-estructura para lo cual, fue necesario el cálculo del coeficiente de balasto por medio de valores tabulados en función de un tipo de suelo propuesto (para nuestro caso de estudio, una arcilla media a compacta) y de las dimensiones de la cimentación, en nuestro caso de estudio igualmente propuestas. Al igual que en el modelo que considera una base empotrada, se realizó un análisis modal-espectral.
Finalizando con un análisis e interpretación de resultados comparando ambos modelos y realizando una conclusión acerca de qué tan adecuada es la suposición de realizar un análisis considerando una base empotrada.
CONCLUSIONES
Al analizar los periodos que se presentaron en ambos modelos se obtuvo una diferencia entre los periodos fundamentales de un 32% aproximadamente, recordando que el tipo de suelo que se utilizó para el modelado de la superficie de apoyo de la cimentación fue una arcilla media a compacta, entonces, podemos decir que al ir considerando suelos cada vez más rígidos seguramente esta diferencia entre los periodos fundamentales irá disminuyendo.
Además, se compararon los elementos mecánicos en la columna del eje 1-A de la planta baja y se obtuvieron elementos mecánicos de menor magnitud en el modelo que considera la interacción suelo estructura, presentándose una redistribución de momentos ya que, en el modelado con base empotrada, el momento en la base de la columna fue aproximadamente un 20% mayor al obtenido en el modelo que considera la interacción.
También se revisaron los desplazamientos del último nivel que se presentaron en ambos modelos encontrándose que existió una diferencia de un 70% entre ellos, pode decirse que fue una diferencia significativa, aunque, debemos tener en cuenta que el tipo de suelo que se utilizó para el modelado fue un suelo medianamente deformable por lo que, el modelo que considera la interacción suelo estructura fue el que presentó los mayores desplazamientos.
Finalmente, pode concluirse que al realizar un modelado considerando la interacción suelo estructura en especial en suelos deformables, se debe tener cuidado con los desplazamientos laterales y además; como se dijo anteriormente, entre menos deformable sea el suelo, los resultados entre ambos modelos serán similares y por lo tanto considerar una base empotrada no es correcto, por el contrario, considerar la interacción suelo-estructura permite obtener un comportamiento más realista porque se toma en cuenta, de forma aproximada, la flexibilidad y deformabilidad del suelo. Sólo hay que tener cuidado en la proposición del valor del coeficiente de balasto, ya que si se emplea un valor inapropiado, los resultados pueden ser también inadecuados.
Aldana Gomez Victor Manuel, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
DISEÑO Y DESARROLLO DE UN DRON HEXACOPTERO-X PROFESONAL PROGRAMABLE ADAPTABLE A DIFERENTES APLICACIONES (AGRICULTURA, SUPERVISION, MONITOREO, IMAGEN Y VIDEO, BUSQUEDA, RESCATE, CARTOGRAFIA)
DISEÑO Y DESARROLLO DE UN DRON HEXACOPTERO-X PROFESONAL PROGRAMABLE ADAPTABLE A DIFERENTES APLICACIONES (AGRICULTURA, SUPERVISION, MONITOREO, IMAGEN Y VIDEO, BUSQUEDA, RESCATE, CARTOGRAFIA)
Aldana Gomez Victor Manuel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
El mundo actual demanda necesidades a cubrir en nuestra forma de vida. Los sistemas drones son en la actualidad una oportunidad de desarrollo tecnológico con aplicaciones en diversas áreas del conocimiento. La investigación militar en los últimos años dio como resultado una serie de dispositivos que, independientes o dependientes del manejo humano a distancia, pueden realizar una serie de tareas. Originalmente los UAV son empleados de manera profesional, con una fuerte orientación hacia las tareas relacionadas con la defensa y la seguridad, y en la actualidad como una consecuencia natural de la evolución de la tecnología y el descenso de los costos de fabricación se comenzó a encontrar aplicaciones orientadas a la actividad comercial y civil. Para ello se plantea el desarrollo, construcción y programación de un dron profesional (UAV) hexacoptero con configuración tipo X, de menor costo que los comerciales y adaptable a distintas actividades del sector civil. Tener la capacidad de implantar o modificar los programas de control internos del sistema para un movimiento autónomo sin necesidad de actuación externa. También que pueda y se tenga la capacidad de interconectarse con otros drones similares para realizar enjambres de drones y movimientos en grupo coordinados.
METODOLOGÍA
El proyecto consta del diseño, desarrollo y la construcción de un hexacoptero. En esta fase se investigó el estado del arte de los diferentes sistemas de un UAV e información de proyectos relacionados en temas de drones de ala fija y drones de ala rotativa, se empleará en este caso un dron hexacoptero en configuración tipo X, ya que con esta configuración se obtiene mayor estabilidad menor vibración y mayor carga útil, ofrecen una gran versatilidad, puesto que permiten instalar todo tipo de cámaras para realizar diferentes tareas. Son drones que despegan y aterrizan de forma vertical y prácticamente desde cualquier superficie, si algún motor llega a fallar se tiene la ventaja de que los demás seguirán funcionando de manera óptima. El principal material que se utilizará en la construcción será la fibra de carbono ya que es muy resistente y tiene menos peso que el aluminio también es más resistente que el acero por eso será la utilización de este material, algunas otras partes se emplearan en material de aluminio. El diseño estructural se llevó a cabo observando diseños de otros drones del mercado y prototipos existentes. Posteriormente se hizo un estudio de componentes electrónicos necesarios para la implementación de un dron. Entre ellos se encuentran el ordenador de a bordo, los controladores de vuelo, variadores, baterías, motores, telemetría, distintos sensores y sistemas de conexiones. Algunas de las comparativas más habituales del mercado se analizan Diseño y elección del hardware. El sistema de piloto automático de hardware abierto Pixhack px4 2.4.8 como controlador de vuelo de 32 bits, transmitir al multicóptero las instrucciones deseadas, conteniendo un coprocesador STM32 a 168 Mhz y 256 k en RAM con sensor de giroscopio digital de tres ejes, acelerómetro de tres ejes, magnetómetro y acelerómetro de seis ejes y un barómetro. Para ello es necesario conectar el ordenador al controlador de vuelo, programando las instrucciones correspondientes y esto es a través de la telemetría de 915 MHz. A su vez, se ha de dotar al controlador de valores adecuados para ajustar su PID interno, esto es debido a que en función del peso, forma y motores instalados se ajustará de diferente manera, los seis motores a utilizar serán de 340 kv sin escobillas, dispositivos optoelectrónicos de potencia de 40 A 2-6s ESC para cada uno de los motores, amortiguador para el tablero de control, modulo GPS neo m8n con su soporte en aluminio, módulo de distribución de potencia ESC, mini OSD, divisor I2C como módulo de expansión, enchufe XT60 para batería de 10 A 3S, marco de fibra de carbono con una longitud de envergadura de 85 cm, modulo PPM, hélices de 12 pulgadas y paso de 60. En cuanto a la autonomía y pruebas de vuelo posteriores, se pretende que debe ser capaz de volar durante el tiempo adecuado para el desarrollo de sus tareas, en el diseño se buscará maximizar este valor. Las opciones de suministro de energía se reducen a las baterías basadas en iones de Litio, por lo que es de vital importancia sacar el máximo rendimiento a las mismas buscando el equilibrio entre el peso de la batería y la cantidad de energía que pueda almacenar para optimizar el tiempo de vuelo. Los vehículos aéreos que hacen uso de esta tecnología tienen una autonomía entre 20 y 25 minutos como máximo. Los objetivos del diseño es alcanzar estos valores e incluso, si es posible, llegar a la media hora.
CONCLUSIONES
Para el presente proyecto en fase inicial, el primer paso es pensar en la necesidad que se requiere o que actividad se pretende hacer. Luego sigue el diseño de la estructura: si es de aluminio, fibra de carbono o plástico, entre otros. Finalmente, se establecen los aspectos informáticos, electrónicos, mecánicos y de fabricación, así como también de la carga, herramienta o que portara para hacer su tarea. Sin embargo, es necesario saber también que tarea o tareas realizara para poder desarrollar las características primordiales que tendrá, para que sea optimo y funcional. Para ello este dron hexacoptero se desea que sea muy versátil en diferentes ámbitos y que su impacto en los diferentes sectores incremente, costo beneficio sea mucho mejor que los comerciales, superando las capacidades y tenga mayores beneficios para la población, ya que se volvió una herramienta versátil de apoyo y ayuda en muchas áreas y para el futuro. El hexacóptero, cuenta con un gran tamaño poco común para los tipos comerciales y que se asemeja más a los profesionales o personales y capaz de llevar una carga superior a la normal más su propio peso. El estudio se centra en los componentes estructurales y los módulos que forman la aeronave que permiten cumplir con los requerimientos del proyecto, así como la programación ya que esta es de código abierto y podemos hacer planificación control de vuelo ajustes de parámetros para poder lograr un vuelo planificado para diferentes áreas, y configuración de las trayectorias del prototipo aéreo.
Alegría Palacios Mariana, Instituto Politécnico Nacional
Asesor:Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California
ANáLISIS BIOMECáNICO DE PARáMETROS ESPACIOTEMPORALES Y CINEMáTICOS DE LA MARCHA HUMANA EN 3D.
ANáLISIS BIOMECáNICO DE PARáMETROS ESPACIOTEMPORALES Y CINEMáTICOS DE LA MARCHA HUMANA EN 3D.
Alegría Palacios Mariana, Instituto Politécnico Nacional. Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La marcha humana es un modo de locomoción bípeda que permite el desplazamiento del centro de gravedad del cuerpo humano compuesta de periodos de apoyo monopodal y bipodal, y estabilidad en la fase de apoyo. Además, es el resultado de integración y coordinación entre varios sistemas, involucrando al sistema nervioso, la médula espinal, los nervios periféricos, músculos, huesos y articulaciones (Arellano, J.C., et al., 2019). Mientras que el análisis del movimiento humano es el procedimiento por el cual se obtienen medidas cuantitativas o cualitativas del movimiento (Díaz, C.A., et al., 2006).
La marcha humana tiene un gran impacto en la calidad de vida de las personas, por lo que cuando alguno de los sistemas involucrados falla o presenta limitaciones, el patrón de la marcha se ve afectado dando origen a múltiples patologías o discapacidades que impiden el desplazamiento en el espacio, afectando también la capacidad de interacción del hombre con el ambiente. Es por eso la importancia del análisis cuantitativo y cualitativo de las características y parámetros de la marcha, ya que las alteraciones en dichos parámetros han sido asociadas a factores antropométricos, procesos de envejecimiento, o consecuencia de alteraciones biomecánicas debidas a distintas patologías (Agudelo, A.I., et al, 2013).
En la actualidad se cuentan con distintos sistemas para la captura y análisis del movimiento humano, sin embargo, algunos de estos sistemas tardan horas en entregar los resultados. Sin mencionar que es necesario invertir horas adicionales para analizar los datos y se requiere de personal especializado. Por lo que se plantea la necesidad de desarrollar un sistema que a partir de las trayectorias de los marcadores del modelo Plug in Gait de VICON sea capaz de determinar parámetros espaciotemporales y cinemáticos útiles para realizar una evaluación de diagnóstico.
METODOLOGÍA
1. Adquisición de datos
El sistema VICON está integrado por treces cámaras, once cámaras de iluminación infrarroja por las cuales se realiza el rastreo de los marcadores reflectantes pasivos colocados en cada individuo de acuerdo con el modelo Plug in Gait y dos cámaras de video Bonita 720c de alta velocidad. Además, es necesario contar con el software Nexus 2 para realizar la identificación de los marcadores en tiempo real. Con este sistema se realiza el registro de las trayectorias de los marcadores de cada captura del movimiento de un individuo. La evaluación biomecánica de la marcha se realizó en el Laboratorio de biomecánica y ergonomía en la Facultad de Deportes, campus Mexicali, de la Universidad Autónoma de Baja California, bajo la dirección de la Dra. Mirvana González Macías.
La información de las trayectorias debe ser almacenada en un archivo de extensión .xlsx
2. Determinación de parámetros espaciotemporales
Se determinaron los siguientes parámetros:
Longitud de zancada: distancia lineal entre dos contactos de talón consecutivos de la misma extremidad.
Velocidad: Es la relación de la distancia recorrida en dirección de la marcha por unidad de tiempo con referencia al centro de gravedad del cuerpo.
Cadencia de paso: Se relaciona con la longitud del paso y representa habitualmente el ritmo más eficiente para ahorrar energía en ese individuo en particular y según su estructura corporal. Los individuos más altos dan pasos a una cadencia más lenta, en cambio los más pequeños dan pasos más rápidos.
Para el cálculo de la velocidad se considero como centro de gravedad al punto formado en los ejes X y Z por el baricentro entre los marcadores T10, RPSI y LPSI, mientras que el eje Y se definió a partir de la diferencia entre las posiciones de los marcadores T10 y STRN.
La cadencia de paso calculada considera los valores de todas las longitudes de zancadas detectadas a partir de la posición en el eje Z del marcador del talón de cada extremidad.
3. Determinación de parámetros cinéticos
Los ángulos articulares de miembro inferior fueron determinados de acuerdo con la posición bidimensional de los marcadores que conforman a cada segmento, muslo, pierna y pie, considerando el ángulo formado en cada articulación.
Para la cadera y la rodilla se siguió la metodología propuesta por David A. Winter, calculando el ángulo formado entre dos marcadores con respecto a la horizontal. En el caso de la cadera, se considero el ángulo formado del hombro a la fosa iliaca y el ángulo formado de la fosa iliaca a la rodilla. Para la rodilla se consideró el ángulo formado del muslo a la rodilla y el ángulo formado de la rodilla a la tibia.
El cálculo del ángulo del tobillo se basó en la ley de coseno, determinando el ángulo formado entre los marcadores de la tibia, el tobillo y la punta del pie.
4. Despliegue de resultados
Se diseño una interfaz GUI en Matlab para que el usuario seleccione el archivo de trabajo y el miembro inferior a analizar, desplegando los parámetros espaciotemporales y cinéticos antes mencionados además de incluir una animación de la marcha que realizó el paciente en poco tiempo.
Los parámetros cinéticos de los ángulos articulares de miembro inferior son graficados con respecto al tiempo y se grafican los puntos de extensión y flexión máxima para cada articulación, de igual manera, los valores exactos de dichos puntos son desplegados dentro de la interfaz.
CONCLUSIONES
A partir de las trayectorias de los marcadores del modelo Plug in Gait de VICON es posible determinar parámetros espaciotemporales y cinéticos útiles para el análisis biomecánico de la marcha sin que sea necesario invertir gran tiempo para obtener dichos parámetros.
El sistema desarrollado cumple con el objetivo principal del proyecto, ya que simplifica el análisis biomecánico de la marcha, sin embargo, es necesario que los datos sean validados por un experto en el tema, ya que como en cualquier sistema automático los resultados podrían variar. Además, sigue siendo necesario contar con la experiencia de los expertos para la colocación de marcadores y la calibración del sistema de captura.
Alejandre Tavira Juan Manuel, Instituto Tecnológico Superior de Apatzingán
Asesor:Prfnal. Johan David Mardini Bovea, Universidad de la Costa
ESTUDIO COMPARATIVO DE TéCNICAS DE SELECCIóN DE CARACTERíSTICAS CON REDES NEURONALES ARTIFICIALES APLICADAS A LA PREDICCIóN DE ENFERMEDADES CARDIOVASCULARES.
ESTUDIO COMPARATIVO DE TéCNICAS DE SELECCIóN DE CARACTERíSTICAS CON REDES NEURONALES ARTIFICIALES APLICADAS A LA PREDICCIóN DE ENFERMEDADES CARDIOVASCULARES.
Alejandre Tavira Juan Manuel, Instituto Tecnológico Superior de Apatzingán. Soriano Barragán María Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Prfnal. Johan David Mardini Bovea, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Proponer un modelo funcional soportado en distintas técnicas de selección de características (chi square, info gain, gain ratio, relief, one R) hibridadas con redes neuronales para optimizar la detección de enfermedades cardiovasculares.
Establecer un estudio comparativo de las técnicas de selección de características (chi square, info gain, gain ratio, relief, one R).
Realizar una revisión sistemática de la literatura de la implementación de las redes neuronales artificiales enfocadas a las enfermedades cardiovasculares.
Desarrollar un prototipo de sistema de detección de enfermedades cardiovasculares que integre las técnicas de selección de características y las técnicas de clasificación RNA.
Evaluar el sistema propuesto y determinar la eficacia del mismo mediante la aplicación de distintas métricas de calidad.
METODOLOGÍA
La presente investigación implica la ejecución de dos fases: exploratoria y experimental.
En la fase exploratoria se pretende recabar un sólido marco de fundamentación o estado del arte que sirva de soporte a este y a futuros proyectos de investigación afines al área objeto de estudio.
En la etapa experimental se pretende plantear un modelo funcional capaz de clasificar la tendencia de un paciente de padecer enfermedad cardiovascular , mediante la implementación de diferentes técnicas tanto de selección como de clasificación.
CONCLUSIONES
Bajo la implementación del conjunto de datos CLEVELAND , se pudo realizar un modelo predictivo de enfermedades cardiovasculares implementando técnica de inteligencia artificial SOM , en el cual se pudo evidenciar lo siguiente :
Las características mas relevantes del conjunto de datos son: Colesterol, tipo de dolor en el pecho, edad, sexo, angina inducida por el ejercicio.
El modelo de mayor resultado teniendo en cuenta la característica de evaluación de modelo EXACTITUD es la que implementa la técnica de selección RELIEFF con la técnica de entrenamiento SOM, obteniendo 83,29% de exactitud.
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
Alfaro Salcedo Vianey, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
SíNTESIS DE CATALIZADORES DE COMOW SOPORTADOS EN SBA-15 MODIFICADOS CON NB
SíNTESIS DE CATALIZADORES DE COMOW SOPORTADOS EN SBA-15 MODIFICADOS CON NB
Alfaro Salcedo Vianey, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El petróleo es una mezcla de hidrocarburos que se diferencian entre sí por sus características físicas y químicas como masas moleculares y puntos de ebullición. En cuanto a la presencia de compuestos azufrados dentro de los productos petrolíferos es perjudicial para la salud y el medio ambiente. Adicionalmente, en los vehículos automotrices, la existencia de compuestos azufrados en los combustibles provoca corrosión en el motor y envenenan el convertidor catalítico. Asimismo, el uso de combustibles fósiles los cuales contienen compuestos azufrados origina la formación de SO2 y SO3 que, al reaccionar con la atmósfera, producen ácido sulfúrico y sulfuroso diluido, dando lugar a la lluvia ácida.
Por consiguiente, una alternativa para la reducción de contenido de azufre en el crudo es el proceso de hidrodesulfuración (HDS). Cabe destacar que en HDS se emplean catalizadores con base en metales de transición como molibdeno, tungsteno, cobalto y níquel, los cuales son capaces de soportar temperaturas y presiones altas. Sin embargo, los catalizadores utilizados actualmente en la reacción de HDS basados en sulfuros de molibdeno promovidos con Co(Ni) soportados en alúmina no resuelven el problema de los requerimientos ambientales respecto a la composición de azufre en las corrientes de gasolina y diésel. Por lo que, se han buscado soportes diferentes al de alúmina; uno de los materiales más promisorios son el SBA-15, ya que es un material bastante versátil al que se le pueden agregar algunos heteroátomos para modificar sus características fisicoquímicas lo cual modificara las características de la fase activa para lograr tener catalizadores más activos de HDS.
Por lo antes mencionado, en el presente proyecto se propone la realización de catalizadores trimetálicos de CoMoW soportados en SBA-15 modificados con niobio (Nb).
METODOLOGÍA
Síntesis del soporte SBA-15
El soporte SBA-15 fue sintetizado utilizando bloques copoliméricos de Pluronic P123, los cuales se disolvieron en 30 mL de agua desionizada, empleando agitación constante durante 30 minutos. Posteriormente, se agregaron a la disolución anterior 120 mL de HCl (2M) añadiéndolos en cuatro secciones y manteniendo la agitación constante hasta lograr una solución homogénea. Después, la disolución anterior, se calentó hasta 35 °C y se adicionaron a la disolución 8.5 g de tetraetilortosilicato (TEOS) gota a gota. Tras esta adición se mantuvo la temperatura en 35 °C durante 20 h. Transcurrido ese tiempo se suspendió la agitación y se colocó en el horno a 80 °C durante 48 h. El producto resultante, fue filtrado a vacío, lavado con agua desionizada y secado a temperatura ambiente durante 48 h. Finalmente, se calcinó a 550 °C por 6 h, en una mufla de calentamiento que trabajó con una rampa de 0.8 °C/min.
Modificación de soporte SBA-15 con Nb durante la síntesis
La modificación del soporte SBA-15 con Nb se llevó a cabo con la disolución de 4 g de Pluronic P123 en 150 mL de HCl a un pH de 1.5. Posteriormente, se preparó una solución de 10 mL de HCl con los precursores de silicio (Si) y de Nb. Para la síntesis de estos materiales se propusieron tres relaciones molares distintas de Si/Nb, las cuales fueron de 20, 40 y 60.
La solución de HCl con Pluronic P123 totalmente disuelto se calentó a 40 °C, una vez alcanzada dicha temperatura se agregó gota a gota a la solución que contenía los precursores de Si/Nb con agitación constante durante 20 h. Transcurrido ese tiempo se suspendió la agitación y se colocó en el horno a 110 °C durante 24 h. El producto sólido, fue filtrado a vacío y secado a temperatura ambiente durante 24 h. Finalmente, se calcinó a 550 °C durante 5 h con una rampa de 0.4 °C/min.
Modificación de soporte SBA-15 con Nb
El procedimiento implementado es conocido como injertado químico, dicho procedimiento se explica a continuación:
Inicialmente se disolvieron 1.88 mL de etóxido de niobio V (Nb(OC2H5)5) en 200 mL de etanol anhidro. Después, se añadieron a la solución 2 g de soporte SBA-15, con agitación constante durante 3 h. Al finalizar este lapso, el producto resultante se filtró al vacío, se lavó con etanol anhidro y se secó a temperatura ambiente por 24 h. Por último, el producto sólido se calcinó a 550 °C, durante 5 h con una rampa de 1 °C/min.
Síntesis de los catalizadores de CoMoW
Se sintetizaron cuatro catalizadores trimetálicos de CoMoW. El método empleado para la síntesis de los catalizadores fue la de impregnación húmeda incipiente.
Las disoluciones de impregnación se prepararon con una relación molar 2:1 entre los componentes de la fase activa (Mo + W) y el promotor (Co). Las sales precursoras de la fase metálica fueron las siguientes: heptamolibdato de amonio, metatungstato de amonio y nitrato de cobalto.
Para la preparación de la solución de impregnación se empleó un aditivo el cual fue el ácido cítrico. Una vez disueltas las sales, se agregó hidróxido de amonio a cada solución hasta conseguir un pH de 9. Posterior, a la impregnación de los catalizadores se dejaron secar a temperatura ambiente durante 24 h. Finalmente, los catalizadores se calcinaron a 500 °C, por 4 h con una velocidad de calentamiento de 3 °C/min.
CONCLUSIONES
Durante la estancia se sintetizaron los catalizadores trimetálicos de CoMoW soportados en SBA-15 modificados con Nb, se logró incorporar el Nb al SBA-15 empleando dos metodologías distintas, esto con la finalidad de modificar las características fisicoquímicas del material mesoestructurado de sílice, tales como la acidez y la interacción de la fase activa con el soporte.
Se adquirieron nuevos conocimientos de la síntesis y la utilización de nanomateriales como catalizadores para la reacción de HDS. El SBA-15 es un material nanoestructurado en dos dimensiones con una morfología y características texturales adecuadas para ser empleado como soporte catalítico.
Almaguer Islas Aida Giselle, Universidad de Guadalajara
Asesor:Dr. Guillermo Toriz González, Universidad de Guadalajara
CARACTERIZACIóN DE LA FIBRA DEL BAGAZO DE AGAVE PARA SU UTILIZACIóN COMO PAPEL PARA LIAR CIGARRILLOS DE TABACO
CARACTERIZACIóN DE LA FIBRA DEL BAGAZO DE AGAVE PARA SU UTILIZACIóN COMO PAPEL PARA LIAR CIGARRILLOS DE TABACO
Almaguer Islas Aida Giselle, Universidad de Guadalajara. Rascón Meza Ana Sofia, Universidad de Sonora. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Emplear un residuo como el bagazo de agave de la producción del tequila y mezcal es una alternativa para la producción de papel para liar tabaco. Dado que se aprovecha un desperdicio que contiene en sus fibras las propiedades y características suficientes para ser una alternativa diferenciadora y favorable en el mercado actual.
METODOLOGÍA
El desarrollo inicia con la investigación de las características y propiedades del agave y de su bagazo. Obteniendo está información se decide buscar los diferentes equipos, métodos y técnicas para la obtención de las fibras de bagazo, pulpeo, desmedulado, sedimentadores y cocción. Continuamos con la investigación de las características que debe de cumplir el papel de liar tabaco. Se opta por obtener hojas de 78 mm por 44 mm, conocidas como hojas de tamaño 1 1/4.Lo siguiente es analizar el gramaje del papel y comprobar las características deseadas. Si es posible, antes de finalizar el verano realizar físicamente el proceso completo de elaboración y los análisis en laboratorio necesarios. Durante toda la metodología se documenta la investigación, información, datos y referencias recabados.
CONCLUSIONES
Se caracteriza la fibra del bagazo de agave para su empleo en la producción de papel para liar cigarrillos de tabaco. Utilizar la fibra del bagazo obtenido como residuo de la producción de tequila y mezcal es una buena alternativa para producir papel para liar tabaco.
Almanza Orea Fatima Esmeralda, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Carlos Amaris Castilla, Universidad de la Costa
EVALUACIóN DEL RENDIMIENTO DE UN SISTEMA DE REFRIGERACIóN POR ABSORCIóN CON NH3/LINO3 ACTIVADO CON ENERGíA SOLAR
EVALUACIóN DEL RENDIMIENTO DE UN SISTEMA DE REFRIGERACIóN POR ABSORCIóN CON NH3/LINO3 ACTIVADO CON ENERGíA SOLAR
Almanza Orea Fatima Esmeralda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Carlos Amaris Castilla, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
La sobreexplotación de recursos naturales ha sido consecuencia del aumento considerable de las necesidades de consumo energético, esto debido al gran interés de poseer una mejor calidad de vida y al progreso asociado a los sectores como la construcción, transporte e industria. Por ello, la investigación y desarrollo sobre tecnologías avanzadas de acondicionamiento de aire son imprescindible para adaptarnos a los efectos del cambio climático y avanzar en el desarrollo de sistemas de bajas emisiones de gases de efecto invernadero y eficiencia energética, la necesidad de adoptar nuevos procesos y políticas amigables con el ozono y el clima significan la oportunidad ideal para el reemplazo de tecnologías antiguas con energías alternativas eficientes. Las tecnologías de refrigeración/calefacción por absorción han demostrado que tienen un alto potencial de ahorro de energía en comparación con las tecnologías convencionales de compresión mecánica accionadas eléctricamente, debido al hecho de que pueden funcionar adecuadamente. Considerando que el sector de las edificaciones contribuye enormemente al consumo de energía de la mundial y regional debido, en gran parte, al uso de sistemas de refrigeración y acondicionamiento de aire, en esta línea de investigación se propone realizar una evaluación exergética de un sistema de refrigeración por absorción con para su uso en el sector comercial de la ciudad de Barranquilla. Las tecnologías de enfriamiento solar por absorción han sido reconocidas por su alto potencial de ahorro energético y bajas emisiones de gases de efecto invernadero. Sin embargo, su factibilidad técnica depende drásticamente de las condiciones locales, del sistema de estudio propuesto y de las características propias, por lo que cada caso se debe estudiar individualmente, y así contribuir al desarrollo energético sostenible del sector comercial de la ciudad de Barranquilla y del departamento del Atlántico, como un eje de desarrollo de la región Caribe Colombiana.
METODOLOGÍA
En esta investigación se analizó el rendimiento de una enfriadora de absorción con NH3 /LiNO3 de 352 kW de capacidad de enfriamiento nominal activada con energía solar a partir del uso de colectores solares de vacío para centros comerciales. Para ello se desarrolló un modelo termodinámico que consiste en balances de energía y masa en cada uno de los componentes que constituyen el sistema estudiado. El modelo fue luego usado para determinar los efectos de variables como temperatura de agua fría, temperatura de disipación de calor, irradiación solar y temperatura ambiente sobre el rendimiento y capacidad de enfriamiento de la máquina.
Se realizaron una serie de suposiciones para simular el sistema y evaluar su rendimiento (B. Safarnezhad Bagheri, 2019):
El sistema opera en condiciones de estado estacionario.
El análisis de exergía se utiliza para optimizar los procesos estacionarios y el estado de referencia es definido como un conjunto de propiedades constantes correlacionadas adaptándose a las condiciones medias a temperatura ambiente. Las condiciones ambientales de referencia son 100 kPa y 25°C respectivamente.
El sistema tiene una capacidad frigorífica de 352 kW
Posteriormente se realiza un análisis termodinámico implementando los principios de conservación de masa y energía a cada componente del sistema del ARS. Se desarrolló un modelo termodinámico utilizando el software Engineering Equation Solver (EES) para calcular los parámetros energéticos. También se plantearon las ecuaciones para realizar un balance de exergía en cada componente del sistema de acuerdo a la segunda ley de la termodinámica. Las ecuaciones principalmente describen a las energías potenciales, la conservación de masa para un volumen de control, así como algunas expresiones matemáticas para calcular el coeficiente de rendimiento y la eficiencia exergética.
CONCLUSIONES
De la revisión bibliográfica sobre el análisis exergético en sistemas de refrigeración por absorción se puede resaltar lo siguiente:
De acuerdo con los resultados obtenidos de revisiones bibliográficas se muestra que un aumento en la temperatura del generador aumenta el COP y la eficiencia exergética en sistemas de doble efecto de flujo simple y en serie hasta una temperatura óptima del generador. El cálculo de los defectos de eficiencia demuestra que el absorbedor es el componente principal en el que el defecto de eficiencia es mayor en comparación con otros componentes en ambos sistemas.
Sobre el análisis del sistema de refrigeración por absorción solar se puede concluir lo siguiente:
El área de los colectores solares, el cual fue de 1105 m2, fue obtenida considerando condiciones nominales de operación y para una irradiación diaria promedio de 846.4 Wh/m2 (para la ciudad de Barranquilla). De acuerdo con los resultados de simulación, la máquina puede trabajar a bajos valores de irradiación solar a cargas parciales considerando temperaturas agua fría entre 8 °C y 15 °C y temperatura de disipación de calor entre 28 °C y 43 °C mientras que el rendimiento de la máquina varía entre 0.41 y 0.70. Para alcanzar la carga nominal se requiere un sistema de respaldo. Los resultados también indican que el rendimiento de la máquina es más sensible a la temperatura de disipación de calor que a la temperatura de agua fría. La máquina de refrigeración por absorción activada con energía solar puede trabajar a cargas parciales para bajos valores de irradiación solar. Por lo tanto, a excepción de los instantes en los que se tiene picos de radiación solar, la máquina alcanza su carga nominal al menos que se utilice un sistema de respaldo como lo sería un quemador de gas natural. También se puede concluir que las máquinas de refrigeración por absorción representan una alternativa sostenible y ecológica para el acondicionamiento de aire en diferentes edificaciones si se considera energía solar y otras fuentes de energía residual para su activación.
Alonso Arenas Jessica Araceli, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFÍA DE LÍQUIDOS Y GASES PARA LA DETECCIÓN DE COMPUESTOS DE INTERÉS AMBIENTAL Y BIOLÓGICO
CROMATOGRAFÍA DE LÍQUIDOS Y GASES PARA LA DETECCIÓN DE COMPUESTOS DE INTERÉS AMBIENTAL Y BIOLÓGICO
Alonso Arenas Jessica Araceli, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es una técnica de separación en la que un analito de interés se distribuye entre dos fases, comprende procesos en los que los componentes de una mezcla, disueltos en una fase móvil, se desplazan con diferente velocidad a través de una fase estacionaria y la correcta elección de estas fases permite que se lleve a cabo una separación efectiva de los solutos. Los componentes disueltos se mueven continuamente entre las dos fases, se asocian momentáneamente con la fase estacionaria y no migran, mientras que los componentes presentes momentáneamente en la fase móvil migran a la misma velocidad que esta, por tanto la separación no ocurre en ninguna de las dos fases, los componentes se separan cuando uno de ellos pasa a una velocidad diferente en la fase estacionaria respecto del resto, el tiempo que le tome a cada uno de los componentes en la fase estacionaria depende de su afinidad por esta. Este método es utilizado en la identificación y cuantificación de sustancias, en la separación de componentes de mezclas, así como en la purificación de compuestos, ya sea por si sola o asociada a otras técnicas de análisis.
METODOLOGÍA
La principal clasificación es según el tipo de soporte físico sobre el cual se desarrolla y según el estado físico de las fases.
Según el tipo de soporte físico sobre el cual se desarrolla
Se refiere al tipo de soporte físico donde se encuentra la fase estacionaria que se utilice en la técnica, esta puede ser sobre una superficie plana o al interior de un tubo, llamado columna.
Según el estado físico de las fases
La fase móvil puede ser un gas o un líquido, mientras que la fase estacionaria puede ser un líquido o un sólido, dando lugar a la cromatografía de gases y a la cromatografía líquida. Estas técnicas cromatográficas se pueden clasificar de la siguiente manera
Cromatografía líquido-sólido
Cromatografía líquido-líquido
Cromatografía líquida de alta resolución (HPLC)
Cromatografía gas-líquido
Cromatografía gas-sólido
Cromatografía de adsorción en columna
La fase estacionaria consiste en un sólido adsorbente empaquetado en una columna de vidrio, la muestra se deposita sobre la superficie superior de la fase estacionaria quedando adsorbida en ella, luego se vierte la fase móvil en la parte superior de la columna y se permite su paso a través de la fase estacionaria, durante este proceso los componentes de la muestra son arrastrados por la fase móvil a distintas velocidades llevándose a cabo la separación, la velocidad de arrastre de cada componente depende de su grado de adsorción en la fase estacionaria y de su afinidad por la fase móvil, esta debe ser seleccionada con base en su polaridad con el fin de optimizar la separación de los componentes de la muestra en la columna.
Cromatografía de adsorción de placa fina
En esta cromatografía, la fase estacionaria se deposita formando una delgada y uniforme capa de un material adsorbente sobre un soporte plano ya sea de vidrio o aluminio. La fase móvil es líquida y la fase estacionaria consiste en un sólido, la FE será un componente polar y la FM será menos polar que la FE, de forma que los componentes que asciendan a lo largo de la fase estacionaria por capilaridad sean los menos polares y los que avancen menos a lo largo de la fase, sean los más polares.
CONCLUSIONES
El agua es uno de los recursos esenciales para el desarrollo de todos los organismos, por lo que su contaminación es una creciente preocupación en todos los sectores de la sociedad a nivel mundial. En matrices de agua, se puede encontrar la presencia de contaminantes emergentes, es decir, compuestos que no se encuentran dentro de las regulaciones de calidad de agua existentes que pueden representar una amenaza potencial tanto para los ecosistemas como para la salud humana, ya que sus efectos no han sido estudiados. Entre estos contaminantes emergentes se encuentran los fármacos. Entre estos medicamentos se incluyen los antiinflamatorios no esteroideos (AINE’s) que son de alto consumo mundial, hay numerosos estudios y reportes de AINE’s encontrados en diferentes cuerpos de agua a nivel mundial en concentraciones que varían desde los ng/L a µg/L. En lo que respecta a México, se reportó la presencia de Ibuprofeno (IBP), naproxeno (NPX), y diclofenaco (DCF), en concentraciones que varían de 0.12 a 2.30 µg/L en efluentes del Valle de Mezquital. De igual forma se reportaron concentraciones que van desde los 3.19 a 4.27 ng/L de IBP y NPX, en la costa de la Península de Yucatán y en aguas subterráneas en efluentes del sistema Lerma-Cutzamala, se encontraron concentraciones de 25 a 100 ng/L. A razón de esto, es importante la detección y cuantificación de este tipo de compuestos. La HPLC ofrece el análisis y la separación de diferentes tipos de mezclas en un tiempo relativamente corto, los avances tecnológicos permiten actualmente analizar una amplia variedad de analitos de manera eficiente y precisa por lo que, este tipo de cromatografía es la técnica utilizada en la bibliografía consultada, en estos estudios se proponen varios métodos para poder establecer las mejores condiciones para la separación de muestras de diferente naturaleza. Después de la búsqueda y análisis bibliográfico, así como de la estancia realizada, se puede concluir que lo más importante para desarrollar un buen método de separación cromatográfica radica en el conocimiento de los principios de la técnica, los elementos principales de la separación cromatográfica, los parámetros para la validación del método y las propiedades de los analitos.
Alonso Cabrera Aldo Daniel, Instituto Politécnico Nacional
Asesor:Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
ALGORITMO DE SECUENCIA DE RESISTANCE SPOT WELDING
ALGORITMO DE SECUENCIA DE RESISTANCE SPOT WELDING
Alonso Cabrera Aldo Daniel, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
PLANTEAMIENTO DEL PROBLEMA
En la industria de soldadura, la soldadura por puntos de resistencia es un proceso predominante en la unión de láminas de acero para ensambles, sin embargo, estos en su mayoría resultan con deformaciones debido al proceso que conlleva soldarlos. Dichas deformaciones son los principales problemas de estética y funcionamiento de los ensambles. La secuencia de puntos de soldadura toma un papel muy importante en la geometría final del ensamble, encontrando una secuencia óptima es posible reducir al mínimo las deformaciones finales. Sin embargo, debido a que es un problema de permutaciones, las posibles soluciones se vuelven cada vez más grandes conforme al número de nodos a soldar, convirtiéndose en un problema de n! posibles soluciones dando como resultado un análisis que requiere de mucho tiempo de evaluación. Mediante análisis de elemento finito, algoritmos de selección de posibles soluciones y algoritmos genéticos es posible llegar a una solución mucho más rápido, aunque posiblemente no es la mejor, resulta ser una respuesta bastante óptima.
METODOLOGÍA
Se partió de hacer pruebas de soldadura por RSW (resistance spot welding) en el software SIMUFACT, con el fin de familiarizarse con el software y ver los parámetros necesarios para llevar acabo la soldadura, mediante manuales se seleccionaron los parámetros necesarios para soldar Aluminio 5052. Luego, mediante investigación en artículos se analizaron las soluciones que estos presentan para una optimización en la secuencia de puntos de soldadura por resistencia. En su mayoría estos ofrecen una solución mediante algoritmos genéticos o algoritmos evolucionarios. Se encontró un algoritmo de secuencia de soldeo, que propone separar las permutas de todas las combinaciones totales, es decir, suponiendo un total de n nodos propone que estos se numeren y luego se realicen permutas parciales de los elementos haciendo mucho menor el total de soluciones posibles. Por consiguiente, se pasó a la programación del algoritmo en el lenguaje Python y analizar su desempeño. A continuación, se presentan los pasos del algoritmo
Partiendo de 8 nodos, se tendría inicialmente un vector con los nodos, [s1, s2, s3, s4, s5, s6, s7, s8] luego se define el parámetro S que será el que definirá cuantos elementos se permutarán al inicio, entre más grande sea el parámetro s, más confiable será el análisis, pudiendo partir desde s=1 hasta n, donde n daría todas las posibles soluciones, lo cual no es viable, pues de 8 nodos se obtendrían 40320 secuencias que tendrían que ser analizadas y requerirá de mucho tiempo computacional para realizar las simulaciones de soldeo.
Dando como valor s=2, se permutarán las primeras dos posiciones de la secuencia con los nodos. Luego estas permutas se complementarán con los nodos restantes en un acomodo aleatorio.
Las combinaciones anteriores darán el primer conjunto de soluciones que deberán ser analizadas en software para la obtención de las deformaciones finales, por cuestiones de tiempo en este algoritmo se asignaron deformaciones aleatorias a cada combinación.
De los resultados obtenidos se obtendrá el que tenga la menor deformación total y de esa combinación se partirá en un nuevo análisis
De la combinación con la menor deformación se restarán los primeros dos elementos, es decir, el valor de s que se fijo al inicio, dejando como resultado los últimos 6 elementos que se acomodaron en orden aleatorio.
De éste último vector, obtenido con los nodos restantes, se harán los pasos del 1 al 5 hasta finalizar con todos nodos.
Finalmente, de todas las soluciones que ofrece al final el algoritmo, se selecciona la que contenga la menor deformación total.
En este caso de 8 nodos, con valores de s=2 las cuatro ocasiones, se obtuvieron un total de 100 simulaciones, que, en comparación de 40320, resulta una reducción considerable de todas las soluciones.
Debido a que el principal objetivo es la reducción de las posibles soluciones, para un caso práctico con 19 nodos, se optó por separar en 4 grupos de 4 nodos y un último de 3 nodos, y sobre éstos grupos aplicar el algoritmo presentado. Inicialmente si se aplica el algoritmo a los 19 nodos con valores de s=1 se obtiene un mínimo de 190 simulaciones a comparar, por otra parte, aplicando la separación en grupos, se obtienen un total de 88 simulaciones reduciendo aún más el total de soluciones y reduciendo a solo 26 simulaciones de 19 nodos.
CONCLUSIONES
Se logró la implementación del algoritmo encontrado en algunos artículos, por cuestiones de tiempo se optó por asignar deformaciones aleatorias en cada paso, ya que cada simulación requiere de mucho tiempo computacional y en lo que se enfocó fue en observar el desempeño del algoritmo, fue desarrollado para n nodos. No solo se puede hacer de manera lineal para n nodos, si no en grupos separados de nodos, y con esto reducir aún más el número de soluciones.
Alonso Valerio Elda Citlalli, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
APLICACIóN DE LA METODOLOGíA DMAMC PARA LA ENSEñANZA DE INGENIEROS USANDO UNA SIMULACIóN DEL CASO DE LA CONSTRUCCIóN DE UNA TORRE CON MALVAVISCO
APLICACIóN DE LA METODOLOGíA DMAMC PARA LA ENSEñANZA DE INGENIEROS USANDO UNA SIMULACIóN DEL CASO DE LA CONSTRUCCIóN DE UNA TORRE CON MALVAVISCO
Alonso Valerio Elda Citlalli, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la academia actualmente en muchas universidades y tecnologicos no se tiene incorporado dentro de los planes de formación entrenamiento en metodologias para solución de problemas como Lean Seis Sigma, y el mercado laboral lo requiere como una habilidad para futuras contrataciones.
Se requieren de nuevas estrategias de aprendizaje para transferir conocimiento en tiempos muy cortos teniendo un balance entre las herramientas a desarrollar con simulaciones de problemas a resolver que se puedan implementar con insumos de bajo costo.
METODOLOGÍA
El DMAMC es un método estructurado de resolución de problemas.Esta metodología proviene de las siglas en ingles DMAIC (D-Define, M- Measure, A-Analyse, I-Improve, C-Control). Seis sigma es una metodología sistemática y rigurosa, que se puede aplicar a cualquier proceso con el fin de lograr un nivel de calidad casi perfecto usando el ciclo DMAMC.
Las 5 fases de DMAMC:
Definir el problema y el objetivo del proyecto.
Medir la línea base del proceso (validar las métricas e identificar todas las variables que influyen en los procesos).
Analizar y validar las causas identificando factores críticos.
Mejorar: implementar las soluciones en escala piloto y validarlas.
Controlar: mantener las soluciones en el tiempo.
La simulación es una excelente manera de impulsar del aprendizaje en cualquier entorno educativo. El desafío del caso de la torre con malvavisco, considera profundizar el proceso para obtener una mejora sustancial siguiendo el ciclo DMAMC.
Este desafío de simulaciónse desarrolló como una actividad de colaboración y creatividad en equipo. El objetivo de la simulación es construir la estructura independiente más alta posible. Para hacer esto se forman equipos, cada equipo recibe un kit que contiene 20 barras de espagueti, tres cintas adhesivas, tres metros de cuerda y un malvavisco grande; no está permitido más insumos. Al final del tiempo asignado, se toma la altura de la estructura, desde la superficie sobre la que se construyó hasta el malvavisco, que había que colocar encima. También se mide el nivel de complejidad contando los nodos en los que se soporta la estructura. Los equipos no podían tocar la estructura en el momento de la medición.
CONCLUSIONES
La aplicación deDMAMC determina que podemos mejorar dentro de cada fase para poder formar una torre más alta.La simulación nos ayuda a analizar y aprender más sobre lean seis sigma para aplicarla en diversos casos de estudio, así como diferentes sectores industriales e incluso se puede utilizar en la vida cotidiana.
Como resultado final se espera una mejora en la altura de la estructura del malvavisco, con una disminución en la complejidad del diseño de la estructura (no. de nodos). Se espera un impacto en la formación de ingenieros proponiendo un proceso documentado y replicable de la aplicación del ciclo DMAMC sobre la mejora de la construcción de una torre con malvaviscos.
Alonso Villegas Yiosef, Universidad Nacional Abierta y a Distancia
Asesor:Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito
DISEÑO DE UN SISTEMA DE TELEMETRÍA PARA UNA TURBINA EÓLICA DE EJE VERTICAL (VAWT)
DISEÑO DE UN SISTEMA DE TELEMETRÍA PARA UNA TURBINA EÓLICA DE EJE VERTICAL (VAWT)
Alonso Villegas Yiosef, Universidad Nacional Abierta y a Distancia. Asesor: Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito
PLANTEAMIENTO DEL PROBLEMA
En búsqueda de ofrecer alternativas para el acceso al servicio de energía eléctrica a las comunidades de las zonas apartadas geográficamente en Colombia que actualmente no cuentan con este servicio precisamente debido las condiciones del entorno que imposibilitan la conexión al Sistema Interconectado Nacional (SIN) o a las centrales de generación eléctrica de las Zonas No Interconectadas (ZNI), el grupo de Desarrollo Sostenible en Ingenieria Mecánica (DSIM) de la Escuela Colombiana de Ingeniería Julio Garavito han diseñado un modelo de Turbina Eólica de Eje Vertical (VAWT) para la generación de energía eléctrica a partir de velocidades de viento muy bajas, y que se espera aumente la eficiencia en la generación eléctrica con respecto a las VAWT que actualmente se encuentran en el mercado.
No obstante, se requiere un sistema electrónico para la validación del funcionamiento y la operación de la VAWT y para la gestión y aprovechamiento eficiente de la energía eléctrica generada. Por lo tanto, se hace pertinente desarrollar un prototipo de un sistema de telemetría para realizar una adquisición de los datos de forma remota del desempeño y operación tanto de la VAWT como del sistema eléctrico, para asi lograr obtener información fiable y precisa que permita validar experimentalmente el diseño mecánico de la VAWT, y su eficiencia y optimización en cuanto a la generación eléctrica pensando en futuras aplicaciones del modelo de la turbina. Como valor agregado, y para mitigar el impacto de las condiciones geográficas de las zonas apartadas, es importante que el sistema de generación eólico pueda ser gestionado de forma remota por lo que es importante seleccionar un protocolo de comunicación inalámbrico que se adecue a esta necesidad.
METODOLOGÍA
Para el diseño del sistema electronico de gestión, donde se incluye el sistema de telemetría, se parte de la metodología del desarrollo y proceso tecnológico. Para este proyecto, se siguieron las siguientes etapas:
La primera actividad realizada fue una búsqueda de información referente a los sistemas electrónicos usados para la telemetría y gestión de las VAWT que existen actualmente en el mercado.
A la vez, el grupo DSIM entregaron los requerimientos técnicos que debería tener el sistema de telemetría para lograr obtener la información requerida para una correcta y optima validación experimental de la VAWT. Estos requerimientos se plantearon tomando como punto de partida la variable física principal que se desea conocer en cada elementos del sistema de generación eólico.
Con base a la información recolectada, y conociendo los requerimientos técnicos del sistema de generación eólico, se procedió a realizar el diseño conceptual de la solución tecnológica donde se plantea abstractamente la idea sobre el sistema que se espera desarrollar asi como los elementos requeridos que permitan acotar la solución tecnológica hacia los requerimientos técnicos planteados. Para dar solución a lo referente al protocolo de comunicaciones que permita una gestión remota del sistema, se selecciono el protocolo GSM/GPRS usado anteriormente en telefonía móvil, y el cual, al existir una amplia infraestructura de comunicaciones en el país, se hace optimo para su implementación en el sistema de generación eólico.
Con el diseño conceptual realizado, y planteados los elementos requeridos del sistema, se procedió a realizar el diseño funcional que permite asignar y detallar las funciones que realizaran cada elemento y componente del sistema. Esto permite conocer el alcance y las limitaciones que tendrá el sistema de telemetría.
Con base a los dos anteriores diseños, se procedió a realizar el diseño estructural del sistema de telemetría donde a cada uno de sus elementos se le asignaron todos los componentes físicos y materiales requeridos para realizar las funciones planteadas. Adicional, se realizó una búsqueda en el mercado colombiano y la respectiva presupuestación de los componentes y materiales que cumplieran con las especificaciones planteadas en el diseño estructural.
Con estos tres diseños realizados, se concretó el diseño y caracterización del prototipo del sistema de telemetría que se espera desarrollar para la validación tanto de la VAWT como de todo el sistema de generación eólico.
CONCLUSIONES
Se concretó el diseño del prototipo del sistema electrónico que realizara la telemetría y gestión del sistema de generación eólico brindándole al grupo DSIM una alternativa tecnológica para obtener información fiable y precisa sobre el desempleo y la operación tanto de la VAWT diseñada por ellos como del sistema de generación eléctrica para asi lograr una validación experimental eficiente. Con dicho sistema electrónico se podrá gestionar remotamente todo el sistema de generación eólico teniendo esto diversas ventajas tanto en esta etapa de validación experimental como pensando en futuras aplicaciones del sistema de generación eólico en las zonas apartadas geográficamente del país.
Altamirano Laura Flor Yosely, Universidad Nacional José María Arguedas
Asesor:Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
PROCESAMIENTO Y CARACTERIZACIÓN DE MATERIALES COMPUESTOS DE RESINA EPOXI REFORZADOS CON PELO DE CUY
PROCESAMIENTO Y CARACTERIZACIÓN DE MATERIALES COMPUESTOS DE RESINA EPOXI REFORZADOS CON PELO DE CUY
Altamirano Laura Flor Yosely, Universidad Nacional José María Arguedas. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El Cuy, llamado también cuye, cobaya, cobayo, conejillo de indias, guinea pig, científicamente corresponde a Cavia porcellus, de la familia Caviidae originaria en regiones andinas de America del Sur como Perú, Bolivia, Ecuador y Colombia. El cuerpo de estos pequeños roedores, es ancho y está cubierto de pelos que pueden ser lacios, erizados o pegados al cuerpo, formando remolinos, de varios colores. La crianza del cuy es muy importante, sobre todo en Perú, por su gran potencial de desarrollo para generar un retorno económico por la venta de su carne; durante el beneficio, surgen diferentes residuos, como es la sangre, las vísceras y el cabello. Por lo anterior, en el presente trabajo se propone, la posibilidad de fabricar una clase de compuestos a base de resina epoxi reforzados con cabello de cuy.
METODOLOGÍA
Los compuestos epoxi con diferentes proporciones de cabello (0, 2, 4 y 6 % en peso) fueron preparados mediante una sencilla técnica de mezclado manual. Los materiales fueron analizados por microscopia óptica, microscopia electrónica de barrido, espectroscopia en el infrarrojo y se evaluó su resistencia a los esfuerzos de tensión.
CONCLUSIONES
Se observó que con el aumento del contenido de cabello la resistencia a la tensión aumentaba significativamente.
Alvarado Andalon Noe Jesus, Instituto Tecnológico de Sonora
Asesor:Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
LOGíSTICA DE TRANSPORTE DE COMBUSTIBLES LíQUIDOS.
LOGíSTICA DE TRANSPORTE DE COMBUSTIBLES LíQUIDOS.
Alvarado Andalon Noe Jesus, Instituto Tecnológico de Sonora. Cruz Agüero Chanel Abigail, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Logística de transporte de combustibles líquidos.
Asesor: Dr. Jairo Rafael Coronado Hernández, Universidad de la costa
Estudiante: Chanel Abigail Cruz Agüero, Instituto Tecnológico de Ciudad Juárez
Noé Jesús Alvarado Andalón, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
La mala implementación de estrategias enfocadas a la logística de los líquidos combustibles en las estaciones de servicio, las cuales afectan principalmente al vendedor y al consumidor final, han ocasionado consecuencias negativas para las dos partes involucradas.
Algunas de ellas que se suelen presentar en este tipo de problemas y que a menudo se ven son:
Afectación en la calidad del servicio
Perdida de dinero
Pérdida de tiempo
Mala optimización de recursos
Creación de mala reputación y malas calificaciones para el propietario/a de las estaciones de servicio
Hoy en dia es algo muy común cuando no se tiene o no se logra un adecuado manejo de la logística, es por ello que se debe estudiar muy a fondo lo que se quiere lograr a ser y seleccionar adecuadamente las estrategias que presenten soluciones óptimas para la problemática, durante este verano de investigación se propondrán estrategias que cumplan con este requisito para resolver la problemática mencionada anteriormente.
METODOLOGÍA
METODOLOGÍA
Los flujos de hidrocarburos entre México y Colombia han contribuido a la seguridad energética de los dos países. Se trata de corrientes comerciales de magnitudes significativas para ambos. México ha sido por muchos años uno de los tres principales suministradores de petróleo crudo importado de Estados Unidos.
No obstante, la magnitud de estos flujos, su importancia relativa ha decrecido frente a la rápida expansión del comercio no petrolero entre los dos países.
El análisis de estos suministros debe hacerse en el contexto de consideraciones más amplias de seguridad energética. Esta se define usualmente en términos de la disponibilidad confiable y suficiente de energía a precios razonables.
La posibilidad de una alta y creciente dependencia en las importaciones de gas obliga a adoptar una perspectiva de país importador muy distinta a la que se tiene como exportador de petróleo. Este cambio no es fácil dado que México ha sido un país autosuficiente en gas natural, salvo por muy breves periodos.
Con la información pública disponible es difícil determinar la trayectoria probable de la producción a mediano plazo. Sin embargo, las metas adoptadas por Pemex justifican una cierta dosis de escepticismo. Alcanzar una producción de 7 mil millones de pies cúbicos diarios (mmmpcd) en el año 2006 según fuentes de información, a partir de una producción del orden de 4.5 mmmpcd en 2003, es un objetivo excesivamente ambicioso. Se trata de un incremento de 56 por ciento en el próximo trienio. En promedio habría que aumentar la producción en más de 800 millones de pies cúbicos diarios (mmpcd) cada año en términos netos.
El costo incremental de la diversificación puede ser visto como la prima de un seguro que cubre los riesgos asociados al suministro de gas. El análisis de la decisión de diversificar no es sencillo y su resultado depende del contexto en el que ésta se toma. Igualmente, difícil es la selección de alternativas. En el caso de México la propuesta de diversificación basada en plantas que queman carbón importado es un tanto sorprendente, dada la dotación de petróleo y el impacto positivo que tiene la absorción de combustóleo en el mercado interno sobre el precio de exportación del petróleo crudo pesado.
Es crucial contar con capacidad suficiente y oportuna de transporte y distribución de gas. La puesta en operación de nuevos ductos de la frontera a Monterrey, de Reynosa a San Fernando y de otros de menor tamaño en la región fronteriza deberá ser complementada con la ampliación del gasoducto de 5 Ciudad Juárez al sur de Chihuahua. Todos estos ductos han sido construidos por particulares o son el fruto de una coinversión con Pemex Gas. Valdría la pena considerar la construcción de un ducto adicional que uniera directamente el norte. Asimismo, es necesario ampliar la capacidad de transporte de los ductos existentes mediante la incorporación de unidades adicionales de compresión. El esfuerzo requerido puede ser hecho por el sector privado. Estas inversiones complementarias aumentarían la confiabilidad de la red nacional de gasoductos y su rentabilidad. Convendrá también construir terminales de regasificación para poder descargar gas natural licuado en ambas costas del territorio nacional.
En suma, la seguridad de suministro de gas natural importado se verá fortalecida mediante la diversificación de fuentes, rutas de transporte y agentes económicos; el fortalecimiento del sistema de gasoductos de México y sus interconexiones con la red norteamericana; la construcción de plantas de regasificación; y la construcción de capacidad de almacenamiento. El marco regulatorio vigente permite y promueve la inversión privada en estos rubros. Se ha avanzado en todos menos en uno de ellos. Restablecer y calibrar el régimen de precios regulados alentará la competencia y esta, a su vez, contribuirá a una mayor confiabilidad del suministro de gas para lo gasoductos.
CONCLUSIONES
CONCLUSIONES
Actualmente la investigación se encuentra aún en desarrollo, consta de 5 etapas y se está en la 4 etapa la cual es; simulación de las estrategias propuestas por el equipo a través de un software.
Se espera que con los resultados obtenidos se pueda cumplir con el objetivo principal, el cual es obtener una optimización en el abastecimiento de combustibles líquidos en las estaciones de servicio, eliminando así la problemática y por lo tanto también las variantes negativas de esta.
Como conclusión del equipo puede decir que durante esta estancia, se pudo obtener conocimientos teóricos más profundos en cuestión de la logística (en este caso de los líquidos combustibles) y por otro lado cada integrante reforzó la habilidad del trabajo en equipo.
Alvarado Galvan Marco Uriel, Universidad de Guadalajara
Asesor:Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
MOLDE PARA ZAPATOS CON PROPóSITO DE PRODUCCIóN EN SERIE
MOLDE PARA ZAPATOS CON PROPóSITO DE PRODUCCIóN EN SERIE
Alvarado Galvan Marco Uriel, Universidad de Guadalajara. Asesor: Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
PLANTEAMIENTO DEL PROBLEMA
Actualmente en Nicaragua, un gran numero de calzado es elaborado artesanalmente, en base a moldes hechos a mano los cuales se extraen de una horma sacando puntos de diseño sobre ese patrón, una vez que se tiene el diseño trazado, se hacen los moldes de corte, los cuales se trazan en el material en el cual finalmente será elaborado el calzado, en este caso cuero.
METODOLOGÍA
Con ayuda de distintos programas de modelado tridimensional y visualización en 3d, y teniendo como apoyo el modelo digital en 3d del molde que se utiliza para la elaboración del calzado, se procedió a la investigación con distintas herramientas y programas, en este caso pepakura, SolidWorks e inventor, así como la exportación del archivo principal a un formato .pdo para poder convertir el modelo en 3d a 2d con una vista de explosión de todas las partes que conforman la pieza, para así, poder usar estos elementos para una producción más exacta y fácil, e inclusive de manera industrial.
CONCLUSIONES
Durante el proceso que se llevo a cabo en esta estancia, se logro poner en practica algunas habilidades extras en estos programas, como lo son la capacidad de extraer las partes de un modelo en 3d a vistas 2d y tener una vista general de cada parte que conforma el modelo, así como saber en cuantas piezas se puede dividir para su posterior armado y que sería más viable para esto.
Alvarado Ibarra Juan Felix, Universidad de Ciencias y Artes de Chiapas
Asesor:Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
Alvarado Ibarra Juan Felix, Universidad de Ciencias y Artes de Chiapas. Diego Avilés Anayeli, Instituto Tecnológico Superior de Uruapan. Durantes Castro Lizbeth, Universidad de Ciencias y Artes de Chiapas. Ramos Moreno Adrian Alonso, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
La problemática de las vías de comunicación pueden ser muy diferentes, pueden ser causado por el crecimiento poblacional, trafico excesivo, tiempo en transportarse, zonas marginadas, mala estructura, entre otros. Esto lleva a que los caminos, carreteras o autopistas se tengan que ampliar, modernizar o reconstruir para tener un logro exitoso en el transito vial.
A lo cual el proyecto busca tener opciones y resultados que obtengan un beneficio sobre la población. Su importancia es mantener las vías de tránsito en buena calidad para que la comunicación de transportes sea excelente y satisfactoria.
METODOLOGÍA
Para poder realizar la construcción de una carretera o camino, es necesario considerar el proyecto geométrico para el cual es indispensable conocer algunos elementos que lo conforman.
Terminología
Es necesario conocer algunos términos para poder familiarizarse con el proceso del proyecto geométrico de una carretera, primero es importante estudiar el listado que se presenta a continuación:
Abundamiento: Es el volumen aumentado en el material considerado.
Acotamiento: Se le conoce así al espacio que normalmente se deja a los extremos de las carreteras con el fin de dejar un margen a los señalamientos que se puedan colocar para la misma.
Acarreo libre: Es el acarreo que no se cobra, considerado de varios lugares como 20 m.
Alineamiento horizontal
Alineamiento Vertical
Bombeo
Calzada: Dentro del diseño de caminos se le conoce como calzada a la parte por donde circularan los vehículos.
C.G.E. = Centro de gravedad de extracción, termino aplicable en la curva masa
C.G.T. = Centro de gravedad de Tiro, aplicable en la curva masa.
Corona
Corte
Derecho de vía
Distancia de visibilidad de parada (Dp)
Distancia de visibilidad de rebase
Faja separadora
Hombro
Horizonte del proyecto
Longitud crítica
Pendiente gobernadora
Pendiente máxima
Pendiente mínima
Sobre acarreo (S/A)
Talud
Tangente horizontal
Tangente vertical
Terraplén
Transición mixta
Transito diario promedio anual (TDPA)
Velocidad de proyecto
Alineamiento horizontal
Alineamiento vertical
Secciones de construcción y cálculo de la curva masa
Uso de software (Civil CAD)
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proyecto geométrico de una carretera dejando en claro que para poder realizar la construcción de una carretera es importante realizar la elaboración de un proyecto geométrico sin mencionar el tiempo requerido para la obtención de los datos en campo.
Alvarado Martínez Israel, Instituto Politécnico Nacional
Asesor:Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
Alvarado Martínez Israel, Instituto Politécnico Nacional. Caicedo Caicedo Brayan Steven, Universidad Autónoma de Occidente. Gutiérrez Zermeño Marianna, Universidad de Guadalajara. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El cáncer de mama es una de las tipologías de cáncer más comunes en la mujer. Consiste en la degeneración de un grupo de células sanas ubicadas en la glándula mamaria, lo que ocasiona la proliferación acelerada, desordenada y no controlada de ellas, dando origen a la conformación de un tumor con la capacidad de diseminarse a otros órganos
En México, el cáncer de mama representa una de las primeras causas de muerte en las mujeres. De acuerdo con el Instituto Nacional de Geografía y Estadística (INEGI), en 2019, por cada 100 mil mujeres de 20 años o más, se reportaron 35.24 casos nuevos de cáncer de mama, con una tasa de mortalidad de 17.19 defunciones a nivel nacional.
En Colombia, el cáncer de mama según el Globocan realizado en el año 2020 por la Organización Mundial de la Salud (OMS), cuenta con 15.509 casos nuevos relacionados a esta enfermedad. Cabe mencionar que es el primer cáncer con más tasa con respecto al total de casos de cáncer (representa el 13.7%) para ambos sexos.
La detección temprana del cáncer de mama es fundamental, debido a que puede mejorar la calidad del diagnóstico, la planificación del tratamiento y reduce las tasas de muerte entre las mujeres.
La mamografía de rayos X (XRM) es uno de los métodos más utilizados para el diagnóstico temprano de cáncer de mama. Sin embargo, existe una gran complejidad en la interpretación humana de estos estudios, debido a que es subjetiva y cualitativa. Además, depende en gran medida de la experiencia del radiólogo, inclusive existiendo una alta variabilidad entre radiólogos experimentados y por consecuencia un alto riesgo de un diagnóstico erróneo.
Para abordar estas limitaciones y mejorar el rendimiento en el análisis de mamografías, durante el verano de investigación se aplicaron técnicas de Deep Learning para desarrollar un modelo que apoye en la detección y diagnóstico de lesiones de manera automática.
METODOLOGÍA
Conjunto de datos
Para el desarrollo del método propuesto, se utilizaron imágenes de mamografías digitales del conjunto de datos disponibles públicamente de la Sociedad de Análisis de Imágenes Mamográficas (MIAS), la cual consta de 322 imágenes de mama derecha e izquierda (161 pares) con un tamaño de 1024 x 1024 píxeles. Las imágenes se agrupan principalmente en dos categorías, de las cuales 207 imágenes pertenecen a la clase normal y 115 imágenes muestran algún tipo de anomalía (64 imágenes benignas y 51 imágenes malignas). Por lo tanto, se aborda el problema de clasificación de las categorías: normal, benigno y maligno. Además, previo a la implementación de los modelos, fue necesario la realización de un cambio de formato a PNG y un redimensionamiento a 256 x 256 píxeles.
Se dividieron aleatoriamente las imágenes de ambos conjuntos de datos en tres partes, 75% como conjunto de entrenamiento, 15% como conjunto de validación y 15% como conjunto de prueba.
Diseño de red
En esta sección, se proponen dos modelos de Deep Learning y se emplea como modelo comparativo la arquitectura VGG16 para la evaluación del rendimiento de ambos métodos propuestos.
Modelo comparativo: VGG16
Debido a la facilidad de implementación de la red neuronal preentrenada VGG16, se empleó como modelo comparativo en este proyecto. Su arquitectura consta de 13 capas convolucionales y 3 capas densas y realiza la clasificación del conjunto de datos únicamente en benigno y maligno. Para poder evaluar de una manera homogénea el rendimiento de esta red respecto a los modelos propuestos, se añadió la categoría normal a la clasificación del conjunto de datos.
Modelo 1: CNN, Red Neuronal Convolucional
A la entrada del modelo hay una sección para la lectura de las imágenes y se aplicó la división que se especificó anteriormente, también se especificaron las etiquetas para cada imagen y con eso ya se tiene lista la información para el modelo. La red neuronal convolucional consta de tres capas, una capa de convolución con un kernel de tamaño 3, una capa de aplanado y una capa densa con tres neuronas de salida.
Modelo 2: Self-Attention
Para el entrenamiento de esta estructura de red neuronal por medio de mecanismos de atención, se definió el conjunto de datos de entrada usando la base de datos MIAS, se realizó un redimensionamiento a un cuarto del tamaño original. Siguiendo con la distribución 75% para el conjunto de entrenamiento y 15% para validación. Para realizar la estructura se tomó el mecanismo general de Scaled Dot Product Attention.
CONCLUSIONES
El modelo comparativo VGG16 permitió clasificar el conjunto de datos en las tres categorías propuestas. Debido al costo computacional se utilizaron un total de 300 épocas de entrenamiento, obteniendo un valor de precisión del 67.28% y una pérdida del 79.06%.
Por su parte, para el Modelo 1 se realizaron distintas pruebas de entrenamiento en las que se variaba la cantidad de épocas. Dentro de estas pruebas se encontró que la mejor combinación que hay es de 32 épocas con un tamaño de lote de 32, y con eso se obtuvo una precisión del 87.5% y una pérdida del 49.39% para el conjunto de prueba.
Finalmente, para el Modelo 2 de entrenamiento, se utilizaron 150 épocas de entrenamiento se logró conseguir una precisión de 98.2% y una pérdida de 22.3%.
Durante la estancia de verano se exploraron diferentes conjuntos de datos de imágenes de mamografía digital, así como modelos de Deep Learning, lo cual nos permitió adquirir los conocimientos teóricos y ponerlos en práctica para la realización de dos modelos que permitieran clasificar las mamografías según su estado patológico. Ambos modelos propuestos presentan una alta tasa de precisión y una baja tasa de pérdida, logrando tener un rendimiento superior al del modelo comparativo.
Álvarez Campos Jesús Alberto, Universidad de Guadalajara
Asesor:Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
Álvarez Campos Jesús Alberto, Universidad de Guadalajara. Lopez Ortiz Silvia Lizbeth, Tecnológico de Estudios Superiores de Valle de Bravo. Santillán Rentería Jorge Antonio, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El aprovechamiento de la energía undimotriz para generación eléctrica ha pasado desapercibida hasta hace pocos años debido a su complejo desarrollo y a sus elevados costos. En un mundo donde el grueso de las energías renovables más rentables y eficientes hoy día lo componen, eólica, solar e hidroeléctrica. (Hurtado, 2016). En Colombia la energía undimotriz es poco conocida y desarrollada, además ha sido poco investigada desconociendo el gran potencial energético que poseen las olas, sumado a la gran extensión de costas que posee el país. Para cumplir con el objetivo, se requiere conocer el potencial energético que poseen las olas, y esto fue posible con la aplicación de ecuaciones consultadas, las cuales tienen en cuenta variables como: altura de la ola, período de las olas, densidad del agua de mar, temperatura y velocidad del viento en la zona. (Zapata, 2017). Es por eso que surge la preocupación de crear tecnologías para el desarrollo sostenible, y que no represente un factor más que contribuya a los grandes problemas ambientales que hoy por hoy presenta el planeta.
METODOLOGÍA
Se tomó como base la Teoría de Oleaje Lineal.
Leyes de Euler.
Transformada de Laplace.
Se hizo un bosquejo del generador central.
Calculamos masa, peso entre otras cosas con el Principio de Arquímides.
Se utilizo software para hacer simulaciones en tiempo real tales como:
SolidWorks
Geogebra
Matlab
C++
Se hicieron algunas graficas tomando como base los datos obtenidos de las aplicaciones Nautitude y Windy.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la energía undimotriz y con base en se aprendió a calcular el potencial eléctrico que el generador absorbe sobre las olas, al igual conocimiento sobre otras aplicaciones como Nautitude, Windy, Matlab, Geogebra etc; estos para entender el comportamiento de los flotadores. Al ser una energía poco conocida aún se encuentra en investigación y sólo podemos calcular algunos datos. Para el sistema mecánico dinámico de los flotadores, se tomó en cuenta la suma de todas las fuerzas a las que está sometido el sistema, como por ejemplo; las fuerzas de empuje, fricción, inercia y del resorte. Cada una de esas fuerzas intereactúa de tal manera que se describe un modelado matemático parecido a la función de transferencia con la transformada de Laplace. Se representan las fuerzas como señales de entrada y de salida según el movimiento de las olas que dirige el movimiento del flotador.
Se espera crear una granja de mecanismos y un mecanismo debería ser capaz de alimentar un hogar.
Alvarez Esperon Neri Alejandro, Universidad Politécnica de Tecámac
Asesor:M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
Alvarez Esperon Neri Alejandro, Universidad Politécnica de Tecámac. Godínez Márquez Daniela Noemí, Universidad Politécnica de Tecámac. Pérez Ponce Anahí, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
La máquina de envejecimiento acelerado tiene como finalidad controlar la temperatura, humedad, luz ultravioleta y el tiempo en el que se activa una bomba de agua para inyectar agua salada al material a envejecer, es decir; simula el rocío y la lluvia con humedad condensada y/o spray de agua. El equipo de intemperismo acelerado de la máquina de envejecimiento es el equipo de intemperie más simple y fiable, pero hasta ahora, esta máquina es controlada manualmente, por lo que provoca un lapso más largo al momento de su uso, así como atraso en diversas actividades.
Hoy en día la automatización de los procesos es fundamental para poder aumentar la productividad, dado que simplifica las operaciones, permitiendo que el equipo de trabajo pueda enfocar más tiempo y esfuerzo en otras actividades más estratégicas, que le reportarán mayores beneficios.
Todo proceso está conformado por tareas y/o actividades; las mismas que pueden simplificarse automatizando las actividades repetitivas y operativas. Así que, volviendo al tema de la máquina de envejecimiento acelerado, se creará un circuito integrado con sensores, esto reducirá el tiempo de ejecución del proceso y así como los errores que se puedan presentar al trabajar de forma manual, facilitando las actividades de control. Para ello se establecerá una comunicación máquina a máquina, esto se logrará con ayuda del protocolo MQTT y el internet de las cosas; así, la actividad industrial será más rentable y tendrá una mayor capacidad para adaptarse a los cambios que puedan producirse.
METODOLOGÍA
El tema principal es la implementación de la industria 4.0 y el internet de las cosas en la máquina de envejecimiento acelerado. Siendo objetivo principal la automatización de procesos en la máquina. Por ello, la metodología implementada se basa en la prototipada, que, consiste en un proceso iterativo enfocado en diseñar, implementar, medir y ajustar un plan. Este modelo se utiliza para dar al usuario una vista preliminar de parte del software.
Se utilizaron 4 principal software pare el desarrollo del proyecto los cuales se incluyen Balsamiq, Fritzing, Visual Studio y Arduino. Los cuales sirvieron para el modelado y el desarrollo del prototipo.
Las etapas para diseñar e implementar la metodología prototipada son:
Recolección y refinamiento de requisitos: Se recabo la información de la maquina como su funcionamiento, Requerimientos funcionales y no funcionales para la aplicación móvil. Una vez Recabada la información se realizaron los diagramas de bloques y flujo del sistema para una mejor compresión.
Modelado, diseño rápido: Se realizo un modelado de la aplicación móvil con la herramienta de Balsamiq y para la parte del circuito se utilizó Fritzing, este paso nos brindó información para el desarrollo de un primer prototipo.
Construcción del Prototipo: A través del programa Visual Studio, se comenzó la creación del prototipo de Balsamiq, además se implemento el protocolo MQTT y las herramientas NuGet de HTTPupt y Microcharts para la visualización de los datos.
Desarrollo, evaluación del prototipo por el cliente: Al término del desarrollo de cada prototipo, el investigador y los alumnos evaluaban el diseño y funcionamiento de la aplicación móvil y el circuito elaborado.
Refinamiento del prototipo: Se propusieron ideas para el mejoramiento de la aplicación, según el desempeño del prototipo.
Implementación: Se actualiza el prototipo y se implementan las propuestas planteadas en la anterior etapa por los alumnos y el investigador.
CONCLUSIONES
En conclusión, el Internet de las cosas está tomando un gran nivel en la tecnología ya que permite la automatización de procesos ejecutados por diversos objetivos, tanto en sectores empresariales como en espacios domésticos.
La industria 4.0 persigue un nivel de cambio radical, haciendo referencia a la incorporación de las nuevas tecnologías de la información a los procesos de producción
El proyecto que se desarrolló para ayudar a obtener y visualizar la información que envían los sensores de la máquina de envejecimiento acelerado de materiales metálicos, esto con el fin de facilitar los procesos y control de la máquina.
Se abordaron diferentes etapas basadas en la metodología de prototipado, en las cuales se mencionan:
Recolección y refinamiento de requisitos
Modelado, diseño rápido
Construcción del Prototipo
Evaluación del prototipo por el cliente
Refinamiento del prototipo
Producto de Ingeniería
Dicha metodología se utilizó ya que no modifica el flujo del ciclo de vida del sistema, además de que reduce el riesgo de construir productos que no satisfagan las necesidades de los usuarios.
Álvarez González Ariadna Lucía, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales
¿ES EL CONTROL BIOLóGICO UNA SOLUCIóN PARA EL HLB?
¿ES EL CONTROL BIOLóGICO UNA SOLUCIóN PARA EL HLB?
Álvarez González Ariadna Lucía, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La agricultura es una actividad económica fundamental en los países latinoamericanos que se enfrenta a diversos desafíos diariamente: desde crisis del agua, hasta conflictos sociales. Sin embargo, las plagas representan un obstáculo a vencer propio de este sector. Hasta ahora se han enfrentado estas limitaciones con remedios tradicionales y agresivos, como es l usop excesivo de pesticidas y agroqímicos. Cada vez más, se dan a conocer las consecuencias de estas acciones: contaminación y riesgo a la salud.
¿Es posible cambiar esta realidad? ¿Qué alternativas existen para ejorar la eficiencia en la producción sin dañar al medio ambiente ni a la salud? Estas son dudas que cientos de científicos han intentado. Los resultados de las investigaciones han dado frutosy las alternativas son cada vez más tangibles, pues, se aplica la agricultura sostenible, orgánica y la agroecología están cada vez más presentes.
A pesar de ello, la realidad es que en Latinoamérica la producción se ha mantenido alejada de estas innovaciones. No obstante, se sigue enfrentando a diversas plagas que siguen generando pérdidas millonarias y un desperdicio de alimento importante. Esto se repite en cada uno de los cultivos que se realiza en la tierra latinoamericana, sin embargo el enfoque se dará en el cultivo de cítricos. Una plaga en especial de estos cultuivbos es la enfermedad del Dragón amarillo o Huanglongbing (HLB) que ha representado una catástrofe en la producción de cítrico. Las pérdidas económicas llegan a representar hasta un 25% de la producción en México, equivalente a 1.84 millones de toneladas.
Estas afecciones en los cultivos tan imprtantes en América Latina muestran el delicado equilibrio que se puede ver comprometido con la llegada de una nueva plaga. Es por ello que se realizó una revisión bibliográfica para conocer el estado actual del HLB, para entender cómo funciona, qué alternativas existen y se están aplicando, sobre todo en M{exico y Colombia. Por otro lado es importante destacar la importancia de innovar en el ámbito agrícola para sobrevivir en el mercado tan cambiante y así poder enfrentar problemas futuros. As{i, una solución como el control biológico representa una gran oportunidad para tratar estas enfermedades.
METODOLOGÍA
Se realizó una investigación bibliográfica a través de medios digitales. Se utilizaron palabras clave para la búsqueda (Huanglongbing citrus, Biological control HLB, HLB Mexico, Colombia) dentro de tres buscadores: Scopus, Pubmed y Google Académico. Se consideraron artículos en español e inglés. Esta información se discriminó de acuerdo con los principales resultados por medio de tablas RAE.
A su vez, la recopilación sirvió para generar un escrito de revisión en el cual se muestra la comparación entre las acciones que se están llevando a cabo en Colombia, México, Latinoamérica y el sector internacional por mdio del control biológico del HLB en cítricos.
CONCLUSIONES
El control biológico es una alternativa sostenible que se está utilizando cada vez más para tratar el HLB tanto en países desarrollados como en el desarrollo. A pesar de que la enfermedad hoy en día continúa con la destrucción de cultivos, se espera que herramientas más sostenibles, como el control biológico, se fortalezcan para combatirla con un mínimo de impacto medioambiental y se tenga una producción más eficiente y responsable de cítricos.
Esta pequeña investigación aporta un estado del arte sobre el tema para que se busquen más soluciones a esta problemática con tantas implicaciones en el ámbito socioeconómico.
Alvarez Rojas Kathleen Daira, Instituto Politécnico Nacional
Asesor:M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
CARACTERIZACIóN DE SEñAL DE ELECTROMIOGRAFíA PARA MOVIMIENTO DE UNA PRóTESIS DE MANO
CARACTERIZACIóN DE SEñAL DE ELECTROMIOGRAFíA PARA MOVIMIENTO DE UNA PRóTESIS DE MANO
Alvarez Rojas Kathleen Daira, Instituto Politécnico Nacional. Asesor: M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
PLANTEAMIENTO DEL PROBLEMA
Este trabajo presenta una aplicación de la biomédica a un prototipo de prótesis con tres falanges, la cual se pretende implementar con un control mioeléctrico para la activación de pinzas funcionales. Para ello se requiere de una interfaz que permita la adquisición de la señal proveniente del antebrazo, almacenar, visualizar y realizar un procesamiento con el fin de comenzar a identificar patrones de movimiento. Buscando que las personas que perdieron la mano alcancen una independencia y mejoren su calidad de vida.
METODOLOGÍA
Para la adquisición de la señal mioeléctrica en el antebrazo utilizamos tres electrodos húmedos, dos para obtener la señal diferencial sobre el antebrazo y otro colocado en el codo para tomarlo como referencia. Esta etapa de adquisición requiere de dos seguidores para el acoplamiento de impedancias, una preamplificación con una ganancia de 50, una etapa de filtrado pasa banda con frecuencias de corte de 0.5 y 1K Hz, una amplificación de 1.45 y dos circuitos más un rectificador y un sumador con offset, estos últimos permiten enviar la salida a las entradas analógicas del Arduino UNO. Este sirve como elemento de interfaz entre el sujeto de estudio y la computadora. Finalmente tenemos una interfaz en Matlab, que permite la visualización y el preprocesamiento de la señal. Con el fin de identificar cuatro funciones específicas como son flexión, extensión, agarre y su función opuesta (soltar) se obtuvieron los siguientes índices: Root Mean Square (RMS), Mean Absolute Value (MAV), la envolvente de la señal (EVN), logarithm of variance (logVAR), Wave Length (WL)y la energía
CONCLUSIONES
Aunque el objetivo del proyecto planteado al inicio de la estancia era el desarrollo de la interfaz de usuario, una vez obtenidas las señales con las primeras pruebas se dio a al tarea de poder identificar algún patrón de movimiento, sin embargo las pruebas no fueron concluyentes, por lo que se procedió a implementar otra prueba mencionada en la literatura consultada, la envolvente de la señal, con la cual se obtuvieron 4 patrones identificados ya que las ventanas de energía obtenidas presentan una diferencia en el corrimiento y la energía. No obstante, el trabajo de investigación continua ya que deberemos validar nuestros resultados aumentando la base de datos con los movimientos de sujetos de prueba sanos. Una vez identificados y permitiendo el procesamiento en tiempo real podemos enviar las señales para la actuación de la prótesis
Alzate Grisales Jesus Alejandro, Universidad Autónoma de Manizales
Asesor:Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
CLASIFICACIóN DEL LENGUAJE PRAGMáTICO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO
CLASIFICACIóN DEL LENGUAJE PRAGMáTICO USANDO TéCNICAS DE APRENDIZAJE PROFUNDO
Aguilar Gómez Pedro Nicolás, Instituto Politécnico Nacional. Alzate Grisales Jesus Alejandro, Universidad Autónoma de Manizales. Asesor: Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Estudios señalen que la evolución de las capacidades pragmáticas es bastante amplia, por lo cual el uso del lenguaje pragmático ha sido atribuido a estructuras especificas en el cerebro y redes neuronales funcionales. De este modo, la evaluación del lenguaje pragmático en grandes grupos de estudiantes puede llegar a ser una tarea muy demandante en tiempo, además de requerir personal capacitado, como psicólogos, para dicha tarea, por lo cual el uso de algoritmos de Procesamiento del Lenguaje Natural (NLP) e Inteligencia Artificial será de vital importancia. Partiendo de esta premisa, el presente proyecto propone el uso de algoritmos para clasificar de forma automática el desarrollo cognitivo de estudiantes de primaria y secundaria. Esta herramienta coadyuvará a los expertos para acelerar su trabajo y proporcionará información con respecto al desarrollo del lenguaje pragmático en los diferentes grupos de estudiantes.
METODOLOGÍA
Se contó con 2 conjuntos de datos con 155 preguntas hecha en los niveles primaria y secundaria. Ambos conjuntos de datos son etiquetados por personal calificado, obteniendo así, para cada respuesta un numero entre el 0 y el 3 que evalúa desde un completo sin sentido la respuesta a un grado alto de sentido. Las respuestas 0 fueron eliminadas. Con los datos filtrados se emplearon dos modelos computacionales para la clasificación de reactivos siendo BERT y GPT-2.
Para GPT-2 se utilizaron dos modelos de preentrenamiento siendo el modelo original de OpenAI con nombre ‘gpt2’ y el modelo en español desarrollado por Josué O. y Berny C. con nombre ‘datificate/gpt2-small-spanish’.
Para el clasificador los datos fueron divididos en dos sets uno de entrenamiento y otro de prueba con una proporción de 80% y 20% respectivamente. Dichos datos se encuentran en .txt por implementación del código. Con los sets de datos depurados y almacenados se carga Transformers y todas las librerías necesarias, de las librerías se instalan en específico imgaug 0.2.5 y matplotlib 3.4.0 para graficar los resultados.
Por configuración se utiliza la etiqueta ‘Zero’ como una clase de datos vacía para descartar los reactivos sin respuesta y evitar errores en tiempo de ejecución. El código consta de 2 clases que tienen como propósito leer el contenido de los archivos para crear la base de datos y convertir el texto en etiquetas numéricas.
Las funciones por su parte se encargan de proveer un conjunto de respuestas con una estructura numérica al clasificador para comenzar el proceso de entrenamiento y realizar la validación mediante una estructura similar a la función de entrenamiento. Posteriormente se carga el modelo a utilizar y su tokenizador para evaluar su rendimiento.
En el caso del entrenamiento con BERT, se toman en cuenta 2 modelos con diferentes características, buscando que ambos modelos fueran preentrenados en español o al menos el vocabulario con el que este fue entrenado tenga palabras en español. El primero de estos es llamado BETO, un modelo desarrollado por la Universidad de Chile. Por otro lado, se encuentra BERT-Multilingual, un modelo creado y entrenado por Google Research.
Luego de obtener las arquitecturas y configuraciones originales en el repositorio de GitHub original de cada modelo, se utiliza Tensorflow para el ensamble y entrenamiento de estos. Inicialmente, se utiliza el vocabulario de cada modelo para ajustar el tokenizador, de forma que se convierten las palabras en un formato numérico entendible para los modelos de aprendizaje profundo. Posteriormente, se carga el modelo y los pesos correspondientes. Se entrenan ambos modelos por 30 épocas cada uno, teniendo en cuenta datos de entrenamiento, validación y prueba, con una distribución de 80%-10%-10% respectivamente. Es importante aclarar que durante el entrenamiento del modelo se utilizaron métricas, como Matthews Correlation Coefficient (MCC) y la función de perdida fue Sigmoid Focal Cross Entropy, con el fin de evaluar correctamente los resultados teniendo en cuenta el desbalance de clases en los datos, dónde hay más muestras para la clase 1 y 3 que para la clase 2.
Por último, al tener los modelos entrenados siendo BERT y GPT-2, se evalúan los datos de prueba, obteniendo, gráficas con los resultados obtenidos de MCC y la perdida, y se genera un reporte de evaluación que entrega la precisión por clase, además de una matriz de confusión.
En BERT el procedimiento anteriormente mencionado se utiliza, además, para la estrategia de validación cruzado, con la que se busca evaluar la estabilidad de los resultados presentados por los diferentes modelos.
CONCLUSIONES
La estancia de verano permitió un acercamiento a la implementación de técnicas de inteligencia artificial de vanguardia en el campo de las ciencias de la computación. Las implementaciones, mostraron un mejor rendimiento en la precisión de la clasificación con el preentrenamiento en español que con el preentrenamiento original, algo que se pudo observar principalmente en las variaciones de los modelos basados en BERT, en el que el mejor resultado fue reportado por BETO. Además, el uso de métricas para la evaluación de resultados, teniendo en cuenta el desbalance de los datos, demostró ser una herramienta útil, sin embargo, se propone aumentar el número de respuestas en las bases de datos de manera que permita nivelar o tener más muestras de la clase que menos muestras tiene para cada pregunta.
Al ser un proyecto extenso los resultados obtenidos son todavía prematuros, sin embargo, con los resultados y observaciones encontradas durante la estancia que permiten plantear la viabilidad del proyecto para trabajar a futuro, para de esta manera obtener resultados más prometedores y precisos no solamente en la clasificación en la pragmática del lenguaje, sino también, la evaluación de dichos resultados en relación al desarrollo cognitivo y dificultades o ventajas existentes entre estudiantes a nivel primaria y secundaria en Latinoamérica.
Amaro Rosas Daniel Alejandro, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PROTOTIPO DE SISTEMA DE ILUMINACIóN NATURAL UTILIZANDO FIBRA óPTICA
PROTOTIPO DE SISTEMA DE ILUMINACIóN NATURAL UTILIZANDO FIBRA óPTICA
Amaro Rosas Daniel Alejandro, Consejo Quintanarroense de Ciencia y Tecnología. Avilés Encalada Enrique Alberto, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En el área metropolitana de Monterrey, Nuevo León, las tres principales fuentes de emisiones de gases de efecto invernadero (ya sea de forma directa o indirecta) son las emisiones vehiculares, sistemas de enfriamiento y sistemas de iluminación en ese orden. El sector de iluminación representa el 14% del consumo eléctrico total en los edificios por lo que se busca aprovechar la luz natural en la medida de lo posible.
Está demostrado que la luz natural afecta en los procesos fisiológicos y psicológicos del ser humano (control de reloj biológico, efecto de luz sobre el sueño, salud, estado de ánimo y sus actividades), por lo que la implementación de sistemas que aprovechan la luz natural como medio de iluminación de interiores genera un beneficio a la salud y representa una disminución en la emisión de gases de efecto invernadero derivados del consumo de energía por luz eléctrica.
METODOLOGÍA
Se analizaron los elementos con los que se contaban al inicio de la estancia de investigación y se realizó el diseño tridimensional de un prototipo mediante Diseño Asistido por Computadora, usando el software SolidWorks. La primera versión del prototipo está conformada con los materiales que ya habían sido adquiridos, así como los que se consideraron necesarios para poder hacer el diseño 3D realizado previamente. A continuación, se enlistan los materiales utilizados en esta versión del prototipo:
Lente Fresnel hexagonal de 8.5 cm de diámetro
Madera
Tubería de PVC
Tornillería
Rondanas
Tuercas
3 m FOP
Tripié de aluminio
Lente LED
Caja de cartón
En primer lugar, se armó el recolector de luz natural, este recolector permite alinear perpendicularmente el lente Fresnel con respecto al sol, concentrando la luz en un punto donde se encuentra la entrada de la fibra óptica, permitiendo recolectar una mayor cantidad de luz natural.
Se fijó el lente en una tabla de madera de 15 cm x 11 cm con un agujero de 8.5 cm de diámetro, permitiendo que el lente reciba la luz del sol.
La sección transversal del cable de FOP se colocó dentro de un lente LED desde el centro del lente Fresnel, distancia en la que se encuentra el foco según las especificaciones técnicas del proveedor. Se introdujo parte de un lente LED, que cumple la función de recibir la luz concentrada del lente Fresnel y la transmite a la FOP, con su cubierta en el interior de un cilindro de madera que cuenta con un orificio en el centro, por donde se introduce la otra parte del lente LED. En los lados cortos de la tabla de madera, perpendicularmente a la cara opuesta a la que se encuentra el cilindro de madera, se pegaron los lados cortos de dos piezas de madera. Los otros extremos de estas dos piezas se pegaron en la parte trasera de la tabla de madera que sostiene el lente Fresnel, formando así una estructura que mantiene al lente LED con la FOP en el foco donde se concentra la luz al estar alineado el lente con el sol.
El prototipo cuenta con dos grados de libertad, el primero permite la inclinación del lente Fresnel mientras que el segundo permite la rotación del mismo.
Para la inclinación del lente, la tabla de madera es sujetada de la parte inferior trasera por medio de dos brazos de madera que unen el prototipo a un eje. El eje está conformado por un tornillo que pasa a través de dos pedazos de madera cilíndricos un orificio en el centro, entre ambos pedazos cilíndricos de madera se encuentra un tubo de PVC que es apretado por las piezas de madera y una tuerca al final del tornillo; para poder inclinar la tabla de madera se afloja ligeramente la tuerca que presiona el cilindro de madera hasta quedar en la posición deseada, posteriormente se aprieta nuevamente la tuerca.
Para la rotación del prototipo se armó una base con madera y PVC, en los extremos del tubo se unieron dos pedazos circulares de madera para formar así la base rotatoria. Se unió al eje de inclinación del lente Fresnel, en la parte inferior de la base rotatoria se hizo un orificio en el centro de la madera para introducir el tornillo del tripié y que con la ayuda de una tuerca unirá la base rotatoria con el tripié; para hacer girar la base se afloja la tuerca del tripié y se coloca en la posición deseada, posteriormente se aprieta nuevamente la tuerca.
Se colocó un extremo de la FOP en el interior del lente LED y el otro extremo se colocó dentro de la caja de cartón cerrada, en el interior de la caja se colocaron dos objetos con la finalidad de poder ser observados una vez que se transmita la luz dentro de la caja.
CONCLUSIONES
Durante la estancia de investigación se logró desarrollar un prototipo de iluminación natural que logró transmitir la luz del sol captada desde el exterior hacia el interior de una caja, iluminando así su interior; como primera instancia las pruebas con los equipos de manera manual se obtuvieron resultados prometedores demostrando el funcionamiento del mismo iluminando una caja sin embargo problemas como la estabilidad del usuario para concentrar la luz solar con el lente Fresnel y el excesivo calentamiento de la FOP del mismo no permitieron una iluminación constante, por otro lado el prototipo realizado demostró una constante concentración de luz solar hacia la FOP, sin embargo requiere de mejoras en su funcionamiento como la implementación de los elementos electrónicos para convertirlo en un seguidor solar y el rediseño de la estructura para una mayor concentración solar y cubra de las condiciones ambientales a los elementos electrónicos.
Amaya Carrascal José Luciano, Universidad Autónoma de Manizales
Asesor:Dra. Julia Patricia Melo Morín, Instituto Tecnológico Superior de Pánuco
APLICACIóN MóVIL DE APOYO A LA COMUNICACIóN EN INSTITUCIONES EDUCATIVAS ANTE LA COVID-19
APLICACIóN MóVIL DE APOYO A LA COMUNICACIóN EN INSTITUCIONES EDUCATIVAS ANTE LA COVID-19
Amaya Carrascal José Luciano, Universidad Autónoma de Manizales. Asesor: Dra. Julia Patricia Melo Morín, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
Debido a la situación de salubridad actual que se está viviendo alrededor del mundo muchas instituciones educativas se vieron en la necesidad de cambiar su metodología de enseñanza adoptando una estrategia de educación virtual o a distancia, este cambio en la forma de enseñar supone una reinvención entre otros aspectos, al apartado de la comunicación que debe existir entre estudiantes y profesores o profesores y padres de familia, por ello, muchas instituciones empezaron a hacer uso de las redes sociales y las aplicaciones de mensajería instantánea como WhatsApp para suplir esa necesidad. Estás aplicaciones informáticas, aunque efectivas para la comunicación entre diferentes personas alrededor del mundo tienen un propósito ajeno a la comunicación en un ámbito educativo, por ello, al utilizar dichas aplicaciones para tal fin se estarían combinando tanto el ámbito educativo como el ámbito social, lo que puede llegar a generar confusiones tanto en estudiantes como en profesores.
METODOLOGÍA
La metodología de trabajo que se llevó a cabo en la investigación se trata de un desarrollo tecnológico con un enfoque cualitativo, dado que el objetivo principal de la investigación es el desarrollo de una aplicación móvil para la comunicación entre los diferentes entes en una institución educativa se hizo uso de una metodología de desarrollo ágil denominada Iconix, esto debido al tiempo y equipo de trabajo con el que se disponía, esta metodología fue de gran ayuda ya que tiene sus fases bien definidas y se enfoca en la implementación del código fuente.
Además de lo anterior, y hablando específicamente de las tecnologías usadas para el desarrollo, se utilizo el sdk desarrollado por Google llamado Flutter, este framework permite generar una aplicación nativa tanto para Android como para ios, esto sin la necesidad de tener dos bases de código fuente, dicho framework hace uso de la sintaxis del lenguaje de programación Dart, el cual fue el que se utilizó en el desarrollo. En cuanto al ámbito de desarrollo utilizado se hizo uso del IDE de desarrollo Visual Studio Code y un dispositivo virtual con un sistema operativo Android en su versión 10 el cual fue creado gracias al uso del entorno de desarrollo integrado llamado Android Studio.
CONCLUSIONES
Con base a los resultados obtenidos en el transcurso de la investigación permiten concluir que, gracias a todo el desarrollo tecnológico llevado a cabo en los últimos años, específicamente en el desarrollo móvil se cuenta con una gran variedad de tecnologías que tienen como fin la creación de aplicaciones móviles, muchas de estas tecnologías ayudan a que, con una sola fuente de código y de una manera ágil se pueda generar una aplicación tanto para Android como para ios.
Además de lo anteriormente mencionado, cabe destacar que el desarrollo llevado a cabo se realizó en un corto periodo de tiempo y con un equipo de desarrollo pequeño, por lo cual, se puede concluir que fue una buena idea el uso del framework de desarrollo flutter para la implementación del código fuente y la creación de la aplicación gracias a que dispone de un número muy grandes de widgets que permiten agilizar el desarrollo.
Finalmente, se concluye que el desarrollo dejó como resultado del mismo una aplicación móvil funcional que puede llegar a funcionar como alternativa de las ya mencionadas redes sociales y aplicaciones de mensajería instantánea en un ámbito educativo, dado que este el fin de la aplicación que se realizó, y, aunque cabe destacar que existen algunas posibles mejoras a la funcionalidad de la misma, es una aplicación móvil que ya puede empezar a ser adoptada por instituciones educativas como herramienta de comunicación.
Ambros Chapan Erick Omar, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
ROBOT CARTESIANO CON LÁSER PARA LIMPIEZA DE AGENTES QUÍMICOS O NATURALES CONTENIDOS EN UNA SUPERFICIE
ROBOT CARTESIANO CON LÁSER PARA LIMPIEZA DE AGENTES QUÍMICOS O NATURALES CONTENIDOS EN UNA SUPERFICIE
Ambros Chapan Erick Omar, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Debido a la necesidad de la industria de incrementar la producción, así como el realizar tareas peligrosas para el hombre, se desarrollaron mecanismos automatizados que realizaran operaciones de producción de manera más rápida, segura y económicamente. A estos mecanismos automatizados se les llamó robots. En este proyecto se desarrollara el diseño y la implementación de un Robot Cartesiano para aplicaciones de control de movimiento de un láser, es decir para el posicionamiento de movimientos según su coordenada dada por el usuario. El robot consta de tres grados de libertad, el desplazamiento en el eje X tanto en el desplazamiento en el eje Y, el desplazamiento en el eje Z, en los cuales se utiliza como actuador un motor paso a paso nema 17 de 1.2 N.m conectando a una correa dentada y sistemas de engranaje. Es constante la evolución y rapidez de las técnicas de limpieza de objetos con valor simbólico y de representación cultural, histórica o artística ha convergido en una enorme variedad de posibles metodologías prácticas. Sin embargo, una gran parte de las mismas suelen ser, por defecto, un tanto invasivas, abrasivas dejando con frecuencia huellas en los objetos. Todo ello hace que la elección del tratamiento de limpieza del objeto sean en muchas ocasiones, compleja. La aplicación del láser en la Conservación y Restauración de materiales o edificaciones es relativamente nuevo, su campo de aplicación se viene ampliando a otras áreas de estudio.
METODOLOGÍA
El proyecto consto de la construcción y armado del mecanismo cartesiano de acuerdo a los materiales requeridos para el diseño de robot como lo son la parte estructural de travesaños con configuración en V de doble perfil el cual se realizó para formar la estructura del robot con todos sus elementos y conexiones, además de realizar también las pruebas de funcionalidad, calibración y puesta en marcha de los motores a pasos así como también se determinó los límites correspondientes a la dimensión de las guías de la estructura del robot cartesiano, verificación del voltaje y potencia suministrado hacia los motores paso a paso mediante la tarjeta de control. Como regla general se calibraron los motores a una corriente mínima del 60~70% de su corriente nominal. Los drivers se calibraron midiendo y ajustando el voltaje en un punto determinado dependiendo los tipos de pasos que se requerían para tener una precisión exacta o bien tener más velocidad en ellos, para esto el potenciómetro metálico que poseen los drivers son los que se regularon y tras repetir el proceso en el resto de drivers se obtienen calibrados correctamente. Se desarrolló la programación del control de movimientos a través de la plataforma de Arduino y Marlín la cual ayudó a controlar los movimientos de los motores paso a paso y de tal forma que el resultado de la limpieza sea lo más preciso, ya que Marlín lee la lista de los comandos G-CODE, línea a línea, y va convirtiendo cada comando en los pulsos necesarios para mover los motores paso a paso, con ayuda de una cámara la cual obtiene la imagen de la figura del agente químico o natural para que esta sea convertida en G-CODE. Esto ayudó a la adaptabilidad del diseño y construcción del prototipo del robot cartesiano, basado en las trayectorias del recorrido de los diferentes ejes con respecto a su funcionalidad, se mejoró el control de movimientos de cada trayectoria en base al área de limpieza y el número de pasadas. Se necesita un control láser fino, la ablación láser es un proceso en el que un láser arranca o vaporiza material de la superficie de un objeto sólido al incidir sobre él, por lo cual se realizaron pruebas de funcionalidad del láser para así determinar la potencia, longitud de onda y energía correcta de él para un funcionamiento adecuado a la hora de remover este sustrato de la base del material a limpiar. Cuando el rayo golpea la superficie, los enlaces moleculares en la capa de polvo u óxido se rompen y se expulsan del sustrato para ello se realizan las pruebas con el láser óptico en diferentes materiales y recubrimientos, contenidos de suciedad como puede ser sustratos de caliza, piedra, materiales metálicos que contengan una película de pintura o agentes naturales como moho, sarro, elementos oxidantes entre otros y así determinar correctamente la cobertura necesaria y el número de pasadas que se deben de obtener.
CONCLUSIONES
Los resultados con la presente investigación es un robot cartesiano de 3-DOF con un armado limpio y estético, colocando los materiales requeridos y los componentes electrónicos de una manera muy estética y distribuida, eliminando posibles problemas de desconexión de los componentes o problemas de interferencias entre ellos, gracias a las pruebas realizadas de cada de unos de ellos, se determinan sus posiciones correctas en el montaje del robot logrando lo ya mencionado y mejorando así también la funcionalidad correcta de los motores a pasos y del láser optico, evitando vibración, sobrecalentamiento y llegando a los limites esperados de la estructura del robot cartesiano de 1.5 por 1.5 metros de área de trabajo y 0.15 metros de altura para el movimiento de la herramienta de trabajo que en esta caso es un módulo de rayo láser PWM de 7w que es controlado a través de la tarjeta de control. En base a los sustentos obtenidos realizando pruebas en diferentes aplicaciones y materiales utilizando el sistema mecánico y el láser, se obtuvieron resultados satisfactorios, en donde para cada material o recubrimiento diferente fue necesario tener diferentes parámetros para el control de los pulsos del rayo láser como es su potencia, longitud de onda, energía, frecuencia de repetición y número de pulsos. Los materiales en donde se realizaron las diferentes pruebas son la caliza, piedra, material metálico o plástico con pintura, moho, sarro y oxido. Se lograron los objetivos de funcionalidad y calidad gracias a la optimización en el control de movimientos de cada trayectoria en base al área de limpieza y número de pasadas. Con esto se contribuye al desarrollo tecnológico y científico del país con aplicaciones prácticas y económicas que contribuyen al mejoramiento y conservación de monumentos históricos de patrimonio cultural.
Ancona Ávalos Carolina Trinidad, Instituto Politécnico Nacional
Asesor:Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
ESTUDIO Y ANáLISIS DE MATERIALES SEMICONDUCTORES POR MEDIO DE DIVERSAS TéCNICAS ANALíTICAS COMO LA MICROSCOPíA ELECTRóNICA DE TRANSMISIóN.
ESTUDIO Y ANáLISIS DE MATERIALES SEMICONDUCTORES POR MEDIO DE DIVERSAS TéCNICAS ANALíTICAS COMO LA MICROSCOPíA ELECTRóNICA DE TRANSMISIóN.
Ancona Ávalos Carolina Trinidad, Instituto Politécnico Nacional. Asesor: Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Hoy en día el análisis cualitativo y cuantitativo de los materiales es de vital importancia para determinar la viabilidad de su aplicación, el nivel de riesgo que representa de acuerdo a sus propiedades fisicoquímicas, la evaluación y control de la calidad. De igual manera es necesario su análisis cuando se tienen muestras de origen desconocido, cuando se desea mejorar las propiedades físicas o químicas del material de acuerdo a su uso.
Los semiconductores son materiales capaces de actuar como conductores eléctricos o como aislantes eléctricos, dependiendo de las condiciones físicas en que se encuentren, comparten ciertos rasgos químicos (generalmente son tetravalentes), que les confieren sus particulares propiedades eléctricas. Son especialmente útiles en la industria de la electrónica, dado que permiten conducir y modular la corriente eléctrica. Por esa razón, es usual que se empleen para:
• Transistores
• Circuitos integrados
• Diodos eléctricos
• Sensores ópticos
• Láseres de estado sólido, etc.
Considerando lo anterior, es de gran utilidad conocer y saber emplear diversas técnicas de análisis como la microscopía electrónica de transmisión. Esta técnica en correlación con otras como lo es el análisis por rayos X, infrarrojo y UV-vis, son capaces de ayudar a analizar una gran cantidad de muestras de orígenes diversos. Es necesario conocer correctamente los materiales antes de seleccionar los adecuados, teniendo en cuenta todas sus características.
METODOLOGÍA
Con la finalidad de conocer más sobre la microscopía electrónica de transmisión (T.E.M. por sus siglas en inglés), se llevó a cabo una investigación bibliográfica que abarcó los objetivos, fundamentos, características, aplicaciones de la técnica, así como ventajas y desventajas. Esta investigación fue presentada a los demás compañeros y complementada por el Dr. Rosendo López González (asesor). El objetivo principal de la microscopía ha sido durante mucho tiempo determinar las posiciones atómicas en las estructuras que la materia puede tener y para ciertos objetivos relacionarlas con las propiedades de los materiales. Se basa en pasar un haz de e controlado sobre una muestra muy delgada para obtener una imagen a nivel microscópico de su estructura. Igualmente, es posible determinar las distancias Inter planares de las moléculas y conocer mejor sus estructuras.
Como parte complementaria se estudió y puso en práctica el uso del programa electrónico OriginPro 9.1, en el cual se graficaron diversos datos experimentales. Se analizaron diversas maneras de graficar, gráficas simples de líneas ejes (X,Y), gráficas especializadas de cascada, con desplazamiento de datos, con diversos paneles para analizar las diferencias existentes en una misma serie de datos, gráfica con ZOOM para poder analizar más detalladamente algunas partes específicas que son difíciles de ver a simple vista en el gráfico general.
Así mismo, se estudió el uso del equipo de rayos X, su encendido, preparación de la muestra y análisis.
Analizar datos previamente obtenidos por otros estudiantes por medio de T.E.M.
CONCLUSIONES
Me fue posible conocer y aprender más sobre las diversas técnicas de análisis de materiales, en especial la microscopía electrónica de transmisión de la cual no poseía conocimientos previos. Fui capaz de aplicar nuevas herramientas electrónicas como OriginPro para el acomodo de datos así como emplear diversas técnicas para la elaboración de graficas dependiendo el tipo de análisis que se desee realizar.
Reforcé mis conocimientos sobre algunas otras técnicas complementarias como lo son los rayos X y la espectroscopía.
Andrade Chacón Daniel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PRUEBAS DESTRUCTIVAS Y NO DESTRUCTIVAS EN ESTRUCTURAS DE MUROS Y COLUMAS DE CONCRETO EN ZONAS DONDE SE PRESENTEN SOCAVACIÓN DE LA CIUDAD DE CHETUMAL, QUINTANA ROO
PRUEBAS DESTRUCTIVAS Y NO DESTRUCTIVAS EN ESTRUCTURAS DE MUROS Y COLUMAS DE CONCRETO EN ZONAS DONDE SE PRESENTEN SOCAVACIÓN DE LA CIUDAD DE CHETUMAL, QUINTANA ROO
Andrade Chacón Daniel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del problema
La ciudad de Chetumal ha tenido problemas de socavación a lo largo de los años, debido a que el comportamiento del suelo es permeable. El suelo contiene rocas calizas que permite el paso del agua por lo cual cuando el agua penetra en la caliza se lleva a cabo el proceso de disolución, mediante el cual se disuelve el carbonato de calcio. Remueve materiales del lecho de un cauce debido a la acción erosiva del flujo de agua alrededor de una estructura por lo cual afectan alas estructuras y ocasionan grietas.
Dentro del peligro se encuentra es la zona centro de la ciudad de Chetumal que es la zona baja de la capital. Aparte que ha afectado en viviendas particulares también ha afectado en las vialidades por lo que se ha venido a ala reparación de calles en algunas zonas bajas de la capital con pavimento con concreto hidráulico. También, está la posibilidad que exista corrientes subterráneas y cauces que puedan interactuar con el suelo a nivel de las calles y casas, por lo cual erosiona con las estructuras y generan fallas estructurales
METODOLOGÍA
Metodología
Para comenzar, primero se seleccionará las áreas de la zona baja de Chetumal que presentan de recursos bajos o de marginación social que presentan estas fallas de socavación con la selección de 5 viviendas. Esas mismas zonas se pretenderá hacer una excavación en cada una donde está la socavación y se obtendrá una muestra del suelo de cada zona con dimensiones de 30cm x 30cm x 30cm para saber el comportamiento del suelo. Seguidamente, se evaluará sus propiedades físicas con mas de 2 pruebas no destructivas: esclerometría, velocidad de pulso ultrasónico y resistividad eléctrica; y propiedades mecánicas: resistencia a compresión simple
CONCLUSIONES
Conclusiones
De acuerdo con las pruebas de laboratorio de los hundimientos y evaluación de las pruebas destructivas y no destructivas, se espera mejorar para el diseño de la resistencia a la compresión del concreto para las futuras viviendas que se desean construir en la zona baja de la ciudad de Chetumal para que no ocurran fallas estructurales y no presenten problemas de socavación.
Andrade Quintana Luis Ernesto, Universidad Autónoma de Baja California
Asesor:Dra. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco
SíNTESIS DE NANOCOMPOSITOS CON MATRICES MINERALES PARA SU USO COMO MATERIALES DE ADSORCIóN DE GASES DE EFECTO INVERNADERO
SíNTESIS DE NANOCOMPOSITOS CON MATRICES MINERALES PARA SU USO COMO MATERIALES DE ADSORCIóN DE GASES DE EFECTO INVERNADERO
Andrade Quintana Luis Ernesto, Universidad Autónoma de Baja California. Asesor: Dra. Alien Blanco Flores, Tecnológico de Estudios Superiores de Tianguistenco
PLANTEAMIENTO DEL PROBLEMA
Los gases de efecto invernadero (GEI) son un conjunto de gases presentes en la Tierra que absorben y emiten energía del espectro de radiación emitido desde la superficie del planeta.Los gases de efecto invernadero son muy perjudiciales para el planeta debido a que atrapan el calor en la atmósfera produciendo un aumento de la temperatura de la tierra.
METODOLOGÍA
1.Síntesis de nanocompositos con matriz de toba vítrea
Se llevaron a cabo 3 tratamientos; agua, ácido y base.
Pretratamientos de toba vítrea
Se prepararon 3 soluciones de 50 mL, las solución ácida y básica se encontraban a una concentración de 0,04 M de HCl y NaOH. Se añadieron 5 g de toba vítrea a cada solución y se colocaron bajo agitación magnética a 470 rpm durante 4 horas. Posteriormente, cada solución se filtró al vacío con lavados de agua destilada. A continuación, las tobas vítreas tratadas con las diferentes soluciones se secaron en el horno a 120°C durante 2 h y se dejaron enfriar dentro del mismo. Las tobas vítreas tratadas y secadas se pesaron y almacenaron en contenedores de plástico.
Síntesis de nanopartículas bimetálicas Cu/Co sobre la toba vítrea
Se preparó una solución de Co(Ac).4H2O y Cu(Ac).H2O de 125 ml a 0,05 M. Se añadieron 3 gramos de cada toba vítrea tratada en un vaso de precipitado adicionando 38 mL de cada solución precursora en cada uno de los 3 vasos creando una solución total de 76 ml. Las soluciones se agitaron a 470 rmp durante 1.5 horas.
Finalizado el tiempo de agitación, las soluciones se llevaron a un PH de 8 con agitación constante a 350 rpm utilizando una solución de NaOH a 1M. Cuando el PH de cada solución alcanzó 8, se preparó una solución de 8 mL de borohidruro de sodio a 0,04 M y se añadió rápidamente a la solución bajo agitación por un lapso 10 minutos. Transcurrido el tiempo, se dejó reposar para que el producto sólido se asentara y así facilitar el proceso de decantación. Se realizó una filtración al vacío lavando con abundante agua destilada y un último lavado con 5mL de acetona. El material filtrado se secó en el horno a 120°C durante unas 2 h.
Crecimiento de MOF (HKust-1) sobre la superficie
Se pesaron 2g de cada toba con np´s adicionando una solución de 70 ml con 1.89 g de acetato de cobre monohidratado bajo agitación a 370 rpm durante 40 minutos. El resultado se filtró al vació y se dejó secar a 120°C por 2 horas.
Para iniciar el crecimiento del MOF, se pesó 1 g de toba tratada con acetato de cobre y se prepararon 2 soluciones; 5.675 g de nitrato de cobre con 210 ml de disolución de etanol y una solución de 1.8375g de ácido 1,3,5- bencenotricarboxilico (BTC) en 210 ml de etanol. A cada muestra de toba se adicionaron 35 ml de solución de nitrato y 35 ml de BTC gota a gota bajo agitación magnética. Una vez terminada la adición gota a gota de BTC se dejó agitar por otras 2 h. El resultado se filtro al vacío con lavados de agua destilada y se dejó secar a 120°C por 2 horas.
2.- Síntesis de nanocompositos con matriz de zeolita.
Pre-tratamiento de zeolita
2 soluciones se prepararon utilizando 50 mL de disolución, tanto la solución ácida y básica se encontraban a una concentración de 0,04 M de HCl y NaOH respectivamente. Se añadieron 5 g de zeolita a cada solución y se colocaron bajo agitación magnética a 470 rpm durante 4 horas. Una vez transcurrido el tiempo, cada solución se filtró al vacío y se lavó con 10 alícuotas de 10mL de agua destilada. A continuación, la toba vítrea tratada con las diferentes soluciones se secó en el horno a 120°C durante 2 h y se dejó enfriar dentro del mismo. Las zeolitas tratadas y secadas se pesaron y se almacenaron en contenedores de plástico etiquetados como Z-HCl y Z-NaOH.
Homoionización de zeolita con cloruro de calcio
Para este proceso, se agregaron 3 g de cada zeolita tratada (Z-HCl y Z-NaOH) a 2 soluciones de 150mL de cloruro de calcio a 5 N y posteriormente se mantuvo en agitación magnética durante 4 horas a temperatura ambiente.
Síntesis de nanopartículas bimetálicas Cu/Co sobre la zeolita
Para la síntesis de nanopartículas bimetálicas sobre la superficie de zeolitas se utilizó la misma metodología que en el apartado de las tobas vítreas.
CONCLUSIONES
Existe una amplia gama de geometrías para los compuestos bimetálicos (generalmente agrupados en estructuras de aleación o núcleo-capa) y cada estructura depende del enlace metal-metal, las energías superficiales de los elementos en bruto, los tamaños atómicos relativos, el método de preparación y las condiciones. Algunos patrones XRD de nanopartícula bimetálicas de Cu-Co reportados en la literatura muestran picos en 2θ = 43.3° correspondiente al plano cubico (111) del Cu y en 2θ = 44.2 ° correspondiente al plano cubico (111) del Co. Debido a esto, podríamos esperar resultados similares en los análisis XRD del presente trabajo si lo que se ha obtenido son nanopartículas bimetálicas.
En cuanto a los tamaños y formas de los fillers bimetalicos de los distintos nanocompositos, podría esperarse que estos se encuentren en el rango nanométrico y con una estructura esférica o tipo core-shell ya que se ha reportado que el método de reducción química puede dar lugar a la formación de nanopartículas tipo core-shell en su estado cero valente, sin embargo, las condiciones implementadas en este trabajo podrían no ser las adecuadas para la formación de nanopartículas tipo core-shell.
El MOF HKUST-1 es un excelente material capaz de adsorber una gran cantidad de gases debido a la estructura altamente porosa que se forma entre los ligandos orgánicos y los núcleos metálicos de cobre. Es por esto que al haber sintetizado un nanocomposito con matriz de minerales adsorbentes en conjunto con HKUST-1 y nanopartículas bimetálicas se espera una variación en la capacidad de adsorción al ir variando los componentes del nanocomposito así como un incremento en la capacidad de adsorción de gases en comparación con los minerales prístinos.
Ángel Mora Rubí, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
LOS SIMULADORES DESDE UNA PERSPECTIVA DE REALIDAD VIRTUAL: FACTORES QUE DETERMINAN LA IMPLEMENTACIóN DE UN ENTORNO VIRTUAL DE APRENDIZAJE POR MEDIO DE SIMULADORES EN LA TRANSFERENCIA DEL CONOCIMIENTO Y MEJORA DE LA CALIDAD DEL SERVICIO EN LAS ORGANIZACIONES
LOS SIMULADORES DESDE UNA PERSPECTIVA DE REALIDAD VIRTUAL: FACTORES QUE DETERMINAN LA IMPLEMENTACIóN DE UN ENTORNO VIRTUAL DE APRENDIZAJE POR MEDIO DE SIMULADORES EN LA TRANSFERENCIA DEL CONOCIMIENTO Y MEJORA DE LA CALIDAD DEL SERVICIO EN LAS ORGANIZACIONES
Ángel Mora Rubí, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
PLANTEAMIENTO DEL PROBLEMA
Los simuladores nos sirven para imitar circunstancias reales, sin ningún tipo de riesgo físico ni para los humanos y para las máquinas.
En varias organizaciones no cuentan con los ingresos necesarios para capacitar al personal de trabajo lo que puede hacer que los trabajadores no desempeñen todo su potencial.
Como problemática la falta de capacitación puede causar accidentes o que las actividades no se desarrollen de manera eficiente además que nos ayudan a no poner en peligro al personal del trabajo.
METODOLOGÍA
A continuación se van a describir los procedimientos que se utilizarón para la obtención de la información necesaria para la investigación.
Universo y muestra
Se van a considerar en la investigación los simuladores para medicina, empresariales y para la educación, que son ejes importantes en la para la activación económica de un país.
Diseño general de la investigación
Para este tipo de investigación se realizará una exploración en diferentes sitios web, por ejemplo en revistas, tesis o paper que se encuentren en la red mundial de la información.
Descripción y operacionalización de todas las variables:
Los simuladores que se van a investigar son virtuales y deben de contener aspectos importantes en su funcionamiento, aportación a su campo de aplicación y tecnología utilizada.
Descripción de las técnicas y procedimientos más importantes:
Para esta investigación se hará en primera parte la exploración de los simuladores virtuales en los campos mencionados (medicina, empresariales y educación), para poder seleccionar los más relevantes.
CONCLUSIONES
Los simuladores son dispositivos que sirven para semejar a una actividad imitando circunstancias sin ningún riesgo físico para los humanos ni para las máquinas, lo que nos ayuda a reducir gastos.
Esta investigación se basó en fundamentar los simuladores virtuales de 3 sectores o áreas que son:
Empresarial
Educación
Salud
Empresarial: Emprendimiento
Plan de negocio
Gestión de proyectos
Simuladores:
BusinessChef y Fitness Gym.
Educativo: Solución de problemas
Adquirir las habilidades para la solución de problemas.
Simuladores:
FlexSim, Wintowin partners, Sigo company y Promodel SimRuunner.
Salud: Emergencias Médicas
Entrenamiento interactivo realista para simular una amplia variedad de habilidades para salvar vidas en emergencias médicas.
Simuladores:
Simulador ALS.
El principal desafío consiste en seguir analizando más a detalle el uso de simuladores, así como refinar la forma más efectiva y eficiente de usar la simulación.
Angel Salazar Ventura Baruc, Instituto Politécnico Nacional
Asesor:Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
DESARROLLO E IMPLEMENTACIóN DE UN ALGORITMO PARA OPTIMIZAR PROCESOS DE SOLDADURA EN CELDAS MULTIROBOT
DESARROLLO E IMPLEMENTACIóN DE UN ALGORITMO PARA OPTIMIZAR PROCESOS DE SOLDADURA EN CELDAS MULTIROBOT
Angel Salazar Ventura Baruc, Instituto Politécnico Nacional. del Razo Real Ricardo Adolfo, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
PLANTEAMIENTO DEL PROBLEMA
La deformación por soldadura desfavorece los procesos de unión de metales, sin embargo, la deformación de los metales es algo intrínseco en estos procesos de manufactura; nadie queda exento pues es natural que se presente una deformación con el aumento de temperatura y calor producido durante la fusión de 2 materiales, es por eso por lo que una selección de una secuencia de soldadura óptima favorece la reducción de la deformación en la pieza.
No resulta factible realizar el análisis de elemento finito para cada secuencia de todas las combinaciones posibles al tener múltiples cordones de soldadura, ya que el número de combinaciones posibles puede llegar a ser del orden de millones, lo cual se vuelve un problema muy grande, donde involucra dos factores importantes en la industria que son el tiempo y costo, por lo que la selección de una secuencia de soldadura adecuada utilizando algún algoritmo generaría cambios significativos en cuanto a la calidad de la pieza final y evitaría costos de arreglos por causa de la deformación, entre otros beneficios.
Por esta razón, durante el verano de investigación fue desarrollado un algoritmo para optimizar un proceso de soldadura de una pieza en una celda robótica con dos robots modelo Fanuc ARC Mate 120ic. El proceso de soldadura de esta pieza se compone de 14 cordones que deben ejecutar los robots, además de eso, la pieza es soldada en 3 posiciones diferentes, esto para que los robots puedan posicionar la pistola de soldadura a 45° del cordón.
METODOLOGÍA
La simulación del proyecto fue llevada a cabo en el software de RoboDK, ya que la empresa MANUFAI cuenta con licencias activas de este software, además, fue utilizado Python como el lenguaje de programación para realizar el algoritmo. El proyecto se dividió en módulos para tener una forma organizada de trabajo, por lo que se utilizaron 4 módulos principales, donde 3 de ellos ya habían sido comenzados previamente y el cuarto se implementó desde el comienzo.
En el software de RoboDK™ fue diseñada la celda robotizada de soldadura, para lo cual se hicieron 3 programas diferentes, uno por cada posición de la pieza. Los 14 cordones de soldadura fueron importados como trayectorias de puntos y en cada posición se seleccionaron los cordones de soldadura que pudieran ser ejecutados de acuerdo con la orientación de la pieza, para esto se tomó en cuenta que la pistola de soldadura fuera posicionada a 45 grados para poder ejecutar el cordón. Una vez seleccionados los cordones para cada posición, lo que se comprobó fue que el robot fuera capaz de llegar a esa posición y que fuera capaz de ejecutar la trayectoria completa del cordón sin que se diera una colisión. De esta manera, se filtraron cordones para posiciones de la pieza y posteriormente para los robots, dejando menos combinaciones posibles para el algoritmo.
En el primer módulo del proyecto lo que se programó fue la tarea de saber si el brazo robótico puede cumplir con la trayectoria hacia cierto cordón. Toma como entradas la cantidad de robots y cantidad de cordones de soldadura a ejecutar, los cuales deberán coincidir con los que tenemos de acuerdo con el proyecto de RoboDK. Esto lo hace para cada una de las tres posiciones de la pieza, esto quiere decir que lo hace para los tres programas generados de RoboDK. El resultado del Módulo MR01 es entregar una matriz con 0 y 1 donde el 1 significa que ese robot puede ejecutar correctamente el cordón evaluado, cabe señalar que hay direcciones de cordón de soldadura que por precaución del cuidado de la pieza no se pueden ejecutar, este módulo filtra estos cordones y les asigna un 0 automáticamente en la matriz de resultados. Esta matriz es la entrada necesaria para el siguiente modulo.
El segundo módulo desempeña la tarea donde a partir de la matriz de salida del módulo anterior, tomara los valores donde sí es posible realizar la soldadura del cordón y los ingresa a un algoritmo diseñado que entregará como resultado todas las permutaciones posibles de cordones de soldadura y robots, con base en la matriz de entrada, para cada posición de la pieza.
El tercer módulo desempeña la función donde a partir de las permutaciones obtenidas por el módulo anterior, se ejecutará la simulación de cada una de ellas para comprobar colisiones entre robots al momento de ejecutar la simulación de éstos con sus respectivos cordones dados por la combinación simulada, esto se hace para cada una de las posiciones de la pieza, se da como resultado una lista con las permutaciones donde hay colisión, una lista de permutaciones exitosas en la cual los robots trabajan sin verse afectador por una colisión y además, se da una lista de tiempos de ejecución de las permutaciones fallidas y exitosas y el tiempo total de simulación para cada una de las posiciones.
El cuarto módulo es para comprobación de las permutaciones exitosas libres de colisión del modulo anterior. Lo que hace es leer un archivo de texto de las permutaciones exitosas que se deseen simular, vuelve a simular dichas permutaciones y entrega como resultado una lista donde se puede ver la permutación, un 0 y 1 en caso de haber colisión y por último el tiempo de ejecución de esa permutación, además se exportan tres videos, una para cada posición de la pieza, para visualizar las simulaciones de las permutaciones exitosas.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos de un proceso de soldadura en una celda multirobot aplicado en un caso práctico, y se tuvo una familiarización con la industria de este campo, además de que se ampliaron los conocimientos de programación en Python y RoboDK, así como de lógica para desarrollar algoritmos. Se logró reducir considerablemente el número de combinaciones posibles al orden de las decenas, facilitando la implementación de algoritmos para la toma de decisiones de la mejor secuencia a implementar. Queda como trabajo a futuro la implementación de inteligencia artificial aplicada a un quinto módulo para la elección de la mejor secuencia de soldadura en una pieza utilizando celdas multirobot.
Añorve Jimenez Luis Bernardo, Instituto Politécnico Nacional
Asesor:Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
DESARROLLO DE PROGRAMA EN LABVIEW PARA LA CUANTIFICACIóN DE LA FRECUENCIA CARDIACA EN REGISTROS DE ECG PARA DETERMINAR UNA BRADICARDIA, TAQUICARDIA O RITMO NORMAL
DESARROLLO DE PROGRAMA EN LABVIEW PARA LA CUANTIFICACIóN DE LA FRECUENCIA CARDIACA EN REGISTROS DE ECG PARA DETERMINAR UNA BRADICARDIA, TAQUICARDIA O RITMO NORMAL
Añorve Jimenez Luis Bernardo, Instituto Politécnico Nacional. Asesor: Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las cardiopatías congénitas se asocian con arritmias, no solo por el sustrato anatómico congénito, sino cada vez es mayor el sustrato arritmogénico adquirido asociado con la reparación quirúrgica de las mismas. Con la electrofisiología es cada vez más frecuente la identificación de arritmias y su asociación con cardiopatía congénita. Existen diversos dispositivos que nos pueden mostrar la frecuencia cardiaca de un paciente y así poder detectar una taquicardia o bradicardia, sin embargo, esto puede reforzarse al capturar el registro de ECG del paciente para ser analizado por un mejor algoritmo; esto debido a que los algoritmos para detectar el ritmo cardiaco en tiempo real no suelen ser tan robustos ya que se espera una respuesta inmediata, pero en un ordenador se puede leer ese mismo registro y hacer un proceso más complejo y tardado para obtener el mismo resultado con un menor porcentaje de error. Por esto es necesario desarrollar un programa que sea capaz de leer registros de ECG y pueda cuantificar la frecuencia cardiaca para detectar taquicardia o bradicardia en un paciente que, además, pueda ser usado por cualquier usuario y pueda correr en cualquier ordenador.
METODOLOGÍA
Para realizar el programa se hizo uso de LabVIEW de National Instruments, por lo que primero es necesario instalar el software. Posteriormente se buscaron los registros de ECG para realizar las pruebas cuando el software esté terminado, estos registros se descargaron de Physionet, los cuales contienen datos con pacientes con ritmo normal, ritmo bradicárdico y ritmo taquicárdico. Una vez que se obtuvieron los registros se empezó a diseñar el código gráfico, el cual consta de cuatro partes: lectura del registro, procesamiento digital de la señal, cuantificación de picos de QRS y cálculo de frecuencia cardiaca.
En la etapa de la lectura de registro se utilizó una librería de LabVIEW llamada Biomedical toolkit, la cual nos da una paleta para seleccionar funciones relacionadas con aplicaciones biomédicas, de ahí se obtiene el bloque que leerá los archivos en el cual se coloca un control para buscar el archivo correspondiente al registro que se desea analizar.
En la etapa de procesamiento digital de la señal se realizó el algoritmo para obtener únicamente los complejos QRS de la señal de ECG. Para ello se utilizó el algoritmo de Pan-Tompkins, el cual consiste en filtrar la señal de ECG para eliminar ruido y marcar de mejor manera el QRS; posteriormente la señal se deriva y se eleva al cuadrado para obtener únicamente los picos más notorios de la señal que son del QRS. Finalmente se pasa un filtro promediador con una ventana que dependerá de la frecuencia de muestreo de la señal, con esto se obtienen únicamente una señal con picos que son correspondientes al complejo QRS.
Para la etapa de cuantificación de picos de QRS se utiliza la señal procesada y se busca el pico máximo de la señal y a ese valor se le resta cierto porcentaje, esto para obtener un umbral y entonces saber que los picos que pasen dicho umbral son del complejo QRS; con esto se cuentan cuántos picos existen que superen el umbral y además se obtiene el tiempo en el que se encontraron dichos picos y se guarda en un arreglo.
En la etapa de cálculo de frecuencia cardiaca se lee el arreglo donde están los tiempos en los que se encontraron los picos y el proceso es leer el elemento n del arreglo y el elemento n+1, de ahí realizar la diferencia de n+1 - n para obtener el tiempo que hay entre cada pico de QRS. Con este tiempo se realiza una relación donde sabemos que el tiempo en un pulso es el calculado, entonces cuántos pulsos hay en 60 segundos ya que es el tiempo para cuantificar el ritmo cardiaco; con este resultado se realizan comparaciones donde se determina si el ritmo es bradicárdico, normal o taquicárdico.
CONCLUSIONES
En el verano de investigación se obtuvieron los conocimientos teóricos y prácticos sobre el uso de LabVIEW, además de conocer la importancia y la aplicación que tiene este software. Con estos conocimientos se realizó un proyecto aplicando la instrumentación virtual, el procesamiento de señales y un enfoque biomédico. El proyecto es capaz de poder leer registros de señales de ECG para ser procesados y poder cuantificar el ritmo cardiaco determinando si el registro tiene una frecuencia cardiaca bradicárdica, normal o taquicárdica, esto con el algoritmo de Pan-Tompkins. Este proyecto puede ampliarse a realizar un instalable para que cualquier ordenador pueda correr el programa sin necesidad de tener LabVIEW.
Antonio Castellanos Brandon Alejandro, Universidad Veracruzana
Asesor:Dr. Gaspar Virilo Mendez Cruz, Universidad Nacional de Cajamarca
SISTEMA DE AGUA POTABLE EN ZONAS RURALES.
SISTEMA DE AGUA POTABLE EN ZONAS RURALES.
Antonio Castellanos Brandon Alejandro, Universidad Veracruzana. Solis Cabrera Clara Silvia, Universidad Veracruzana. Asesor: Dr. Gaspar Virilo Mendez Cruz, Universidad Nacional de Cajamarca
PLANTEAMIENTO DEL PROBLEMA
El planeta Tierra tiene una cantidad total de agua estimada de 1.386 millones de km³.Pero la distribución del agua es muy desigual ya que el 97,5% del volumen total de agua es salada y el 2,5% agua dulce. Del agua dulce, apenas un 0,3% se encuentra en estado líquido y en la superficie. (Fundación, s.f.).
En el estado de Veracruz, una región perteneciente a los Estados Unidos Mexicanos, la geografía de la región tiene un área que presenta características eficaces para las actividades agropecuarias, las mismas que ya se desarrollan convenientemente en la región.
Las actividades que se desempeñan en la región han creado una excesiva demanda de agua, llegando a priorizar su consumo antes que el del ser humano, fundamentalmente, ello ocurre en la zona rural de nuestro país, involucrando a la región de Veracruz. A pesar que, se sabe que el agua es un compuesto indispensable para la vida, teniendo como prelación de uso, al ser humano.
En la región de Veracruz, en base a los datos estimados por la CONAGUA para el año 2012, el 60 % de agua del estado era utilizado para el uso agrícola, el 12 % para el abastecimiento público, el 20 % hacia industrias autoabastecidas y el 8 % para termoeléctricas. (CONAGUA, 2012).
En México, la región veracruzana, es el principal productor de caña de azúcar, maíz grano, naranja, limón y piña. (Rural, 2016). Debido a ese importante alcance económico, su población, tiene experiencia y capacidad de realizar dichos cultivos, y a la vez, en su gran mayoría, la población rural cuenta con espacio en sus viviendas, lo que implica tener huertos, que les sirve como posibilidad de tener sus propios alimentos.
Es así, como, en las zonas rurales, su población tiene un consumo de agua potable de cierta forma, excesiva, sin tener en cuenta el uso prioritario que se le debe dar. Por lo tanto, se constituye en un problema cuantificado en la siguiente pregunta ¿Qué cantidad de agua consume un poblador rural de la región de Veracruz?
METODOLOGÍA
Bajo un enfoque en las ODS, llevados a cabo en Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible, celebrada en Río de Janeiro. El propósito era crear un conjunto de objetivos mundiales relacionados con los desafíos ambientales, políticos y económicos con que se enfrenta nuestro mundo. El ODS N.º 6 Agua Limpia y Saneamiento donde se ha de enfocar de manera eficaz, el adoptar medidas urgentes para combatir una crisis social y sus efectos, dando a la sociedad la concientización de la cantidad de agua que en realidad se está utilizando.
Con el fin de garantizar el acceso universal al agua potable segura y asequible para todos, es necesario conocer la realidad y en función a ello, realizar inversiones adecuadas en infraestructura, proporcionar instalaciones sanitarias, capacitaciones y fomentar la educación sanitaria.
Para iniciar el proceso de conocer el consumo de agua potable en la región, se realizó el trabajo de campo, para ello se seleccionó un municipio del estado de Veracruz, en el cual nos permitieron tener información sobre las colonias, comunidades y colindantes de la región.
Dando así comienzo con la determinación de las zonas urbanas y zonas rurales, mismo se define como: La zona rural se encuentra vinculada al territorio con escasa cantidad de habitantes donde la principal actividad económica es la agropecuaria. (Merino., 2015)
La característica principal para la selección de la muestra, fue el conocer si su población tenía su sistema de agua potable complementario de otro sistema o era independiente, además si el sistema tenía un servicio de 24 horas. Además, se seleccionó aleatoriamente algunas viviendas para conocer su realidad, respecto al consumo de agua potable. De tal manera que se obtuvo un espacio muestral de 100 viviendas entrevistadas, dentro de las cuales existían un aproximado de entre 3 a 5 integrantes por familia.
En las principales informaciones, para poder estimar si la población hace un consumo excesivo de agua, era necesario conocer la cantidad de agua consumida por la población de la vivienda seleccionada, en un día. Como tal se lograría tener la información aproximada de la dotación, en litros/persona/día, siendo este el objetivo de nuestra investigación, para luego relacionarla con la población usuaria, y así se tendría el caudal real de distribución del agua potable del sistema.
En tal sentido, se planteó la estrategia de realizar, nuestro trabajo en función de encuestas a los usuarios. En las mismas, se pudo determinar que muchos de ellos, en realidad desconocen su consumo diario que tienen, puesto que la falta de medidores limita el conocimiento de esto, asimismo, muchos de ellos, no conocen que un sistema de agua de consumo tiene un costo real, definido para la operación del servicio y para el mantenimiento de cada uno de sus componentes, por ello el pago que realizan no representa la verdadera dimensión de su consumo, más aún, siendo el pago bastante bajo, en tiempo de estiaje, lo utilizan en otros usos, además de tener muy poca preocupación por los desperdicios que tiene.
Por ende, el excesivo consumo de agua de ciertos usuarios trae consecuencias significativas en el consumo de otros usuarios, en ambos casos por su ubicación, topografía y otros, generando un fuerte problema social. Ello, sin tomar en cuenta que, la demanda del recurso hídrico va creciendo sosteniblemente, mientras que la oferta de dicho recurso sigue siendo la misma.
CONCLUSIONES
En base al tema de investigación junto con los resultados de encuestas realizadas, se logro adquirir un conocimiento teórico de la realidad, en lo que respecta al consumo de agua potable en torno a las zonas rurales, teniendo las siguientes conclusiones:
Los sistemas de agua potable para poblaciones rurales no tienen micromedición.
El usuario de agua potable hace uso excesivo del consumo de agua.
La demanda de agua potable es cada vez mayor y la oferta hídrica es la misma.
El trabajo de investigación que se ha realizado, por la envergadura y por el tiempo limitante a realizarlo, nos permite realizar recomendaciones:
Realizar mediciones en viviendas rurales con el apoyo de instrumentos de medición (micromedidores). Si no es posible, tener este alcance, se sugiere realizarlo a nivel del reservorio, midiendo el tirante de agua en las horas de mayor consumo, en un determinado día.
Antonio Rivera José Manuel, Instituto Tecnológico Superior de Pánuco
Asesor:Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño
IMPLEMENTACIóN DE UN MODELO DE APRENDIZAJE AUTOMáTICO PARA PREDECIR LA RESPUESTA DE LOS CLIENTES RESPECTO A LA RECOMENDACIóN DE CUPONES PARA EMPRESAS LOCALES
IMPLEMENTACIóN DE UN MODELO DE APRENDIZAJE AUTOMáTICO PARA PREDECIR LA RESPUESTA DE LOS CLIENTES RESPECTO A LA RECOMENDACIóN DE CUPONES PARA EMPRESAS LOCALES
Antonio Rivera José Manuel, Instituto Tecnológico Superior de Pánuco. Asesor: Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
El comportamiento de los consumidores para las empresas siempre ha sido un factor determinante dentro de sus estrategias de marketing, esto sucede ya que los diferentes grupos de clientes tienen necesidades distintas.
Las empresas en la actualidad han implementado con la ayuda de inteligencia artificial o más específicamente machine learning diferentes modelos para crear sistemas entrenados con miles de datos recopilados por las mismas empresas que los ayuden a predecir el comportamiento de sus clientes, con el objetivo de implementar mejores estrategias de ventas.
El comportamiento del cliente a predecir en esta ocasión será la respuesta sobre la recomendación de un cupón de descuento para establecimientos locales con la ayuda de un modelo de machine learning.
METODOLOGÍA
Se utilizo el dataset llamado in-vehicle coupon recommendation recopilado a través de una encuesta en Amazon Mechanical Turk para el desarrollo de un modelo descrito en el siguiente artículo Wang, Tong, Cynthia Rudin, Finale Doshi-Velez, Yimin Liu, Erica Klampfl, and Perry MacNeille. A bayesian framework for learning rule sets for interpretable classification. The Journal of Machine Learning Research 18, no. 1 (2017): 2357-2393.
El dataset cuenta con 12,684 registros en donde se muestras diferentes escenarios en los que el cliente estuvo mientras se le recomendaba un cupón.
Los datos recopilados por cada cliente suman un total de 26 campos dentro de los cuales podremos encontrar el destino del cliente, la hora actual, el clima, los pasajeros, lo cual nos deja un dataset con dimensiones 12,684x26.
Los datos se reprocesaron para realizar el entrenamiento del modelo, el dataset se preparo realizando las siguientes tareas:
Eliminación de columnas con alto número de valores vacíos.
Reemplazo de valores en las columnas en donde sus valores vacíos fueran tolerables con el valor más común.
Reemplazo de los valores categóricos por valores numéricos.
El dataset reprocesado se sometió a un análisis para identificar las variables dependientes e independientes:
Variable dependiente
Destination
Passanger
Weather
Temperature
Time
Coupon
Expiration
Gender
Age
MaritalStatus
Has_children
Education
Occupation
Income
Car
Bar
CoffeeHouse
CarryAway
RestaurantLessThan20
Restaurant20To50
ToCoupon_GEQ5min
ToCoupon_GEQ15min
ToCoupon_GEQ25min
Direction_same
Direction_opp
Variables independientes
Y
Ya que se identificaron las variables los datos se dividieron en dos conjuntos tomando un 20% de los datos para predicciones de prueba y un 80% para el entrenamiento del modelo.
El modelo seleccionado que entrenamos fue el MLP de las siglas en ingles Multilayer Perceptron el cual implementa una red neuronal artificial formada por múltiples capas, la capa de entrada, capa oculta y capa de salida.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conceptos teóricos dentro del campo de machine learning y ponerlos en práctica mediante la creación y entrenamiento de un modelo MLP.
El modelo resultante de esta estancia se sometió a diferentes configuraciones en sus características dando como mejor resultado un 0.74380 en la métrica AUC ROC de las siglas en ingles Area Under The Curve Receiver Operating Characteristics con la siguiente configuración de parámetros:
Activation: Tanh
Solver: Adam
Hidden Layers: 25
Learning Rate: 0.0007
Max Iter: 1400
Random State: 16
Anzaldo Baca Ivan Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
DESARROLLO DE UN ROBOT EN TELEGRAM PARA LA EXTRACCIóN DE INFORMACIóN ASí COMO SU PROCESAMIENTO Y SU CONEXIóN A UN “DASHBOARD” PARA EL MONITOREO DE TAREAS, Y DE VARIOS íNDICES.
DESARROLLO DE UN ROBOT EN TELEGRAM PARA LA EXTRACCIóN DE INFORMACIóN ASí COMO SU PROCESAMIENTO Y SU CONEXIóN A UN “DASHBOARD” PARA EL MONITOREO DE TAREAS, Y DE VARIOS íNDICES.
Anzaldo Baca Ivan Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
PLANTEAMIENTO DEL PROBLEMA
Para el crecimiento de una empresa es necesario mantener un monitoreo constante del desempeño de los empleados, así como de diversos índices que muestren el estado de la empresa y así poder actuar a tiempo y de manera asertiva.
Actualmente en MANUFAI para realizar el seguimiento de las tareas asignadas a los trabajadores se realiza de manera personal, el encargado pregunta a los empleados directamente el estado de la tarea, esta es una actividad necesaria, pero en la que se invierte tiempo tanto del encargado como de cada uno de los empleados.
Se propone realizar un sistema para monitorear las tareas de los empleados sin necesidad de hacerlo personalmente con cada uno de ellos, así como un sistema que permita visualizar de manera rápida diferentes índices referentes a la empresa.
Esto va a significar una mejor administración del tiempo y una detección efectiva de los problemas o retrasos por los que esta pasando la empresa. Y como consecuente va a significar un crecimiento en la empresa al identificar, y resolver rápidamente los inconvenientes.
METODOLOGÍA
Se utilizó como guía la metodología VDI-2206; en donde primeramente se obtuvieron los requerimientos por parte del dueño de la empresa, seguido de un diseño conceptual del sistema completo, luego se realizo el desarrollo del sistema el cual consto de: el desarrollo del Bot en Windows, la adaptación del Bot a el sistema operativo Raspbian, agregar elementos al frontenddel dashboard, el desarrollo de un script de Python que actualiza todo el frontend del dashboard, finalmente todo se integró con el desarrollo de un script de Python que controla el funcionamiento de los demás scripts de Python.
CONCLUSIONES
Se obtuvo un dashboard funcional el cual permite la visualización de las tareas que esta realizando el empleado gracias al bot de Telegram y el estado de estas, así como la visualización de la fecha, climas actuales y del índice de las tareas que se realizaron a tiempo. En un futuro se le piensa poder actualizar las demás partes del dashboard.
Araiza Gonzalez Carmen Samantha, Universidad de Sonora
Asesor:Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California
DESALINIZACIóN TERMOSOLAR.
DESALINIZACIóN TERMOSOLAR.
Araiza Gonzalez Carmen Samantha, Universidad de Sonora. Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En el siguiente reporte se describe el funcionamiento, así como también las condiciones de operación de un sistema de desalación multi efecto (MED) de 3 efectos activado con energía termo solar simulado en Aspen Plus.
Se realizaron estudios de sensibilidad para conocer los valores del calor suministrado y el flujo de agua de alimentación requeridos por el sistema MED para su funcionamiento óptimo a parámetros especificados.
METODOLOGÍA
A continuación se describira el funcionamento del sistema MED simulado en Aspen plus.
La corriente 15 de agua de mar en condiciones estándares de presión y temperatura ingresa al sistema. Primero pasa por una bomba que hace que su presión se eleve de 1atm a 2atm; Después ingresa al condensador, en donde ayudara a condensar el vapor del ultimo efecto. La corriente que sale del condensador (16) se encuentra a una temperatura mayor, entra a un divisor en donde el flujo se separa en 2 corrientes (FW13 y 16B), esto con el fin de ingresar a la MED solo el flujo de agua de mar necesario para su operación.
La corriente 16B es agua en exceso que no se utilizará, mientras que FW13 será la utilizada en el sistema como agua de mar de alimentación.
FW13 se precalentará al pasar por PH2 y saldrá como FW1-1 que será la corriente de agua de mar que entrará al primer efecto en donde se considera que el evaporador esta adentro del SEPM1. Por la adición de calor de la fuente externa (Colectores solares) el fluido FW1-2 se va en 2 fases (líquido y vapor); la parte liquida BR1 que es la salmuera, pasa a otro separador en donde se le disminuye la presión para que pueda ingresar al segundo efecto (BR1-2), al hacer esta disminución de presión se genera vapor por flasheo, provocando una disminución de temperatura en la salmuera. La corriente de vapor V1-3 generada va a un diversor donde se mezclará con el vapor generado en el SP1; La parte de vapor V1 pasa por el PH1 donde no hay ningún cambio significativo debido a que se encuentra desactivado, sale como C1-11 y entra al evaporador HX-EF2 en donde entregará su calor latente de condensación a la corriente de salmuera BR1-2, para provocar la evaporación de agua. El vapor condensado, ahora en fase líquida será el agua producto del primer efecto, pasará al SP1 en donde se disminuirá su presión para igualarla a la presión del agua producto del efecto 2, al momento de disminuir la presión se generará vapor por flasheo V1-2, este vapor se mezclará MIX1-2 con el vapor V1-3.
La corriente de vapor generado por flasheo que saldrá de MIX1-2 entrará a PH2 donde precalentará a la corriente de agua de mar FW13 (etapa de precalentamiento del agua de mar que ingresará al primer efecto), saldrá como líquido C1-2 y se mezclará en MIX1 con las demás corrientes de agua producto P1 Y C2.
La corriente de salmuera BR1-2 que entra al HX-EF2 sale en una mezcla de liq-vap BR1-3 y entra al separador SEPM2 en donde sale en 2 fases, líquido (BR2) y vapor(V2); La corriente de vapor V2 ingresa a HX-EF3 donde se condensara con la corriente de salmuera BR2-2 generando la corriente C2 que sería corriente con agua desalinizada, esta ingresara al MIX 1 donde se mezclara con las demás corrientes de agua producto (P1,C1-2), se obtendrá una corriente de agua producto M2 la cual posteriormente ingresara al SP2, en donde se disminuirá su presión para que este a la misma presión del agua desalinizada del efecto 3 y las corrientes puedan mezclarse, se volverá a generar vapor por flasheo V2-2; En cuanto a la corriente liquida BR2-2, esta ingresa a un separador para disminuir su presión, sale del separador como la corriente BR2-2 que posteriormente ingresara al tercer y último efecto. El vapor que generó durante este proceso V2-3 se mezclará junto con V2-2 en MIX2-2 y se obtendrá una corriente resultante de vapor M2-2.
La corriente de salmuera BR2-2 ingresa al evaporador HX-EF3, sale como mezcla de liq-vap BR2-3, esta corriente entra al SEPM3, donde vuelve a suceder el mismo fenómeno explicado anteriormente. Se separa en 2 fases, liquido (BR6) y vapor (V6).
BR6 es la corriente final de salmuera del sistema, la cual ingresa a una bomba para aumentar su presión y así poder ser expulsada al mar.
La corriente de vapor V6 se mezcla en MIX 3-3 con el corrienteM2-2, se obtiene un corriente producto V6-1, la cual se condensará con el agua de mar inicial; Saldrá del condensador como liquido (8) e ingresará al último mezclador MIXN donde junto con la corriente de agua desalinizada P2 se obtendrá la corriente final de agua producto 8A.
CONCLUSIONES
A través de los análisis de sensibilidad realizados, se obtuvieron los valores del calor suministrado y el flujo de agua de alimentación requeridos para que la MED opere a una capacidad definida de 7ton de agua en un lapso de 7 horas.
Q sum= 30kW.
Flujo de agua de alimentación = 0.036 kg/seg.
Aranda Gonzalez Gabriel, Universidad de Guadalajara
Asesor:Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
Aranda Gonzalez Gabriel, Universidad de Guadalajara. Nuñez Lopez Jhon Jairo Adrian, Universidad Simón Bolivar. Peña Durán Sergio, Universidad de Guadalajara. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
A raíz de la pandemia del COVID-19, la gran mayoría de personas tuvo que iniciar un aislamiento voluntario para evitar contagiarse, en consecuencia, la formación y capacitación académica en línea adquiere un importante papel en la vida cotidiana, en respuesta a esta necesidad surgen cursos, tutoriales, boot camps, webinars, conversatorios virtuales, tal fue la respuesta que en cuestión de meses más allá de generar una gran aceptación, los usuarios se encuentran molestos dado la falta de administración y segmentación correcta de estos.
METODOLOGÍA
Mediante la división de labores en dos ejes (técnicos y mercadológicos), se inició el planteamiento para el desarrollo de la aplicación web, mediante el uso de diagramas UML, de maquetó la base de datos junto con los métodos que involucran cada tabla. La base de datos fue optimizada a tercera forma normal para facilitar las consultas. Aunado a esto se elaboraron diagramas de casos de uso y de estados del sistema.
Se realizó una comparativa entre las diferentes alternativas de sistemas administradores de eventos para poder encontrar un diferenciador y conocer las tendencias que siguen este tipo de sistemas.
CONCLUSIONES
Se espera desarrollar una aplicación web con todas las características definidas en la investigación utilizando el MVC (modelo vista controlador) con los frameworks Bootstrap (CSS) y Laravel (PHP y MySQL). Las pruebas de deploy en un servidor de Heroku. Se tiene previsto tener la primera versión funcional antes del fin del año en curso.
Arciga Cornejo Magaly Nataly, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
ESTRATEGIAS DE PROMOCIóN PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCILAGO DE NOPAL Y RESIDUOS SóLIDOS URBANOS EN CAMINOS RURALES
ESTRATEGIAS DE PROMOCIóN PARA LA IMPLEMENTACIóN DE UN ASFALTO A BASE DE MUCILAGO DE NOPAL Y RESIDUOS SóLIDOS URBANOS EN CAMINOS RURALES
Arciga Cornejo Magaly Nataly, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
En México los caminos rurales representan el 56 % de la Red Nacional de Caminos (RNC) y se relacionan con 210 mil localidades rurales por todo el territorio nacional. Es decir, los caminos rurales, son más de la mitad de las vías terrestres del país. Sin duda, la presencia y condiciones de un camino rural impacta en la vida económica y productiva de las localidades. Por ejemplo, estudios señalan que en el año 2014-2018 según Silvia Márquez, camionetas y camiones ligeros pueden circular como máximo a 20 km/hr en un camino rural en malas condiciones. El Instituto Mexicano del Transporte (IMT) señala que de no realizarse trabajos de conservación en los caminos rurales, de manera periódica y oportuna, se generan externalidades negativas.(2019)
Por ello ahora se ha evidenciado el deseo de poder reutilizar los residuos sólidos urbanos para la elaboración de un asfalto y reducir el porcentaje de los caminos rurales, así como también reducir la contaminación ambiental.
Para saber si es un producto aceptado en el mercado surge la necesidad de establecer estrategias de promoción para dar a conocer este nuevo producto y evaluar para ver cual nos dará mejores resultados.
METODOLOGÍA
Se realizaron diferentes estrategias de publicidad las cuales fueron lanzadas al público objetivo para después analizar los resultados y seleccionar la mejor, estas fueron las siguientes:
Publicidad
Se realizo un medio de publicidad el cual incluyo formas impresas, difusión, exteriores, audio y video, por medio de las redes sociales y las principales calles de la ciudad de Tacámbaro, Michoacán.
Entre las ventajas se puede mencionar que este medio de promoción llego a gran cantidad de público, los costos unitarios fueron relativamente baratos, y tuvo un resultado del 70% bueno.
Entre las desventajas se encuentra que llego indiscriminadamente a todo tipo de público mediante una inversión considerable, su nivel de credibilidad es relativamente bajo y en algunos casos existe gran saturación publicitaria lo que reduce su eficacia.
Propaganda
Se desarrollaron relaciones con el público al compartir la información del producto y mencionar los beneficios de este, se construyó una imagen favorable y se compartieron demostraciones atendiendo y respondiendo algunas dudas del público.
Se puede decir que tiene mayor credibilidad que un anuncio publicitario, puede llegar a un público que tal vez no es tocado por la publicidad, transmite la información con mayor fuerza afectiva que la mayoría de medios de comunicación.
Venta directa
Esta fue una estrategia que quedo pendiente debido a que se pretendió desarrollar la comunicación con el público mediante presentaciones de ventas y ferias comerciales. Esto nos permitía adaptar el mensaje a los intereses y a las características específicas de cada cliente y por esta razón se podía invertir mejor en la calidad de los mensajes redactados.
CONCLUSIONES
Durante la estancia de verano se aprendió a realizar una investigación de gran importancia. Además de aprender las estrategias de promoción comercial, estas consideran la comunicación, promoción y publicidad enfocada en el ciclo de vida de un producto, dividida en tres etapas, la presentación, el lanzamiento y el impulso, las cuales tienen el objetivo de que los compradores conozcan el producto y sean asesorados para el uso de los mismos, manteniendo una comunicación radial y personal.
Arcila Alvarez Ivan Mateo, Universidad La Gran Colombia
Asesor:M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit
CARACTERIZACIóN PARA ELABORACIóN MATRIZ DE TRANSICIóN ENERGéTICA: MAREAS: (A PARTIR DE LOS MUNICIPIOS CON LIMITE AL LITORAL DEL OCéANO PACIFICO Y EL ESTADO DE NAYARIT).
CARACTERIZACIóN PARA ELABORACIóN MATRIZ DE TRANSICIóN ENERGéTICA: MAREAS: (A PARTIR DE LOS MUNICIPIOS CON LIMITE AL LITORAL DEL OCéANO PACIFICO Y EL ESTADO DE NAYARIT).
Arcila Alvarez Ivan Mateo, Universidad La Gran Colombia. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
La presente investigación realizada durante el Verano 2021, tiene como objetivo caracterizar las condiciones para impulsar la producción de energía eléctrica limpia a base del aprovechamiento Mareomotriz de los municipios que colindan con el litoral del Oceano Pacifico, presentes en el Territorio de Nayarit, aportando elementos para mejorar la economía local.
Para desarrollar la presente investigación, se realizo análisis geográfico y espacial, a partir de una liena de investigación central y 5 caracterizaciones complementarias, todas buscan ser acordes y relevantes para la producción de energías limpias, con la encomienda de desarrollar una matriz de transición energética para ser aplicada en el periodo 2020 - 2050, destacando que la hidráulica es una alternativa con alta factibilidad para mejorar el desarrollo humano y económico a partir de la Generación de Electricidad que permita impulsar actividades económicas locales..
Según la Comisión Europea, México es de los países que más contamina a nivel latinoamericano. México genera el recurso energético eléctrico por medio de uso de hidrocarburos aportando el 82.87% a la producción de energía primaria, casi 2 puntos porcentuales menos respecto a lo observado en 2017. La producción de fuentes no fósiles de energía primaria aumentó su participación, pasando de 11.1% a 12.8% de 2017 a 2018, SENER.
Las energías renovables parten del concepto de anular el consumo de carbono actual, lo que genera una revolución industrial llamando a las puertas de una sociedad y economía sostenible. Se trata de una transformación de carácter tecnológico, de mentalidades y valores éticos, rediseñando procesos y productos, modificando comportamientos y estilos de vida.
Estas energías incorporan nuevas tecnologías renovables, aprovechando los recursos abundantes en la naturaleza que son inagotables, sin producción de emisiones de gases agotadores de la capa de ozono.
METODOLOGÍA
Por motivos de contingencia sanitaria relacionada con el COVID-19, para llevar a cabo el desarrollo de la presente investigación la estancia científica se llevó a cabo en la de modalidad virtual, a partir del uso de herramientas digitales, realizando reuniones mediante el uso de la plataforma Meet para monitorear el avance documental, apoyándose en la App Fronius a partir de los paneles instalados en la UTN, realizando prácticas en plataformas que permiten analizar datos actuales sobre la zona estudiada.
A continuación se enlistan las herramientas de apoyo que permiten desarrollar la presente investigación, destacando el uso de software de licencia abierta:
Copernicus: Esta herramienta de la Comisión Europea y de la Agencia Espacial Europea se utilizó para examinar información sobre el océano pacifico, con el fin de entender mejor cómo ocurren algunos cambios en el océano y si estos podrían afectar la implementación de la energía mareomotriz. Los tres pilares fundamentales de este programa son:
I) la observación espacial mediante una red de satélites,
II) la observación in-situ mediante redes de estaciones de medida en tierra y medios aerotransportados, y
III) la generación de servicios de información.
2. INEGI: Se sacó provecho de los datos abiertos brindados por El Instituto Nacional de Estadística y Geografía para trabajar con los datos crudos y procesarlos en un software.
3. Google Earth Pro: Se verificó alguna información de la plataforma Copernicus del estado de Nayarit, Trabajando un formato KML para poder se utilizado en este software. Allí verificaremos los cambios ambientales que se producen a unos cuantos Km de la costa del pacifico Nayarit y verificar que zonas hay presencias de conjuntos coralinos que deben ser cuidados.
4. Qgis 3.16.8: En este software se procesa los datos crudos que se descargan de diversos geoportales, en este caso se utilizaron datos principalmente del INEGI. Con el fin producir una salida gráfica que pueda aportar significativamente a largo plazo en el desarrollo del Gran Plan 2020- 2050.
5. Microsoft Visio: esta aplicación permite plasmar gráficamente diferentes tipos de información (VSD), en los cuales se encuentra desarrollar planos (DWG) para delimitar espacios de manera correcta, mapas, diagramas, entre otros. Los cuales permitieron fijar dibujos semejantes al lugar estudiado y así verificar el comportamiento que esté presente.
6.Acuerdo de París: Este acuerdo internacional, precisa en el Articulo #4, la regulación y análisis del espacio geográfico analizado, para desarrollar exitosamente una investigación, sin alterar o modificar el espacio, al mismo tiempo que desarrollar efectivamente la investigación, así mismo el Articulo #5 destaca la fijación de medidas para desempeñar de manera responsable el alcance de los proyectos y el medio ambiente global.
CONCLUSIONES
Durante la estancia del Verano Delfín 2021, realizada en la UT Nayarit, basado en la modalidad virtual derivado por la actual pandemia COVID-19, por segunda ocasión se ha generado un nuevo canal de comunicación, utilizando videoconferencias, correos electrónicos, repositorios digitales y revisión de avances documentales en línea.
Es interesante ver el desarrollo que ha tenido el Estado de Nayarit y sobre todo las instalaciones de la UT Nayarit cuando se habla de extracción de energía limpia. Se evidenció que la implementación de este tipo de energías contribuyó a una significativa baja de los gastos que se tenían que hacer para poder utilizar este recurso. Se puede decir que en este último periodo en Latinoamérica ha surgido una apropiación de la cultura para el cuidado del medio ambiente.
La energía mareomotriz sigue siendo una energía muy poco explorada y que aún falta realizar investigaciones para poder abaratar los costos de esta manera de extracción de energía, además de que sus mantenimientos no deben ser tan periódicos a comparación de otros métodos para extraer las energías limpias.
Arcos Acosta Tania del Rocio, Instituto Tecnológico Superior de Los Ríos
Asesor:M.C. Federico José Matus Vega, Universidad Nacional de Ingeniería
SITUACIóN ACTUAL DEL MODELO CURRICULAR POR COMPETENCIAS DEL TECNOLóGICO NACIONAL DE MéXICO CAMPUS RíOS
SITUACIóN ACTUAL DEL MODELO CURRICULAR POR COMPETENCIAS DEL TECNOLóGICO NACIONAL DE MéXICO CAMPUS RíOS
Arcos Acosta Tania del Rocio, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Federico José Matus Vega, Universidad Nacional de Ingeniería
PLANTEAMIENTO DEL PROBLEMA
El planteamiento del problema surge de la siguiente pregunta: ¿Los docentes de la carrera de ingeniería electromecánica en el Instituto Tecnológico Nacional de México Campus Ríos están capacitados para formar por competencia a sus estudiantes?, para contextualizar la problemática, se retoma la definición de Tobón, Pimienta y García, (2010,p.5) El modelo de competencias apoya el acercamiento y entrelazamiento de las instituciones educativas con la sociedad y sus dinámicas de cambio, con el fin de que estén en condiciones de contribuir tanto al desarrollo social y económico como al equilibrio ambiental y ecológico.
Basado esta definición de modelo por competencias se requiere conocer si la organización institucional del Instituto Tecnológico Nacional de México Campus Ríos cumple con los requisitos académicos, docentes y administrativos, requerida para la formación por competencias de sus estudiantes, la cual responda a las demandas del perfil profesional en el contexto actual de México.
METODOLOGÍA
La investigación se realizó con el enfoque cuantitativo, basado en el método descriptivo. Inicialmente se recurrió a la revisión documental, para encontrar los elementos necesarios para la elaboración de los instrumentos, en la que se apoya el trabajo de las encuestas. Luego se procedió a la recolección de datos obtenidos de los informantes clave seleccionados, constituidos por 15 docentes, 7 administrativo y 3 directivos, de la carrera de ingeniería electromecánica de esta institución educativa.
Obtenidos los datos se realizó su procesamiento mediante análisis estadístico en Excel, los cuales evidenciaron los siguientes resultados:
Desde lo organizacional del Instituto Tecnológico Nacional de México Campus Ríos, la función extensión universitaria establece mínimo relacionamiento con la sociedad, enfatizando la falta de recursos económicos, infraestructura insuficiente, y la ubicación geográfica rural desfavorable respecto al acceso a la industria.
Referido a las capacidades docentes para la formación por competencias el 62.5% dicen estar debidamente preparados con un contraste del 37.5% con deficiencias en esa área, lo que implica una debilidad relevante en la formación por competencias. En cuanto a las actualizaciones docentes, refieren que cada semestre recibe talleres y capacitaciones, pero no poseen formación posgraduada que encuentre alternativas de investigaciones educativas, aunque declaran que el 87% de ellos evalúa por competencia, el 13% no lo hace, este dato refleja que no existe un control sobre el manejo integra de la evaluación por competencias.
En relación a la capacidad instalada de infraestructura adecuada para la formación por competencias, los docentes evidencias insuficiencias de equipos en laboratorios para realizar prácticas, no cuentan con servicios tecnológicos de primer nivel recalcando en la calidad en internet.
Desde las funciones del área administrativa, no cuentan con evaluaciones, para el reconocimiento, promoción y estimulo basadas en sus capacidades de desempeño. Los talleres y capacitaciones de actualización, son anuales.
CONCLUSIONES
Los métodos aplicados en esta investigación nos muestran unos primeros resultados sobre la situación actual del Instituto Tecnológico Nacional de México Campus Ríos. La investigadora valora la experiencia enriquecedora de esta estancia de investigación y reflexiona sobre sus hallazgos.
Se considera urgente y necesario que el Instituto Tecnológico Nacional de México Campus Ríos, considere, estudie y valore la importancia de establecer el acercamiento a los diferentes sectores de la sociedad, como estrategia para la implementación de prácticas profesionales en contextos reales de sus estudiantes, para cumplir con una verdadera formación dirigidas a fortalecer las competencias profesionales, como establece Tobón.
Contextualizar la formación profesional desde la relación con el mundo laboral es una exigencia para una educación del siglo XXI, a la vez la Instituto Tecnológico Nacional de México Campus Ríos contribuye con el desarrollo de la sociedad, atendiendo sus demandas. La universidad debe ser uno de los grandes motores de innovación para la industria y la formación en competencias.
Los hallazgos de este estudio encontraron debilidades en la organización institucional, en las capacidades para este tipo de formación en docentes y trabajadores administrativos casi desconectados de un modelo curricular por competencias. Se evidenciaron obstáculos en la capacidad instalada y tecnológica del Instituto Tecnológico Nacional de México Campus Ríos, a nivel del recurso humano obstáculos de gestión y funcionales.
Por tanto, es necesario centrar la atención en la formación de los estudiantes para que tengan acceso a espacios de aprendizajes fuera del aula de clase por ejemplo en la industria para aprender nuevas experiencias prácticas profesionales y como Instituto Tecnológico Nacional de México Campus Ríos se pueden beneficiar incorporando capital humano de calidad como lo está requerimiento la sociedad actualmente.
Arellanes Salazar Agustina Guadalupe., Universidad Politécnica del Valle del Évora
Asesor:Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño
IMPLEMENTACIóN DEL MODELO DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE LA PRESENCIA DE ANFIBIOS.
IMPLEMENTACIóN DEL MODELO DE APRENDIZAJE AUTOMáTICO PARA LA PREDICCIóN DE LA PRESENCIA DE ANFIBIOS.
Arellanes Salazar Agustina Guadalupe., Universidad Politécnica del Valle del Évora. Asesor: Post-doc Juan Camilo Ramírez Idárraga, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
Los ecosistemas acuáticos ocupan un papel importante en el medio natural. Depósitos de agua, los humedales y los valles fluviales son hábitats de numerosas especies naturales valiosas de flora y fauna. Los ecosistemas acuáticos afectan el microclima, retrasan el flujo de agua superficial, suministran aguas subterráneas y contribuir a la mejora de la calidad del agua.La presencia de anfibios es una característica que puede ser la base de cualquier evaluación natural.
El modelo aplicado al conjunto de datos para la predicción del la especie de anfibio a partir de variables ambientales evaluado, fue retomado del artículo Predicting Presence of Amphibian Species Using Features Obtained from GIS and Satellite Images presentado por Marcin Blachnik , Marek Sołtysiak and Dominika D ̨abrowska, en el año 2019. Eel conjunto de datos, prsenta los resultados obtenidos luego de la evaluación de áreas ambientales de sistemas terrestres y acuaticos. La presencia del tipo de especie a la que corresponde se expresa de la siguiente manera según el Dataset utilizado:
0=No corresponde
1= Corresponde
Así mismo, las variables identificadas como independientes, es decir, las caracteristicas en base a las cuales fuerón identificadas las especies que cubre la mayoría de los aspectos que afectan la ocurrencia de anfibios en un área determinada, son las siguientes:
Superficie de depósitos de agua (SR)
Número de reservorios de agua en el hábitat (NR)
Tipo de depósitos de agua (TR)
Primer / segundo / tercer tipo de cobertura terrestre más dominante en los alrededores de los depósitos de agua (SUR1, SUR2, SUR3)
Tipo de orilla (CR)
Intensidad de la vegetación en los reservorios de agua (VR)
Estado de mantenimiento del embalse (Señor)
Uso de reservorios de agua (UR)
Presencia de pesca (utilizando un mapa de alta resolución) (FR)
Distancia a los edificios (BR)
Distancia a las carreteras (RR)
Porcentaje de acceso desde los bordes del embalse a áreas abiertas (O)
METODOLOGÍA
Preparación del modelo de datos.
El Dataset recopilador de la investigación para la predicción de anfibios en sistemas semi-acuáticos contiene un registro de 189 pruebas realizadas por los investigadores durante la estadía de investigación y evaluación, con un número de 14 atributos que permitían determinar el tipo de especie de anfibio reconocido.
Luego del análisis del conjunto de datos proporcionado se detectó una discrepancia de datos que no permiten un entrenamiento adecuado dado que el tipo de datos de la característica era de tipo string, para solucionar este problema se aplicó una limpieza de datos, una técnica del preprocesamiento de datos para posteriormente hacer una separación de conjuntos.
Es decir, para cada variable dependiente se realizó una separación, estas variables corresponden al tipo de especies que se intentaba identificar en el contexto ambiental, las cuales son:
Rana verde
Rana café
Sapo común
Sapo de vientre de fuego
Rana de árbol
Tritón común
Gran tritón crestado
Luego de que cada especie fuese separada respetando las características que permiten determinar su correspondencia se procedió al entrenamiento del modelo.
Entrenamiento de modelo de datos.
El modelo MLP fue seleccionado para el entrenamiento de datos con el dataset, luego del preprocesamiento, este consistió en la identificación de variables dependientes y independientes en el conjunto de datos, luego determinar el algoritmo de evaluación para la predicción de la presencia de especies y así evaluar la eficiencia de clasificación de datos del modelo seleccionado, que este sería la el modelo de valuación ROC-AUC para representar gráficamente el rendimiento de nuestro algoritmo.
CONCLUSIONES
Al conjunto de datos transformado de cada variable dependiente se le aplicaron 10 entrenamientos con cambios en su parametrización los cuales eran registrados en tablas y debido a la gran variedad de resultados obtenidos se seleccionaron los mejores, dando como resultado el siguiente registro de acuerdo al mejor score del algoritmo de evaluación de cada una de las variables dependientes:
Green frogs-----------0.683565
Brown frogs----------0.593571
Common toad--------0.583664
Fir bellied toad-------0.583664
Tree frog---------------0.663029
Common newt--------0.569444
Great crested new---0.59375
En base a los resultados obtenidos durante del modelo de entrenamiento de estos es más probable encontrar una rana verde en ambientes acuáticos y terrestres, que encontrar un Gran tritón crestado, esto es debido a que las características evaluadas y determinadas por expertos y científico, ya que son aquellas más fácil de evaluar y utilizar en la vida real.
Arias Castellanos Juan Carlos, Universidad de Colima
Asesor:Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla
ECO-CASA Y ECOTECNIAS
ECO-CASA Y ECOTECNIAS
Arias Castellanos Juan Carlos, Universidad de Colima. Patiño Ocampo Alejandra, Universidad Católica de Manizales. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En México cada día hay más edificaciones que repercuten en el medio ambiente, siendo el gremio de la construcción uno de los principales factores de impacto en las categorías del suelo, agua y aire, agotando así los recursos naturales y a su vez, reduciendo la calidad de vida de las personas. La propuesta que estipulamos es poder tratar de no dañar el medio ambiente al construir nuestras viviendas, actualmente se tiene un registro por parte del INEGI de 35 219 141 viviendas particulares habitadas en 2020 de las cuales solo 600 000 son consideradas sustentables las cuales han logrado mitigar entre 1-1.5 toneladas de CO2.
METODOLOGÍA
Se hace la investigación de diferentes definiciones de las palabras: bioconstrucción, ecotecnias, permacultura y huertos urbanos, para poder analizar las mejores alternativas para una construcción sustentable.
Como aplicación a estas definiciones se realizan documentos con las ecotecnias: estufa solar, deshidratador solar de alimentos y sistema hidropónico en donde se presentan los instructivos de construcción, ensamble, materiales, costos y gráficos en 3D; esto con el fin de generar recursos para talleres de bioconstrucción en diferentes localidades, dar a conocer y proveer información de diferentes técnicas para el aprovechamiento de recursos humanos por medio de la construcción sustentable, siendo apropiadas para zonas vulnerables y habitantes.
Surge la propuesta de una vivienda sustentable, la cual cuenta con diferentes ecotecnias que permitan realizar un proyecto accesible, económico y flexible. Entre las cuales son, paneles solares, un huerto urbano, sanitario seco, ecoladrillos en la construcción, captación de agua de lluvia y regaderas economizadoras.
Al implementar ecotecnias en la vivienda, esta comienza a tener armonía con el entorno y el medio ambiente, genera beneficios para las personas que la habitan en relación a su calidad de vida y economía, pasa de ser una simple construcción a ser sustentable.
Para llevar a cabo el proyecto que se plantea en la zona de Santa cruz Chica, Xicotepec México, recurrimos a un plan de trabajo y un plan de negocios, con un cronograma de actividades. Las cuales abarcan la descripción general del proyecto, en la cual se recurrió a investigar los problemas o necesidades que se deben afrontar en el proyecto en relación al entorno y a la comunidad, se establecieron los objetivos específicos y establecimos nuestra misión, visión y valores.
Después se continúa con el marco teórico el cual se desarrolló mediante un marco contextual, desde características de la vivienda, problemas ambientales de la urbanización y tendencias de viviendas,
Se involucra en la mercadotecnia del mercado, analizando e identificando el mercado, el consumo, diferentes precios, el comportamiento de los consumidores, por lo que se determina una muestra para poder obtener un pronóstico.
Se desarrolló un estudio técnico, el cual describe aspectos socioeconómicos, institucionales y de infraestructura, el cual se adentra en una macrolocalización y una microlocalización. Se estableció el tamaño y capacidad del proyecto con un programa arquitectónico que pueda responder a las necesidades de habitabilidad e incluso de economía mediante la distribución y diseño de instalaciones, las especificaciones de la obra civil y generales de construcción, para llegar a un costo del terreno donde se plantea el proyecto.
Al tener nocion de el tamaño del proyecto con sus propuestas llegamos a las finanzas del proyecto, realizando presupuestos de obra y del proceso de producción como la materia prima, equipo, instalaciones y proveedores que se necesitarán a lo largo de desarrollar el proyecto de la eco-casa.
CONCLUSIONES
Durante el verano se lograron adquirir nuevos conocimientos y capacidades en relación a los temas de sustentabilidad, nuevas herramientas que se pueden trabajar con comunidades vulnerables para la mejora de su calidad de vida.
La importancia de generar proyectos accesibles para la comunidad, en los que puedan ser partícipes, aprender nuevos oficios, entender cómo funciona una vivienda. El impacto que se tiene en aspectos económicos, que puedan atender sus necesidades y a su vez las del medio ambiente se ven reflejados de una manera positiva en el entorno.
Se debe realizar detalladamente un estudio en el cual se determinen los aspectos del entorno, las ecotecnias, los materiales ( naturales ), el presupuesto, la accesibilidad de los productos en la zona que se desarrollará a cabo el proyecto. Esto con el fin de que pueda darse un adecuado uso de las herramientas, aprovechar al máximo el entorno y tener un acercamiento con el presupuesto de la vivienda
Arias Garzón Garzón Daniel, Universidad Autónoma de Manizales
Asesor:Dr. Efrén Mezura Montes, Universidad Veracruzana
COMPUTACIóN EVOLUTIVA
COMPUTACIóN EVOLUTIVA
Arias Garzón Garzón Daniel, Universidad Autónoma de Manizales. Asesor: Dr. Efrén Mezura Montes, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Los procesos de optimización son altamente necesarios en el quehacer humano, ya que de esta manera se puede hacer más eficiente el uso recursos o encontrar mejores soluciones para problemas complejos. Normalmente, los métodos de optimización son iterativos y se basan en derivadas o directamente en la función a optimizar. Desde los inicios de la Inteligencia Artificial y en particular en los años iniciales de las redes neuronales artificiales se evidenció que el proceso de aprendizaje de una red neuronal artificial es en realidad un problema de optimización (por ejemplo minimizar el error de clasificación). Para ello, se buscan modificar los valores de los pesos asociados a las neuronas artificiales y así minimizar dicho error. Si bien existen métodos de gradiente para realizar tal proceso, surge la computación evolutiva como alternativa para optimizar los valores de los pesos de una red neuronal artificial y también para optimizar la arquitectura de la red neuronal artificial.
METODOLOGÍA
Un algoritmo Evolutivo aplicado a redes neuronales consiste en una serie de pasos que imitan el proceso evolutivo, primero se plantea una población que para este caso son modelos definidos de manera aleatoria se evalúan estos modelos, se cruzan los mejores y para obtener un mayor número de posibilidades se mutan algunas de estas cruzas hasta cumplir con un parámetro deseado entonces en este caso se utilizaron dos algoritmos para notar este proceso, primero se realizó un algoritmo de evolución diferencial (DE) el cual permitió mostrar como estos algoritmos pueden encontrar un mínimo en una función definida, y luego se utilizó la librería de Python NEAT (NeuroEvolution of Augmenting Topologies) para generar redes neuronales y clasificar ciertas bases de datos propias de otra librería de Python llamada scikit-learn.
CONCLUSIONES
Durante esta estancia se logró adquirir los conocimientos necesarios en computación evolutiva y su aplicación sobre redes neuronales, para la creación de un algoritmo que pueda evolucionar una red neuronal obteniendo buenos resultados, adicional a esto se realizó paralelamente un sistema aplicado a una problemática especifica en seguridad informática, por lo cual se puede concluir que la computación evolutiva contribuye con el objetivo de desarrollo sostenible 9, ya que permite un proceso optimización en la creación de sistemas de inteligencia artificial de formas más automáticas promoviendo el crecimiento en procesos automáticos en la industria.
Arias Martinez Arturo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
MEJORAMIENTO DEL PROCESO DE DISEñO DEL CALZADO ARTESANAL NICARAGüENSE.
MEJORAMIENTO DEL PROCESO DE DISEñO DEL CALZADO ARTESANAL NICARAGüENSE.
Arias Martinez Arturo, Tecnológico de Estudios Superiores de Valle de Bravo. Zepeda Enriquez Jazmin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
PLANTEAMIENTO DEL PROBLEMA
El zapato es un accesorio pedestre de la vestimenta hecho con la intención de proveer protección y comodidad al pie, mientras este realiza varias actividades. Tiene la misión de proteger el pie de las inclemencias del tiempo frío, humedad, lluvia, barro, de las irregularidades del terreno, de los golpes, roces, heridas, etc. La importancia de utilizar un buen calzado, por tanto, no es solo cuestión de estética; la salud es un aspecto, en este sentido, que no se debe descuidar.
A través del tiempo los zapatos han cambiado su apariencia que originalmente está ligada a sus funciones. Es por ello la problemática en donde los zapatos en esta época actual al tener diferentes apariencias y estilos que predominan conforme a las tendencias se van perdiendo las medidas exactas de los zapatos estándar que originen comodidad en las personas que lo porten.
METODOLOGÍA
Se hizo uso del programa SolidWorks para el diseño 3D del zapato, como primer paso se tuvo que considerar el modelo principal visto anteriormente con el investigador de este proyecto y del modelo se obtuvo una superficie para que fuera similar al sólido. El zapato se parte a la mitad para trabajar de manera detallada en este, se hace uso de la operación de “envolver “para marcar la forma del zapato haciendo el croquis proyectándolo directamente a la pieza, dando un panorama visual de como va a quedar el zapato.
Hay algunas complicaciones con el zapato específicamente con la superficie ya que al proyectarse de necesita poner sobre una sola superficie solida ya que la modelo principal cuenta con varios fragmentos que no permiten una proyección uniforme.
En todo momento se trabaja con la superficie haciendo diferentes funciones como: ponerla sólida, coserla, coser la superficie con el uso de las herramientas “envolver y superficie”, no dejando atrás las operaciones “equidistancia- superficie, rellenar superficie, obstruir superficie, coser superficie y recortar superficie”. Como se menciona estas son las herramientas y funciones utilizadas principalmente durante todo el desarrollo del zapato 3D, cada una de estas están representadas en el diseño hecho en SolidWorks.
Tomando en cuenta que al finalizar el zapato a 3D se obtuvo el diseño 2D a partir de este con la herramienta “Dibujo técnico en 2D” en donde se podría decir que se colocaron cada una de las medidas que se pusieron con anterioridad en el 3D las cuales se colocan en diferentes caras: frontal, lateral izquierda, lateral derecha, superior y posterior que puedan permitir corroborar que las medidas sean precisas.
CONCLUSIONES
El uso de software 3D nos permite modelar diferentes objetos, con la facilidad de poder plasmar nuestras ideas y visiones, con ello podemos agilizarla realización de prototipos, con los cuales podemos revisar los aspectos mas importantes, con la finalidad de mejorar el diseño, con ello podemos reducir los costos en la producción de nuevos productos.
Ariza Carbonó Geraldin Paola, Corporación Universitaria Americana
Asesor:Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
Aguilar Morales Luis Alejandro, Instituto Tecnológico de Comitán. Ariza Carbonó Geraldin Paola, Corporación Universitaria Americana. Roa García Daniela, Corporación Universitaria Minuto de Dios. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Desde la alerta de la Organización Mundial de la Salud (OMS) acerca de la pandemia del virus SARS-CoV-2 (COVID-19), en donde la interrupción de muchas actividades productivas, ha generado problemas también en la provisión de insumos, nacionales e importados, para las empresas que han seguido operando (CEPAL, 2020); México se encuentra inmerso en una grave crisis económica como consecuencia de la pandemia por SARS-CoV-2 (COVID-19). De acuerdo a los resultados de la encuesta telefónica de ocupación y empleo (ETOE) con cifras oportunas de abril de 2020 que emitió el INEGI, la tasa de participación económica en abril de 2020 fue del 47.5% respecto a la población de 15 años y más, cifra inferior en 12.3 puntos porcentuales a la de marzo del mismo año. Esta disminución representa una variación a la baja de 12.5 millones de personas económicamente activas, formales e informales, principalmente por encontrarse en un estado de suspensión laboral temporal ocasionado por la cuarentena (Senado de la República , 2020) .Proposición con punto de acuerdo de urgente y obvia resolución, por el que se exhorta al poder ejecutivo federal a implementar un programa de carácter nacional que otorgue un ingreso básico universal de apoyo económico a los trabajadores formales e informales de nuestro país, que permita mitigar los efectos de la crisis económica provocados por la pandemia del SARS-CoV-2 (COVID-19), ante el terrible impacto económico de la contingencia y los alarmantes datos de desempleo informados por el INEGI, en México la actividad de la industria manufacturera se redujo un 10,9% en los primeros cuatros meses del año y los sectores más afectados han sido los de cuero y calzado (-29,5%) y equipo de transporte (-26,9%), mientras que la industria de alimentos registró un aumento del 2,5% (CEPAL, 2020).En Colombia, el 96% de las empresas tuvieron una caída en sus ventas (el 75% registró una disminución superior al 50%) así como el 82% de las empresas formales podrían subsistir solo entre uno y dos meses con sus propios recursos (CEPAL, 2020)
METODOLOGÍA
El tipo de investigación desarrollada es teórica-practica donde se busca por medio de la revisión bibliográfica profundizar en la diversas temáticas implementadas para llevar a cabo el proceso investigación y de esta manera por medio de la práctica de cada una de las encuestas conocer la información práctica de la metodología 5s en las diferentes industrias donde se obtuvo una población objeto de estudio de los países de México y Colombia, con un total de 100 encuestados de tal manera que se organice de forma adecuada la información de la metodología y la forma de llevar a cabo el procedimiento en los distintos países.
Por consiguiente, la encuesta implementada es de vital importancia en el objeto de estudio de la metodología de tal manera que la encuesta tiene preguntas puntuales (cerradas) sobre la información general de las empresas y preguntas abiertas donde los participantes relatan la implementación de las 5s en el proceso de la pandemia del SARS-CoV-2 (COVID-19) en los diferentes países.
En este artículo se basó en el desarrollo de una encuesta con el fin de evaluar el comportamiento de las 5s en las industrias colombianas y mexicanas durante la pandemia del SARS-CoV-2 (COVID-19) donde se busca determinar los resultados sobre la aplicación de dicha metodología en las diferentes industrias, la investigación en curso es de tipo investigativa de tal manera que por medio de dicho instrumento se buscó analizar la herramienta en las diversas compañías.
CONCLUSIONES
La aplicación de las 5s, conlleva a un ajuste rutinario y el análisis de estrategia de implementación para las empresas que lo apliquen, las cuales deben de introducirlo de manera gradual para poder garantizar una correcta adopción de la nueva forma de trabajo a los trabajadores, con esto se puede asegurar el vínculo entre el compromiso y la responsabilidad mismas que conllevan a un bien entre trabajadores, administrativos, directivos y área de trabajo, lo cual ante la presente pandemia del SARS-CoV-2 (COVID 19) , se considera como un elemento crucial para poder sobrellevar las actividades laborales sin recurrir al ausentismo o la disminución del rendimiento, por medio del compromiso de los empleados con el orden, la limpieza y el seguimiento de las medidas sanitarias establecidas.
El grado de implementación de las 5s, se establece en Colombia hay 74% de aplicabilidad de los principios de las 5s, comparándolo con México que es del 65% en donde los encuestados de cada país, responden que el hecho de tener estas herramientas les permite agilizar sus actividades, en una proporción del 91% con respecto a Colombia y un 76% en México; en el grado de consideración de la limpieza, ambos países denotaron un 70% de aplicabilidad de métodos.
En última instancia del presente documento, se recalca que las 5s son un conjunto de herramientas y estrategias, las cuales han hecho presencia como herramienta para enfrentar la actual pandemia de SARS-CoV-2 (COVID 19) y han mostrado el impacto que estas pueden tener si se implementan de manera correcta, no solo para mejorar la productividad y garantizar un clima ambiental seguro para los trabajadores, también son fundamentales para crear conciencia en todos los rangos jerárquicos de las empresas y estos puedan seguir los lineamientos establecidos para obtener una organización controlada, misma que puede ser medida y analizada para evaluaciones y ajustar acciones correctivas, en caso de necesitarlas.
Armengol Lira Luis David, Instituto Tecnológico de Pachuca
Asesor:Dra. Luz Maria Galán Briseño, Universidad de Guadalajara
PERTINENCIA DE IMPLEMENTACIóN DE UN SISTEMA DE ALMACéN PARA LAS PYMES MANUFACTURERAS DEL MUNICIPIO DE PACHUCA DE SOTO, HIDALGO.
PERTINENCIA DE IMPLEMENTACIóN DE UN SISTEMA DE ALMACéN PARA LAS PYMES MANUFACTURERAS DEL MUNICIPIO DE PACHUCA DE SOTO, HIDALGO.
Armengol Lira Luis David, Instituto Tecnológico de Pachuca. Asesor: Dra. Luz Maria Galán Briseño, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La administración de los inventarios representa una de las funciones sustantivas para cualquier tipo de organización, la implementación de sistemas de control que permitan identificar los niveles óptimos a mantener en las cantidades de los materiales, así como el seguimiento del uso herramental permitiran reducir los costos de inventarios y a su vez el alcance de los objetivos de estos entes de negocio.
A su vez, el ambiente globalizado, la competencia y el desarrollo de las tecnologías han obligado a las empresas a implementar estrategias de mejora continua para mantenerse en el mercado competitivo, por lo que la administración de los inventarios como estrategia de negocio es de interés primordial de las empresas visionarias que reconocen las fallas internas en el control de los materiales y el seguimiento herramental y que ocasionan gastos que disminuyen sus utilidades.
La meta de toda organización es la de reducir los costos de producción mientras se incrementa la productividad, es decir, hacer más con menos, pero esto no es posible debido a que existe una falta de interés en el ámbito de gestión de recursos, lo que puede implicar costos extras a las organizaciones y disminuir la competitividad de la organización en el mercado actual.
En este contexto, las PYMES manufactureras del municipio de Pachuca de Soto, Hidalgo, requieren un impulso que contribuya en el aprovechamiento de las nuevas tecnologías mediante la implementación de un sistema de mejora de la administración de las materias primas que les permita conocer la existencia de cada uno de los materiales e identificar los niveles estándarizados de stok para dar respuesta a las necesidades de consumo, así mismo, del aseguramiento y localización de herramental de los distintos departamentos productivos.
METODOLOGÍA
El propósito de esta investigación se centra en evaluar la pertinencia de implementación de un sistema de almacén para el control de materia prima y herramental de las PYMES manufactureras del municipio de Pachuca de Soto, Hidalgo.
Para la elaboración de este trabajo se utilizó una metodología descriptiva, transversal y de corte cuantitativo, apoyada en una investigación de campo mediante la técnica de la encuesta y como instrumento un cuestionario en escala likert que permitió por un lado, conocer el estado actual de la administración de materiales y herramental de las organizaciones y por otro, previo al acceso al enlace al sistema de almacén para las PYMES manufactureras, conocer la pertinencia de implementación de este sistema, también, se usaron herramientas estadísticas que permitieron definir la muestra de estudio, así mismo, se utilizó en enfoque cualitativo que perimitió dar soporte conceptual a la investigación.
CONCLUSIONES
Los resultados de la investigación destacan que en su mayoría respecto al uso de la propuesta de mejora se considera viable para su utilización en el mercado, además, se puede determinar que cierta parte del mercado industrial no cuenta o no le da la importancia necesaria a este tipo de sistemas de gestión de herramental y materia prima, que si bien es cierto muchas otras organizaciones si cuentan con los mismos y no están interesados en la obtención e implementación de otro sistema además del que ya se está usando en su almacén.
Con base en esto se determinó que la propuesta de mejora es viable para su utilización en el mercado actual debido a que esta no cuenta con impedimentos con relación a su uso y facilita el registro y disponibilidad de información, dadas las conclusiones otorgadas por las organizaciones encuestadas. De la misma forma se determinó que hay organizaciones que no toman en cuenta la importancia en el control de materia prima y herramental en el municipio de Pachuca de Soto.
Aros Amaya Brian Sneyder, Universidad Santo Tomás
Asesor:Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
IMPACTO AMBIENTAL (EMISIONES Y MITIGACIóN DE CO2) RELACIONADO CON EL USO DE LA CLIMATIZACIóN EN IBEROAMéRICA
IMPACTO AMBIENTAL (EMISIONES Y MITIGACIóN DE CO2) RELACIONADO CON EL USO DE LA CLIMATIZACIóN EN IBEROAMéRICA
Aros Amaya Brian Sneyder, Universidad Santo Tomás. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Durante las últimas décadas, los problemas ambientales se han considerado como un escenario complejo, provocando de esta forma, diversos interrogantes que han sido parte del desarrollo de la sociedad moderna, principalmente son consecuencia del mal manejo de eventos de tipo tecnológico que han llevado a la dependencia del uso de recursos naturales de fuentes no renovables. Es por ello, que se presenta la emisión de sustancias contaminantes a la atmósfera como CO2, CH4, entre otras sustancias generadores de GEI (Gases de efecto Invernadero) que provienen tanto de fuentes naturales como de fuentes de carácter antropogénico que afectan directamente la salud de la población.
Colombia no es la excepción y durante la estancia Verano de Investigación, se realizará un análisis de los GEI emitidos en edificaciones de Colombia dado el uso en sistemas de climatización que utilizan fuentes de energía no renovables causantes daño ambiental relacionados directamente con el cambio climático, para posteriormente cuantificar el daño estimado y cómo pueden generarse soluciones sostenibles frente al problema en cuestión.
METODOLOGÍA
En Colombia los avances en infraestructura moderna han permitido el desarrollo de nuevas urbanizaciones, dado aumento de la población, hasta en un 37,2%, ello ha ocasionado el aumento en la generación de emisiones en las fuentes fijas, que trae a su paso el aumento de emisiones de GEI.
Por lo anterior, se busca estimar los beneficios que puede traer la implementación de la geotermia somera en la climatización de edificaciones en Iberoamérica, mediante el cálculo de emisiones de CO2 bajo la Guía del Alcance 2 del Protocolo del IPCC (Intergovernmental Panel on Climate Change), en comparación a las emisiones generadas con sistemas convencionales de climatización, debido a que a través de este método, se puede estimar de forma cuantitativa las emisiones generadas por una fuente fija de los diferentes GEI.
CONCLUSIONES
Mediante el desarrollo de la presente investigación, se logró evidenciar la reducción en emisiones de CO2 entre un 40 y 60%, dada la posible implementación de sistemas de climatización en edificaciones de Iberoamérica mediante la incorporación del uso de diseño bioclimático y geotermia somera, esto mediante la evaluación de los gases emitidos por el uso de sistemas convencionales respecto al uso de energías renovables. Adicionalmente, gracias al Verano de la Investigación Científica logre reforzar mi formación académica y cultural debido a que me permitió conocer un poco de las tradiciones de otro país como lo es México.
Arreola Galindo Arely, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño
DESEMPEñO DEL PROCESO DE ACOPIO DE CAFé PARA PEQUEñOS PRODUCTORES UBICADOS EN ZONAS DE ALTA PRODUCTIVIDAD EN LA PROVINCIA DE LENGUPá
DESEMPEñO DEL PROCESO DE ACOPIO DE CAFé PARA PEQUEñOS PRODUCTORES UBICADOS EN ZONAS DE ALTA PRODUCTIVIDAD EN LA PROVINCIA DE LENGUPá
Arreola Galindo Arely, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Luján Natarén Rosalinda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
De acuerdo datos del comité departamental de cafeteros de Boyacá la provincia de Lengupá representa el 25.24% del total de cafeteros del departamento, en su mayoría son pequeños productores superando el 95% de pequeños productores, bajo esta condición se identifican diferencias logísticas y en procesos para los dos tipos de caficultores, para el caso de pequeños productores los costos más representativos se asocian a mano de obra, transportes e infraestructura, por otra parte los grandes caficultores se ven afectados por los costos de agroinsumos, sumando a esta situación condiciones de tipo logístico que presentan deficiencias en infraestructura, costos, coordinación y desempeño de procesos.
Los procesos identificados en los pequeños productores involucran cultivo, procesamiento y en algunos casos no realizan el proceso de comercialización directamente, sin embargo la mayoría de los cultivadores efectúan el proceso de venta en acopio y una pequeña parte de la producción es destinada a la comercialización directa, para el caso de los procesos de cultivo se realizan siembra de semillas obtenidas principalmente del comité departamental de cafeteros, estas semillas son adaptadas a las condiciones de la región y proveen rendimientos mejorados a partir de la selección y procesos de mejoramiento desarrollados por CENICAFE, los granos que son sembrados tienen una viabilidad superior al 90% en germinación y una vez cumplen su ciclo de entallamiento y estabilidad bajo condiciones de abono, humedad y seguimiento controlado que involucra abono, poda y control de plagas, se trasladan a las áreas de cultivo para iniciar el proceso de siembra y reemplazo de los árboles que están finalizando su ciclo productivo, esta actividad de reemplazo de cultivos tiene un periodo de baja producción durante los primeros dos años, presentando mejoras en rendimiento al final de los dos años y alcanzando su máximo productivo entre el tercer y cuarto año.
Luego de los procesos de cultivo y siembra se presentan los asociados a transformación de los granos en pergamino, para llegar a este producto finalizado por el pequeño productor se desarrollan actividades de acopio y almacenamiento, resguardo y control, en esta fase se seleccionan los granos y se efectúan procesos de despulpado, fermentación, secado y empaque, una vez cumplida la fase de procesamiento se almacenan por pequeños periodos para ser trasladados al centro de acopio regional o municipal que propia y apoya el desempeño de los caficultores.
La problemática asociada al acopio de los granos procedentes del cultivo está representada en las limitantes en instrumentos para garantizar el adecuado embalaje y ubicación en las zonas de transporte, posteriormente manejo de cargas, distancias entre zonas de transporte y bodega de acopio, así como los debidos cuidados para el producto y el personal involucrado en las operaciones; bajo los conceptos de proceso se identifican variables modificables a partir de la gestión operativa determinada para las diferentes actividades involucradas en el proceso, no se identifican estudios que permitan establecer aportes previos para esta problemática en la provincia de Lengupá, mejorando la capacidad del proceso, orientando actividades operativas o desarrollando mejoramientos en las actividades.
METODOLOGÍA
La investigación corresponde a la clasificación descriptiva exploratoria, determinado las condiciones del proceso de acopio para pequeños productores que se ubican en las zonas de alta producción de la provincia de Lengupá, el desglose metodológico se realiza en tres etapas; la primera diagnostico del proceso, la segunda determinación de los factores de la problemática y la tercera planificación de mejoras en las actividades operativas.
CONCLUSIONES
El estudio permite concluir que existen elementos de coordinación del proceso de acopio de cultivo que son mejorables y cuyas características están determinadas por la configuración de las actividades posteriores a la recolección, se espera demostrar la existencia de factores críticos dentro de este proceso, la viabilidad de mejoras para la problemática puede incidir en condiciones operativas de esta fase para los pequeños productores que representan más del 95% en la zona de Lengupá y de los cuales existen alta densidad ubicada en la zona de alta producción.
Arriaga Lopez Lidia Abril, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Luis Murillo Fernandez, Corporación Universitaria Rafael Núñez
PROCESAMIENTO DE IMáGENES POR COMPUTADOR
PROCESAMIENTO DE IMáGENES POR COMPUTADOR
Arriaga Lopez Lidia Abril, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Luis Murillo Fernandez, Corporación Universitaria Rafael Núñez
PLANTEAMIENTO DEL PROBLEMA
El Análisis Digital de Imágenes se encargada de la extracción de mediciones, datos o información contenida en una imagen, cuyo principal objetivo es facilitar la búsqueda e interpretación de la información contenida en ellas. Un sistema de análisis de imágenes se distingue debido a que tiene como parámetro de entrada una imagen, y cuyo resultado es comúnmente una salida numérica, en lugar de otra imagen.
Esta salida es la información referente al contenido de la imagen de entrada. Sin embargo, para llegar desde la imagen original al conjunto de parámetros e información extraída de la misma, es necesario pasar por distintas etapas de procesamiento y filtrado donde se analiza la imagen y se adecua para cierta aplicación específica. Esto implica que el resultado del procesamiento depende fuertemente del problema que se esté abordando y dentro del procesamiento y análisis se han desarrollado tres grandes problemas:
• La digitalización y codificación de imágenes que facilite la transmisión, representación y almacenamiento de las mismas.
• Mejora y restauración de una imagen para interpretar más fácilmente su contenido
• Descripción y segmentación de imágenes para aplicaciones de visión robótica o visión artificial.
En esta oportunidad se trabajará en el estudio de la digitalización de imágenes tomando como temas primordiales: Los tipos de transformaciones, conversión de la imagen de un espacio de color a otro, su transformación de escala de grises y la ecualización de histograma, estos temas por medio del programa phyton para llegar a su comprensión total para así poder llegar a una optimización de la misma.
METODOLOGÍA
Como principal recurso de trabajo se ocupó la plataforma de Colab, mediante google drive, en la cual se podía correr el programa de phyton de manera remota. El verano fue desarrollando en tres capítulos denominados:
ComputerVision Taller 1
ComputerVision Taller 2
ComputerVision Taller 3.
1.- Dentro del primer taller se trabajó con el procesamiento de Imágenes en Python donde se mostró y se ejecutó la manera correcta de carga de directorios y archivos para subir a nuestro código, estas siendo con una ruta relativa o una absoluta.
2.-En el segundo taller se analizó el concepto de operaciones básicas dentro de Colab las cuales se engloban al cambio del espacio de color, proporcionando la función cvtColor () para convertir la imagen de un espacio de color a otro, tomando la imagen como entrada y también el código de conversión del espacio de color, además de poder convertir una imagen BGR en una imagen en escala de grises.
Se analizaron los conceptos de representación tridimensional del color basado en los componentes de tinte, matiz o tonalidad, si bien siguiendo una representación más parecida a las coordenadas cilíndricas que a las euclidianas, las cuales usualmente son usadas en televisores haciendo referencia a un modelo RGB. Otros conceptos fundamentales se analizaron como lo es la escalada, el recortado de imagen, la traslación y la rotación de la imagen misma.
3.- En el último taller realizado se expusieron temas como la transformación de escala de grises, el histograma de la imagen, esté proporciona la representación gráfica de la distribución de los distintos tonos de una imagen ayudando controlar la exposición en las fotos, así como para corregir los colores. La ecualización de este histograma en una imagen oscura aplana el histograma de nivel de gravilla para que todas las intensidades sean tan comunes como sea posible.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del Procesamiento de imágenes por computador y ponerlos en práctica con ayuda del programa de colab y Phyton, sin embargo, al ser un área con bastos conceptos, la investigación de ellos mismos aún se encuentra en estudio y no se pueden mostrar una solución óptima y específica a los problemas anteriormente mencionados, por lo que se espera seguir trabajando en los conceptos ya dichos para poder alcanzar un buen desempeño en sus soluciones.
Arriaga Salazar Jimena, Instituto Tecnológico de Toluca
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
CALIDAD SEIS SIGMA EN LOS PROCESOS PRODUCTIVOS.
CALIDAD SEIS SIGMA EN LOS PROCESOS PRODUCTIVOS.
Arriaga Salazar Jimena, Instituto Tecnológico de Toluca. Valencia Perez Samuel, Universidad Vizcaya de las Américas. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se centró en conocer la importancia de la implementación seis sigma en distintas empresas del sector industrial y de servicios. Asimismo, se investigó a detalle cada fase de la metodología DMAIC para proponer un manual que pueda describir cada fase, su importancia y herramientas a desarrollar, todo ello, situado a las Pymes. Esto responde a una necesidad de difundir la metodología en este tipo de empresas para fortalecer sus sistemas de mejora continua. Se proyecta que el manual puede apoyar a que las Pymes implementen la filosofía seis sigma, de una manera estándar.
METODOLOGÍA
La metodología seguida fue del tipo cualitativa, descriptiva, ya que se investigaron 30 marcos teóricos para conocer la importancia de la metodología seis sigma en los casos documentados, tales como artículos científicos, libros, revistas, etc. Posteriormente, se integró la información en un cuadro comparativo y se diseñó una propuesta de manual de implementación de la metodología DMAIC, con la intención de que, en un futuro, pueda servir de base para una prueba piloto y conocer su funcionalidad en el futuro.
CONCLUSIONES
Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma. Asimismo, una propuesta del manual de implementación de la metodología seis sigma bajo su filosofía DMAIC
Arroyo Sosa Erik Antonio, Instituto Politécnico Nacional
Asesor:Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
ANáLISIS Y EVALUACIóN DE CRITERIOS DE DISEñO DE MATERIALES COMPUESTOS LAMINADOS TOLERANTES AL DAñO
ANáLISIS Y EVALUACIóN DE CRITERIOS DE DISEñO DE MATERIALES COMPUESTOS LAMINADOS TOLERANTES AL DAñO
Arroyo Sosa Erik Antonio, Instituto Politécnico Nacional. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
En años recientes el interés en los materiales compuestos laminados ha crecido en varios campos de la ingeniería debido a sus altas propiedades en el plano. Sin embargo, estos materiales son muy sensibles a los impactos de baja velocidad.
Dichos impactos pueden causar delaminaciones o incluso fallas en la fibra de laminado lo que ocasionaría que tenga un fallo catastrófico que en los campos donde comúnmente se usan (aeroespacial, automotriz y marítimo) no se pueden permitir dichos fallos.
Es por ello por lo que nace la problemática de tener una filosófica de diseño de laminados clara que permita al diseñador tener una idea mas clara de los aspectos del laminado que se tienen que tomar en cuenta a la hora de hacer el diseño los cuales sean resistentes al daño causado por impactos a baja velocidad.
METODOLOGÍA
Se empezó buscando información de investigaciones ya realizadas que se relacionaran con el tema que se iba a tratar. Esta investigación primero fue considerando todos los tipos de daños que tienen los compuestos laminados: flexión, fatiga, tensión, compresión e impacto.
Cuando se tuvieron una cantidad considerables de trabajos de investigación con los diferentes tipos de daños, se decidió darle un enfoque concreto al trabajo para poder condensar la información en un solo aspecto; en este caso se decidió enfocar la información hacia los trabajos realizados al impacto de los materiales compuestos.
Con el numero de trabajos adecuados de trabajos de investigación se analizaron los motivos por los cuales se realizaron, los materiales que se utilizaron, las condiciones de las pruebas de la experimentación realizada, los resultados obtenidos, las graficas y tablas que se obtuvieron de la experimentación y las conclusiones a las que llegaron en cada uno de los trabajos de investigación.
Terminado el análisis exhaustivo de los trabajos encontrados se encontraron 4 criterios principales bajo los cuales se pueden diseñar los compuestos laminados tolerantes al daño los cuales fueron:
Componentes (matriz y refuerzos)
Los que mejores componentes que se tienen para cumplir la función de refuerzos son la fibra de carbono y de vidrio, esto viene apoyado por las buenas propiedades mecánicas comparables a materiales como el acero además de tener un peso mucho más bajo además de ser más económico.
Por el lado de las matrices la más usada en los materiales compuestos laminados es la matriz de resina epoxica ya que pueden dar al compuesto final una alta calidad además de que posee excelentes propiedades físicas y mecánicas lo cual ayuda a que cuando se realiza el laminado se tengan mejores propiedades que utilizando otro material.
Configuración del laminado
Una configuración conveniente puede provocar que un laminado se conforme de mejor o de peor manera ante los esfuerzos que ocasiona el impacto. La configuración simétrica por un parte mostro una mejora en la resistencia de los laminados cuando el refuerzo se ponía de manera simétrica. La otra configuración no simétrica también mostro una mejora en la resistencia al impacto de los laminados al tener una mayor cantidad de un material de refuerzo en el lado donde se lleva a cabo el impacto sin embargo esto fue hecho con un numero mayor de capas de refuerzo.
Orientación del laminado
Contrario a lo que se creería según la orientación del laminado no afecta significativamente la tolerancia al daño de los compuestos laminados. Lo más común es tener una orientación de 0° y 90° aunque según las experimentaciones las capas orientadas a +45° y -45° tuvieron un mejor rendimiento, aunque esto fue mínimo. Esta ventaja no justifica el trabajo de manufactura que se tiene realizar para fabricarlas.
Energía de impacto con la cual se trabaja
Las experimentaciones realizadas demostraron que en los impactos de baja energía (5J y 10J) el daño que se tiene un daño por delaminación, pero en energías de impactos más altas se tienen los daños en la fibra.
Con base en los estudios de impacto llego a la conclusión de que a la energía de impacto más baja examinada (5 J), la hibridación condujo a una curva de tensión-deformación por tracción dúctil bilineal y una alta deformación hasta la rotura. Sin embargo, a energías de impacto más altas, este comportamiento cesa como resultado del daño por impacto a las capas exteriores.
Esta información nos da datos importantes de cómo es que el material se comportara bajo las energías de impacto desde la más pequeña (5J) hasta la más grande que se probó que fue de 40J.
CONCLUSIONES
Los compuestos laminados ofrecen una serie de ventajas en comparación de sus contrapartes monolíticas lo que hace que poco a poco se usen en mas aplicaciones en una variedad de campos de la ingeniería.
El diseño de estos materiales es una parte clave ya que un correcto diseño asegura que se tendrán los mejores beneficios de los materiales que se vean a unir en el laminado. Por las mismas aplicaciones que se le dan a estos materiales la tolerancia al daño es uno de los puntos que se busca cubrir de la mejor manera para que el material no tenga fallos catastróficos cuando se les usa.
El daño por impacto es especialmente destructivo para los materiales laminados por su inherente sensibilidad a los daños por delaminación o incluso daños en las fibras del laminado.
Los principales puntos que se tienen que tomar en cuenta a la hora de diseñar un compuesto laminado y que aseguran una alta tolerancia al daño son: los componentes del laminado, tanto la matriz como el refuerzo, la configuración del laminado y la energía a la cual va a trabajar el laminado. Estos aspectos son necesarios tenerse en cuenta ya que son los que darán la pauta para hacer la tolerancia al daño como se ha comprobado en varios estudios realizados en años recientes.
Arteaga Arteaga Harold Brayan, Universidad Autónoma de Manizales
Asesor:Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
Arteaga Arteaga Harold Brayan, Universidad Autónoma de Manizales. Bravo Ortiz Mario Alejandro, Universidad Autónoma de Manizales. Martínez Rodríguez Fernanda, Universidad de Guadalajara. Palancares Sosa Maria Jose, Instituto Politécnico Nacional. Asesor: Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
La pandemia de COVID-19 causada por el virus SARS-CoV-2 tiene un impacto severo en áreas sanitarias y también económicas, forzando la implementación de medidas de confinamiento social con el objetivo de reducir la expansión del virus y prevenir el colapso de los sistemas de salud.
A la fecha no existe un tratamiento farmacológico específico, sin embargo, gracias a los avances en investigación se han desarrollado vacunas y métodos de detección del virus. Las técnicas de imagen médica como radiografías de tórax (CXR) resaltan ante las pruebas de reacción en cadena de la polimerasa con transcriptasa inversa (RT-PCR) porque permiten diagnosticar y dar seguimiento a la enfermedad de manera más rápida y accesible.
Con la intención de reducir la carga de trabajo del personal de salud, al mismo tiempo de aumentar la fiabilidad del diagnóstico y el análisis cuantitativo de CXR, se han propuesto métodos de detección automática de COVID-19 mediante el uso de redes neuronales convolucionales (CNN) de arquitecturas propias o previamente documentadas. Y a su vez, en un intento por mejorar la precisión de la red, estudios previos han implementado técnicas de preprocesamiento a las CXR para mejorar la calidad de las imágenes de los pulmones, la apariencia de opacidades y estructuras no lineales.
METODOLOGÍA
Se estudiaron y aplicaron técnicas de preprocesamiento de imágenes como filtrados espaciales, mejoras de contraste por ecualización de histograma y extracción de características de fase al conjunto de datos original para compararlas y encontrar la que permitiera mejorar los resultados en la CNN. Estos métodos se describen a continuación:
Corrección gamma adaptativa con distribución de pesos (AGCWD)
La corrección gamma es una operación no lineal, pixel a pixel que emplea el parámetro gamma para mejorar el contraste de la imagen aprovechando la relación logarítmica entre la intensidad luminosa y la intensidad resultante. Debido a que se manipularon miles de radiografías de tórax, cada una con diversos rangos de intensidades se empleó un algoritmo de corrección gamma adaptativo evitando la limitación en el mejoramiento por un valor fijo de gamma.
Ecualización de histograma ponderado y separado de forma recursiva (RSWHE)
Es una técnica basada en el mejoramiento de contraste cuyas ventajas atribuidas son la mejora de contraste en la imagen con la preservación del brillo de esta y valores mayores en la relación señal ruido que otras técnicas de contraste. Esta se realiza mediante la segmentación del histograma de la imagen de entrada por media, generando 2r sub histogramas que se ecualizan individualmente.
Filtros espaciales (AMF, NLM, CLAHE)
Este método consta de dos procesos de filtrado espaciales seguidos de una mejora de contraste por medio de una ecualización de histograma adaptativo con contraste limitado (CLAHE).
El primer filtro utilizado es el adaptativo de mediana (AMF), cuya función es reducir el ruido impulsivo. Consiste en un análisis de la vecindad del pixel de interés, para saber si le corresponde el valor de intensidad que tiene, mediante una ventana que varía su tamaño en función a los valores de mediana presentes.
El segundo filtro de media no local (NLM) busca corregir el valor del pixel de análisis mediante una ponderación de zonas de la imagen denominadas “patches” que guardan similitud con la zona tratada de la imagen bajo la premisa de que la intensidad de un pixel puede estar ligada a las intensidades de otros pixeles en la imagen. Reduciendo el ruido aditivo de la imagen. Finalmente la imagen filtrada se ecualiza con el método CLAHE, el cual cuenta con un límite denominado “clipping” establecido para evitar la sobre amplificación de contraste.
Extracción de características de fase (LPA, LPE, ELEA)
Usando un análisis de imagen local basado en fase se extrajeron tres características de fase local diferentes que no son visibles en las radiografías originales y no varían con la intensidad, por lo que los resultados no se ven afectados por las variaciones de intensidad causadas por características físicas del paciente o las condiciones de la toma de la radiografía. Dichas características son: local weighted mean phase angle (LwPA), weighted local phase energy (LPE) y enhanced local energy attenuation (ELEA) (Qi. et al, 2021).
Redes neuronales convolucionales (CNN)
Posterior a la elaboración de las bases de datos con las imágenes preprocesadas, estas se usaron para la evaluación con la CNN. Con esto, se consolidó una base de datos de imágenes de radiografías de tórax con COVID-19 y sin este virus. También, una base de datos con segmentación de pulmones, mediante redes neuronales como U-Net. Además la implementación de los algoritmos de preprocesamiento para mejora de las imágenes y la creación de una CNN nueva para detección de COVID-19.
La CNN nueva tiene un diseño propio, su principio de creación está basado en Inception-ResNetV3 y GBRAS-Net. La CNN recibe imágenes de entrada de tamaño 224x224, extrae características mediante convoluciones, donde tiene bloques residuales que ayudan a evitar el desvanecimiento del gradiente debido a su tamaño, usa la función de activación ReLU, y finaliza con un global max pooling. Al llegar a la etapa final de clasificación, está conformada con 128, 64, 32 y 2 neuronas, donde las últimas 2 entran a un Softmax para las predicciones, mientras las otras neuronas usan la función de activación ELU.
CONCLUSIONES
Los resultados de evaluación de la CNN a imágenes de pacientes con COVID-19 y pacientes sanos mostraron una precisión del 99,71 %. Se desarrollaron algoritmos en Python y MATLAB de preprocesamiento de las imágenes, y se observó una mejoría en la segmentación de los pulmones cuando se emplearon imágenes preprocesadas en comparación con las imágenes originales. En particular, el algoritmo RSWHE con r=1 fue el que presentó los mejores resultados.
Arteaga Gonzàlez Ana Carolina, Instituto Tecnológico de Toluca
Asesor:Dr. Juan Fernando López López, Universidad Católica de Pereira
PROTOTIPO DE BARRERAS VERDES SOBRE LOS SEPARADORES EN VíAS COMO ELEMENTO DE DISMINUCIóN DE DIóXIDO DE CARBONO PARA TRANSEúNTES DE LA CIUDAD DE TOLUCA.
PROTOTIPO DE BARRERAS VERDES SOBRE LOS SEPARADORES EN VíAS COMO ELEMENTO DE DISMINUCIóN DE DIóXIDO DE CARBONO PARA TRANSEúNTES DE LA CIUDAD DE TOLUCA.
Arteaga Gonzàlez Ana Carolina, Instituto Tecnológico de Toluca. Bonilla Gómez Hilen Camila, Universidad La Gran Colombia. Asesor: Dr. Juan Fernando López López, Universidad Católica de Pereira
PLANTEAMIENTO DEL PROBLEMA
La contaminación del aire tiene que ver con el grado de concentración de sustancias o contaminantes atmosféricos, es una alteración en los niveles de la calidad del aire debido a emisiones naturales, químicas o biológicas, actualmente la contaminación por la combustión de los hidrocarburos ocupa el primer lugar en contaminación en las ciudades de los países industrializados
Los vehículos motorizados por medio del combustible líquido generan compuestos contaminantes PM (micro partículas), el uso desmedido y no regularizado de vehículos, además por la gran cantidad de uso especialmente en Latinoamérica ha generado un aumento significativo en el calentamiento global.
En el centro del estado de México se encuentra la ciudad de Toluca, tiene una densidad de 2.133 habitantes por 1 Km², donde solo el 66% de la población tiene algún tipo de afiliación a la salud, la problemática es la causa de muertes por las enfermedades respiratorias generando 233 casos por año, el enfoque principal es mitigar los problemas de contaminación respiratorios.
METODOLOGÍA
Analizando la problemática planteada comenzamos con la investigación que sustenta nuestro trabajo, y nos aporta para darle una solución eficaz y eficiente al mismo.
Una infraestructura es aquella que es realizada por humanos, donde ellos mismos diseñan y dirigen, todo esto siendo profesionales de Ingeniería, Urbanismo, entre otras. De esta manera nos encontramos con las llamadas infraestructuras verdes las cuales tienen como objetivo mejorar los aspectos ambientales alrededor como lo son la calidad del aire, la reducción de temperatura, el estrés en horas pico en las grandes ciudades, entre otros, estas se encuentran compuestas por vegetación.
Centrados en la ciudad de Toluca nos encontramos con grandes infraestructuras que son pioneras en la contaminación del aire, entre las que destacan Paseo Tollocan, José Ma. Morelos, Venustiano Carranza, Isidro Fabela, Valentín Gómez Farías, Independencia, Paseo, José Ma. Pino Suárez, Jesús Carranza y Nezahualcóyotl, por mencionar algunas.
Toluca aloja 10 zonas industriales muy importantes, en consecuencia de las actividades que se realizan para la elaboración de sus procesos, contribuyen en gran parte en la contaminación del aire, debido a la logística que se realiza dentro y fuera de los corredores industriales; siguiendo con nuestra investigación encontramos los principales tipos de contaminación que repercuten en la en la calidad del aire en Toluca.
La zona metropolitana del Valle de Toluca, la erosión de los suelos y zonas agrícolas, las vialidades sin pavimentar y emisiones vehiculares son las responsables de emitir las partículas menores a 10 micrómetros (PM10).
Las fuentes móviles emiten partículas finas o menores a 2.5 μg/m3.
El Ozono es un contaminante secundario producto de la reacción fotoquímica entre los Compuestos Orgánicos Volátiles (COV) y los Óxidos de Nitrógeno (NOX) emitidos principalmente por los vehículos.
La principal fuente de emisión a la atmósfera de los Óxidos de Nitrógeno (NOX) es por los vehículos automotores.
Relacionamos las causas de muertes por enfermedad con tipos de contaminantes la principal causa es la polución, ya que genera compuestos orgánicos volátiles y partículas ultra finas que llegan a los bronquios afectando el sistema cardiovascular y respiratorio formando enfermedades como bronquitis, asma y enfisema que mal manejadas causan fallecimientos.
Las otras causas son las enfermedades respiratorias agudas con efectos virales por medio de los cambios de temperatura, ocasionados por los niveles elevados de contaminación durante el periodo de invierno y escasez de lluvias, formando fenómenos meteorológicos como es la niebla tóxica (smog) y la lluvia ácida.
Se presenta una solución de impacto positivo a favor de la sociedad, acogiendo la arquitectura biomimética como estudio del entorno adaptándose a la cotidianidad urbana de Toluca. Se implementan las barreras verdes que ocupan espacios desaprovechados y agregan un valor estético, para mejorar la calidad del aire y aislante sonoro.
La estructura de la barrera verde está prototipado con un sistema de auto montaje, donde se plantea un boceto de corte láser para la estructura de módulos que se encaja con muescas, impresión 3D para las uniones y unas bolsas en tela geotextil para la ubicación de vegetaciones.
Tras el proceso de consulta elegimos las plantas epifitas y líquenes como fijadoras de carbono que efectúan un buen proceso de fitorremediación donde absorben los contaminantes por medio de la raíz, ayudando a mejorar la calidad del aire en zonas localizadas, donde 1 m² de barrera verde metodizar 35 kg de dióxido de carbono, ayudando a mitigar el principal contaminante en la atmósfera y principal causa de gases efecto invernadero (GEI).
CONCLUSIONES
A medida que la estancia de verano fue avanzando, se logró adquirir conocimientos de las etapas de prototipos 3D en diseño industrial y como se han aplicado en un proyecto real de jóvenes investigadores, sobre respiradores no descartables como elemento de protección para agentes de tránsito, además de la profundización de metodologías de trabajo para una fusión integral del producto de innovación en proyectos ya aplicados de empresas como el CeMab, poniéndolo estos conocimientos en práctica para el prototipo de barreras verdes en enfoque a nuestras carreras de arquitectura e Ing. Industrial, al ser una extensa investigación se encuentra en fase de boceto inicial y obtención de datos analíticos que garantizan correcta ejecución teórica comparativa.
Se espera desarrollar una aplicación de barrera verde en el tramo de la Av. Paseo Tollocan frente a la zona industrial para ejecutar mediciones de calidad del aire logrando resultados positivos donde favorecen a la comunidad.
Avalos Rangel Alberto Josafat, Universidad Autónoma de Tamaulipas
Asesor:Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas
SANEAMIENTO E IMPACTO AMBIENTAL EN LA REINCORPORACIóN DE ÁREAS COMO DESTINO FINAL DE RESIDUOS SóLIDOS URBANOS: CIUDAD MADERO, TAM.
SANEAMIENTO E IMPACTO AMBIENTAL EN LA REINCORPORACIóN DE ÁREAS COMO DESTINO FINAL DE RESIDUOS SóLIDOS URBANOS: CIUDAD MADERO, TAM.
Avalos Rangel Alberto Josafat, Universidad Autónoma de Tamaulipas. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La importancia de sanear un Tiradero a Cielo Abierto (TCA), es debido a que es una fuente de contaminación ambiental tanto al suelo, como al agua y al aire; así mismo un grave efecto sobre la salud humana ya que se producen gases como el metano y dióxido de carbono que afectan a seres vivos, también propicia el crecimiento de fauna indeseable vectores de insalubridad, como ratas, cucarachas, moscas y mosquitos entre otros, que atentan contra la salud humana. En este proyecto de investigación tendrá como área de estudio el TCA que funcionó como basurero municipal de Cuidad Madero del año 1990 al 2005 aproximadamente. Dado que en su Momento los municipios que conforman actualmente la Zona Conurbada del Sur de Tamaulipas, integrada por Tampico, Ciudad Madero y Altamira, no contaban donde depositar de manera adecuada sus Residuos Sólidos Urbanos (RSU), hasta que en el 2004 se Diseña y Construye un Relleno Sanitario Conurbado, localizado en el Municipio de Altamira, con una vida útil proyectada de 15 años, operado por particulares. En la zona de estudio del antiguo TCA de Ciudad madero, se encuentra rodeado por asentamientos humanos irregulares, que en el proceso de los años se regularizaron, contado actualmente con servicios de infraestructura básica Luz, agua, drenaje, pavimentación, banquetas, guarniciones, vialidad, etc., pero a pesar del desarrollo en infraestructura , su evolución en el apartado de impacto ambiental y saneamiento ha sido lenta, quedando el área expuesta a los procesos de degradación y relleno esporádico con material de relleno - arena, en montículos y esparcimiento sin ninguna planeación o proyecto de saneamiento para su reincorporación de estas aproximadas 15 hectáreas.
METODOLOGÍA
El acopio y análisis de bibliografía especializada en residuos sólidos urbanos se tomaron en consideración 6 publicaciones nacionales y 3 internacionales, así mismo el área delimitada como el antiguo Tiradero a Cielo Abierto de la colonia SAHOP (Secretaría de Asentamientos y Obras Públicas) tiene una fecha de inicio de servicio en 1990 y con une fecha de cierre (dejaron de verter RSU) en 2005, con una extensión aproximada de 15 hectáreas.
Cabe señalar que a partir del año 2005, la zona metropolitana del sur de Tamaulipas conformada por Tampico, Madero y Altamira cuentan con el primer relleno sanitario conurbado operado por particulares, que es una empresa mexicana de capital español con presencia en varios estados de la república mexicana, que se especializa en procesos que se relacionan con la gestión integral de los residuos sólidos, desde su recolección, traslado, valorización, transferencia y disposición final, por esta razón, los municipios anteriormente mencionados dejaron de utilizar sus antiguos TCA, sin embargo, en la presente investigación hacemos hincapié en el saneamiento del antiguo TCA de Cd. Madero con una extensión aproximada actual de 15 hectáreas y que de manera simultánea están colindantes a dos colonias, en la porción oriente Colonia SAHOP y en la porción sur la Colonia Esfuerzo Obrero.
La presente alternativa en la solución de saneamiento ambiental es considerada bajo seis factores: el técnico, económico, social, político, cultural y ambiental. En el factor técnico es determinante realizar un levantamiento topográfico, nivelación y un estudio de mecánica de suelos, así como la escorrentía subterránea de la colindancia a la laguna. Para el apartado económico se considerará si es viable le reincorporación del ex basurero para uso. Para el factor social es importante que la comunidad presente interés por los problemas ambientales. Dentro del factor político se comparan las estrategias de desarrollo ambiental en los planes de desarrollo federal, estatal y municipal. Dentro del factor ambiental se hace necesario hacer cumplimiento y acatamiento de los lineamientos de la Legislación Ambiental, tanto federal como estatal y la gestión ambiental a nivel municipal a fin de prevenir y restaurar la calidad ambiental generada por el vertido incontrolado de RSU.
CONCLUSIONES
Durante mi estancia en el marco del XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, me permitieron adquirir una serie de conocimientos teóricos - prácticos, tales como los instrumentos de política ambiental dentro del proyecto del antiguo Tiradero a Cielo Abierto y conocimientos prácticos, dada la Experiencia de mi Asesor, en el análisis y comprensión de la descripción de los escenarios ambientales y la observancia y caracterización de los asentamientos humanos colindantes al TCA. Sin embargo, al ser al ser un extenso trabajo aun nos encontramos en la fase del capítulo cuatro de resultados. Cabe destacar que esta línea de investigación, de manera personal, va a contribuir mi proyecto de tesis de licenciatura dentro de la Facultad de Ingeniería, la cual estaré concluyendo en diciembre del 2021 y en los primeros tres meses del 2022 estaré presentando, este proyecto de tesis, como parte del proceso de Titulación para obtener el título de Ingeniero Civil.
Avalos Villarruel Isaac Naason, Universidad de Guadalajara
Asesor:Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
APLICACIóN DE LOS JUEGOS SERIOS EN LA EDUCACIóN BáSICA, COMO HERRAMIENTA EN EL PROCESO DE ENSEñANZA APRENDIZAJE
APLICACIóN DE LOS JUEGOS SERIOS EN LA EDUCACIóN BáSICA, COMO HERRAMIENTA EN EL PROCESO DE ENSEñANZA APRENDIZAJE
Avalos Villarruel Isaac Naason, Universidad de Guadalajara. Asesor: Mtro. Osvaldo Rene Rojo Roa, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
PLANTEAMIENTO DEL PROBLEMA
Durante la pandemia, el sistema educativo de México se enfrentó a una gran problemática al tener que implementarse el confinamiento para disminuir el riesgo de contagios y evitar colapsar al sistema de salud. Esto provocó que los maestros y alumnos se enfrentaran a la dificultad que conlleva la implementación de las clases en línea, presentándose un retrasó en la educación de los alumnos, principalmente a niveles de educación básica. Todo esto por la falta de herramientas útiles e intuitivas que apoyaran tanto al maestro como al alumno
METODOLOGÍA
La metodología que siguió fue una investigación donde se consideró todos los tipos de juegos serios para conocer sus procesos de desarrollo y mecánicas que se emplearon para la enseñanza. También se revisaron estadísticas para conocer más a nuestro público objetivo.
CONCLUSIONES
Se logró presentar distintas propuestas para crear herramientas útiles que acompañen al alumno durante el curso y no solo sea una experiencia de un día. Estas distintas propuestas se enfocaron en nuestro público objetivo que son estudiantes de primaria.
Se concluyó que hay muchas áreas de oportunidad dentro de los videojuegos serios como herramientas digitales que hacen falta ser explotadas
Ávila Gil Socorro, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. María del Pilar Gutiérrez Amador, Universidad Autónoma del Estado de Hidalgo
SIMULACIóN COMPUTACIONAL DEL FLUORURO DE CALCIO DOPADO CON MANGANESO.
SIMULACIóN COMPUTACIONAL DEL FLUORURO DE CALCIO DOPADO CON MANGANESO.
Ávila Gil Socorro, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María del Pilar Gutiérrez Amador, Universidad Autónoma del Estado de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El fluoruro de calcio dopado con manganeso es un importante material para la dosimetría termoluminiscente (TL). Existe una gran necesidad de desarrollar un entendimiento de los procesos de absorción y emisión implicados en la producción de TL. El análisis de la dosimetría de luminiscencia en los últimos años ha tenido gran importancia ya que el CaF2 es capaz de aceptar muchas impurezas (Dy, Mn, Tm, etc.) que generan defectos, inclusiones y cambios de valencia para producir estados de trampa para electrones energéticos, generando mejores características como semiconductor y/o fotocatalizador, abriendo el panorama de las aplicaciones, una de tantas sería el tratamiento de aguas residuales. En la Agenda Ambiental 2018 Diagnóstico y Propuestas, en el capítulo Problemática y política del agua, los coordinadores exponen que en México más de 50 por ciento de las plantas de tratamiento municipales presentan una calificación global de pésimo a mal funcionamiento demostrando la gran necesidad que tenemos en nuestro país de conocer este tipo de materiales. Por otro lado no es fácil entender a fondo los fenómenos físicos que se dan en el CaF2, realizar un análisis en un laboratorio implicaría más tiempos, esfuerzos y además generaría residuos, aquí es donde entra la importancia de la simulación computacional esta herramienta nos permitirá diseñar estos nuevos materiales y obtener información vital como la energía del sistema, densidad de estados, o la constante de magnetización.
METODOLOGÍA
Primero se realizó una revisión bibliográfica y lectura enfocándose en la revisión general de los siguientes conceptos: ¿Qué es la fluorita?, ¿Cuál es su estructura cristalina?, ¿Cuáles son sus propiedades?, ¿Se considera un semiconductor?, ¿Qué información hay sobre su estructura electrónica?, ¿Qué es un semiconductor?.
Se realizó una modificación en las actividades, el objetivo era realizar la experimentación de la coprecipitación de la reacción de acetato de manganeso, acetato de calcio y fluoruro de sodio para la obtención del fluoruro del calcio dopado con manganeso. Por cuestiones de la pandemia no se puede realizar la experimentación de manera presencial así que se generó el dopado son simuladores de materiales, con ayuda del Laboratorio Nacional de Supercómputo del Sureste de México y el software SPRKKR.
Primero se realizó la instalación de máquina virtual para acceder a Linux y se tomó una capacitación para acceder al sistema de Supercómputo y poder correr la simulación, para poder realizar esto, se tomó un curso del manejo básico de XBAND y SPR-KKR con la doctora Ariadna Sánchez Castillo.
Se realizó la investigación de los parámetros y propiedades ya reportadas del CaF2 así como la solución sólida Ca1-xMnxF2 a una concentración de x=0.5, para poder ingresar esta información al sistema. Se generaron los archivos de entrada con XBAND y utilizando el paquete SPRKKR que presenta el método de cálculo de la estructura de bandas por medio de spin-polarized relativistic Korringa-Kohn-Rostoker (SPR-KKR), y es así como se obtiene primero la energía mínima que en este caso es el estado base. Para comprobar que los resultados son válidos el programa tiene que marcar convergencia al final.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de lo que es un semiconductor, un fotocatalizador y sus aplicaciones, así como la rama tan compleja de la física del estado sólido, específicamente de este material conocido desde 1797 intrigando desde grandes personajes como Marie Curie hasta investigadores de la actualidad pues al fluoruro de calcio se le pueden generar incontables modificaciones obteniendo propiedades impresionantes provocando un sinfín de aplicaciones. En el caso de los datos obtenidos mediante estas simulaciones serán el hincapié de próximas experimentaciones ya presenciales ayudando a los investigadores a tener una base de antecedentes mucho mejor. En esta ocasión, el Programa Delfín nos enseñó que a pesar de la pandemia, podemos resurgir todavía con más fuerza, convertir las debilidades en fortalezas, esta investigación es un ejemplo, ya que se generó un replanteamiento del proyecto inicial, volviéndolo totalmente virtual, lo que finalmente resultó beneficioso pues me proporcionó más herramientas en cuestiones tecnológicas y computacionales, las cuales serán de vital importancia en esta nueva normalidad.
Avila Sánchez Bryan Alberto, Instituto Tecnológico de Pachuca
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
Avila Sánchez Bryan Alberto, Instituto Tecnológico de Pachuca. Cruz Vargas Ivonne, Instituto Tecnológico de Pachuca. López Hernández Jacqueline, Instituto Tecnológico de Pachuca. Mera Campa Ammy Diana, Instituto Tecnológico de Pachuca. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
UUMBAL Agroforestal, es una empresa dedicada al establecimiento, manejo y aprovechamiento de plantaciones forestales de pino de manera sustentable. Debido a que en la empresa se presenta un desconocimiento de los diferentes indicadores de productividad, eficiencia y económicos dentro de la empresa, se detectan áreas de oportunidad en el área forestal específicamente en el proceso de producción de resina natural de pinos tropicales.
Del antecedente anterior, cabe señalar que debido a la falta de implementación de una metodología balanced scorecard, la empresa carece de un método de trabajo adecuado. Su propósito es medir la eficiencia operativa de la empresa, debido a que se han suscitado riesgos de calidad al no cumplir con las especificaciones de material y del proceso de producción del producto.
Finalmente, se logra evidenciar, que estos problemas en el proceso de operación y producción de la producción de resina, provoca cambios y pausas debido a razones inherentes al proceso.
METODOLOGÍA
La empresa UUMBAL agroforestal cuenta con cuatro fincas; Los pericos, Santa Elena, Chicoapilla y La piedra, de plantación de pino tropical para el proceso de obtención de resina, se analizó que por cada hectárea que poseen las fincas se cuenta con aproximadamente 1100 árboles con una distancia de 3 metros entre cada uno.
A partir de los datos obtenidos se definió que el proceso de producción de resina inicia después de 6 a 7 años de haber plantado el árbol, se procede con el retiro de la corteza hasta encontrar la albura de una de las caras del pino tropical para posteriormente realizar el bigote en donde se coloca la bolsa que capta la resina.
Una vez preparado el árbol se comienza a realizar el proceso de estriado que consiste en realizar una estría cada semana durante 6 u 8 semana, posteriormente se aplica una pasta estimulante en cada estría hasta a completar 7 estrías con un total de 630 gr de resina aproximadamente.
De acuerdo con la información adquirida se elaboró un Balance Scorecard el cual consiste en definir un sistema de gestión que proporciona retroalimentación sobre los procesos comerciales internos y los resultados externos con el fin de mejorar continuamente el desempeño y los resultados estratégicos.
CONCLUSIONES
De acuerdo al análisis y observación que se realizó durante la estancia de verano en el programa Delfín, se lograron adquirir conocimientos teóricos y posteriormente ponerlos en práctica, así como aplicar conceptos relacionados con productividad, eficiencia, a través del desarrollo de un Balance scorecard en el que fue posible identificar las áreas de oportunidad dentro de la empresa y así poder cumplir los objetivos orientados a la misión y visión de la empresa para garantizar una sincronización estratégica dentro de la misma.
Avila Valdez Juana Julia, Universidad de Guadalajara
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
LA PRODUCCIóN DE ALGA ESPIRULINA MEDIANTE UN SISTEMA SEMIAUTOMáTICO PARA UNA ECONOMíA COLABORATIVA.
LA PRODUCCIóN DE ALGA ESPIRULINA MEDIANTE UN SISTEMA SEMIAUTOMáTICO PARA UNA ECONOMíA COLABORATIVA.
Avila Valdez Juana Julia, Universidad de Guadalajara. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
La comunidad Cerro Cachito que forma parte de Pachacutec en Lima, Perú es un asentamiento irregular caracterizado por personas de bajos recursos que cuentan con discapacidad motriz. El rango de edad con el que cuenta la mayoría de personas es de 40-60 años (además de niños y personas de la tercera edad). Debido al bajo nivel de estudios con el que cuentan, la ubicación que carece de servicios básicos y las bajas oportunidades laborales con las que cuentan debido a su condición es muy difícil conseguir una fuente de ingresos, además, carecen de un particular desinterés en la educación debido a la alta presión que existe por invertir el tiempo en generar ingresos para poder sustentar sus necesidades. Esto representa una gran preocupación para ellos que buscan la forma de dar sustento a sus familias en medio de sus limitadas posibilidades. Al analizar toda esta situación podemos centrarnos en la problemática principal para el usuario que es la escasez económica que vive frente a las limitadas posibilidades de empleo y desarrollo con las que cuenta. Además de nuestro usuario principal existen diversos usuarios finales vulnerables como lo es niños y adultos mayores que se ven impactados directamente por esta problemática al ser la familia directa del usuario principal y en la mayoría de las ocasiones, depender económicamente de ellos.
METODOLOGÍA
Para esta investigación se desarrolló un enfoque correlacional, no experimental, descriptivo y cuantitativo. Esto con el fin de analizar de manera teórica la problemática, así como su propuesta de solución, considerando las circunstancias actuales que atravesamos mundialmente como es la restricción de contacto y presencialidad de los estudios de investigación por motivos de la pandemia. Se analizó la demanda de ciertos productos orgánicos rentables que pudieran producirse de bajo condiciones normales, de fácil manejo y que no representen una carga excesiva de trabajo (principalmente en áreas alimenticias) para que sus productores, considerando las condiciones de discapacidad con las que cuenta el usuario, puedan manejarlos sin mayor problema. Se analizaron las características de producción para alga espirulina, la cual representó la mejor opción frente a la problemática expuesta. Considerando el nivel educativo y su desinterés en la formación educativa se propuso un equipo de producción semiautomatizado con todas las condiciones reguladas necesarias para una producción eficiente y rápida del producto que es fácil de operar para el usuario.
CONCLUSIONES
Se desarrolló un equipo de producción eficiente para alga espirulina espi-ranza que puede ser operado fácilmente y representa un impulso económico como fuente de ingreso para las personas que cuentan con una discapacidad motriz ubicadas en Cerro Cachito. Este equipo permitirá que las personas con discapacidad puedan producir alga espirulina desde su hogar con una óptima producción y aprovechar la demanda mundial de este producto para comercializarlo con gran facilidad, de esta forma podrán generar una fuente de ingresos que dé sustento a sus familias y sus necesidades económicas puedan ser cubiertas.Esto representa un gran avance en su desarrollo y abre sus posibilidades para incorporarse a al mundo laboralsin limitarse por su condición o posibilidades laborales con las que contaban en un principio. Además, se desarrollarán vínculos entre la comunidad como apoyo comunitario para comercialización e incluso la posibilidad de crear una marca colectiva para distribución de este producto.
Avilés Encalada Enrique Alberto, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PROTOTIPO DE SISTEMA DE ILUMINACIóN NATURAL UTILIZANDO FIBRA óPTICA
PROTOTIPO DE SISTEMA DE ILUMINACIóN NATURAL UTILIZANDO FIBRA óPTICA
Amaro Rosas Daniel Alejandro, Consejo Quintanarroense de Ciencia y Tecnología. Avilés Encalada Enrique Alberto, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En el área metropolitana de Monterrey, Nuevo León, las tres principales fuentes de emisiones de gases de efecto invernadero (ya sea de forma directa o indirecta) son las emisiones vehiculares, sistemas de enfriamiento y sistemas de iluminación en ese orden. El sector de iluminación representa el 14% del consumo eléctrico total en los edificios por lo que se busca aprovechar la luz natural en la medida de lo posible.
Está demostrado que la luz natural afecta en los procesos fisiológicos y psicológicos del ser humano (control de reloj biológico, efecto de luz sobre el sueño, salud, estado de ánimo y sus actividades), por lo que la implementación de sistemas que aprovechan la luz natural como medio de iluminación de interiores genera un beneficio a la salud y representa una disminución en la emisión de gases de efecto invernadero derivados del consumo de energía por luz eléctrica.
METODOLOGÍA
Se analizaron los elementos con los que se contaban al inicio de la estancia de investigación y se realizó el diseño tridimensional de un prototipo mediante Diseño Asistido por Computadora, usando el software SolidWorks. La primera versión del prototipo está conformada con los materiales que ya habían sido adquiridos, así como los que se consideraron necesarios para poder hacer el diseño 3D realizado previamente. A continuación, se enlistan los materiales utilizados en esta versión del prototipo:
Lente Fresnel hexagonal de 8.5 cm de diámetro
Madera
Tubería de PVC
Tornillería
Rondanas
Tuercas
3 m FOP
Tripié de aluminio
Lente LED
Caja de cartón
En primer lugar, se armó el recolector de luz natural, este recolector permite alinear perpendicularmente el lente Fresnel con respecto al sol, concentrando la luz en un punto donde se encuentra la entrada de la fibra óptica, permitiendo recolectar una mayor cantidad de luz natural.
Se fijó el lente en una tabla de madera de 15 cm x 11 cm con un agujero de 8.5 cm de diámetro, permitiendo que el lente reciba la luz del sol.
La sección transversal del cable de FOP se colocó dentro de un lente LED desde el centro del lente Fresnel, distancia en la que se encuentra el foco según las especificaciones técnicas del proveedor. Se introdujo parte de un lente LED, que cumple la función de recibir la luz concentrada del lente Fresnel y la transmite a la FOP, con su cubierta en el interior de un cilindro de madera que cuenta con un orificio en el centro, por donde se introduce la otra parte del lente LED. En los lados cortos de la tabla de madera, perpendicularmente a la cara opuesta a la que se encuentra el cilindro de madera, se pegaron los lados cortos de dos piezas de madera. Los otros extremos de estas dos piezas se pegaron en la parte trasera de la tabla de madera que sostiene el lente Fresnel, formando así una estructura que mantiene al lente LED con la FOP en el foco donde se concentra la luz al estar alineado el lente con el sol.
El prototipo cuenta con dos grados de libertad, el primero permite la inclinación del lente Fresnel mientras que el segundo permite la rotación del mismo.
Para la inclinación del lente, la tabla de madera es sujetada de la parte inferior trasera por medio de dos brazos de madera que unen el prototipo a un eje. El eje está conformado por un tornillo que pasa a través de dos pedazos de madera cilíndricos un orificio en el centro, entre ambos pedazos cilíndricos de madera se encuentra un tubo de PVC que es apretado por las piezas de madera y una tuerca al final del tornillo; para poder inclinar la tabla de madera se afloja ligeramente la tuerca que presiona el cilindro de madera hasta quedar en la posición deseada, posteriormente se aprieta nuevamente la tuerca.
Para la rotación del prototipo se armó una base con madera y PVC, en los extremos del tubo se unieron dos pedazos circulares de madera para formar así la base rotatoria. Se unió al eje de inclinación del lente Fresnel, en la parte inferior de la base rotatoria se hizo un orificio en el centro de la madera para introducir el tornillo del tripié y que con la ayuda de una tuerca unirá la base rotatoria con el tripié; para hacer girar la base se afloja la tuerca del tripié y se coloca en la posición deseada, posteriormente se aprieta nuevamente la tuerca.
Se colocó un extremo de la FOP en el interior del lente LED y el otro extremo se colocó dentro de la caja de cartón cerrada, en el interior de la caja se colocaron dos objetos con la finalidad de poder ser observados una vez que se transmita la luz dentro de la caja.
CONCLUSIONES
Durante la estancia de investigación se logró desarrollar un prototipo de iluminación natural que logró transmitir la luz del sol captada desde el exterior hacia el interior de una caja, iluminando así su interior; como primera instancia las pruebas con los equipos de manera manual se obtuvieron resultados prometedores demostrando el funcionamiento del mismo iluminando una caja sin embargo problemas como la estabilidad del usuario para concentrar la luz solar con el lente Fresnel y el excesivo calentamiento de la FOP del mismo no permitieron una iluminación constante, por otro lado el prototipo realizado demostró una constante concentración de luz solar hacia la FOP, sin embargo requiere de mejoras en su funcionamiento como la implementación de los elementos electrónicos para convertirlo en un seguidor solar y el rediseño de la estructura para una mayor concentración solar y cubra de las condiciones ambientales a los elementos electrónicos.
Aviña Padilla Eisaken, Universidad Autónoma de Sinaloa
Asesor:Dr. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas
CARACTERIZACIóN DE SOFTWARE PARA EL ESTUDIO DE SóLIDOS POROSOS
CARACTERIZACIóN DE SOFTWARE PARA EL ESTUDIO DE SóLIDOS POROSOS
Aviña Padilla Eisaken, Universidad Autónoma de Sinaloa. Asesor: Dr. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Se realiza un trabajo de investigación del estudio morfológico de un sólido poroso con una dimensión fractal comprendida en el intervalo [2.1, 2.9] mediante el uso del software MORFOGÉNESIS PARA SÓLIDOS POROSOS, así mismo se realiza un análisis de fotografías de sólidos mediante ImageJ.
La dimensión fractal es determinar estocásticamente cómo se comporta un material. Así, nos proporciona qué tan heterogéneo puede ser un sistema con respecto a una característica física de interés, generalmente asociada a fenómenos en los que hay un crecimiento de moléculas, aglomeración de partículas, crecimiento de cristales, etcétera.
En este caso, estudiamos cómo es el proceso aleatorio de formación de poros en un medio sólido y por tanto, la porosidad. Obteniendo el valor de dimensión fractal se analiza dentro de otra metodología que nos permite estudiar el comportamiento de un fluido a través de un medio poroso. Es decir, la dimensión fractal, comprendida en el intervalo de 2 y 3, nos describe cómo se forman los poros aleatoriamente en el sólido y cómo será la heterogeneidad en el sistema.
Se generaron todos los valores posibles que permite el software para determinar características de modelos o de elementos sólidos teóricos, es decir, descritos mediante los parámetros otorgados en el software. Y posteriormente se hizo un análisis como usuarios del software, de elementos reales fotografiados.
El software llamado MORFOGENESIS PARA SÓLIDOS POROSOS, que está basado en el modelo matemático descrito en el artículo Mesoscopic model for the surface fractal dimension estimation of solid-solid and gas-solid dispersed systems, analiza una relación entre una fase gaseosa y la fase sólida, entendiendo que cuando se está formando un sólido, existe una interacción entre dichas fases que genera los poros, y el software determina los diámetros de poro y calcula a través de la dimensión fractal cómo fue dicho proceso aleatorio de formación del sólido.
Así mismo se analizó un caso real, tomando una imagen de un material poroso y calculando su dimensión fractal utilizando el software ImageJ, de allí se procedió a realizar el mismo análisis dentro del primer software.
METODOLOGÍA
Estudio #1
Valores ingresados para la simulación
Dimensiones macroscópicas del sólido: cm
Longitud: 10
Ancho: 10
Dimensión fractal de la superficie: 2.1, 2.2, 2.3, 2.4, 2.5, 2.6, 2.7, 2.8, 2.9
Tiempo: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10
300 posiciones espaciales
Para un valor DF = 2.1
Se presentan los resultados
Estudio #2
Estudio de caso real
Para esta sección se empleó el software ImageJ, para obtener la dimensión fractal de una esponja bajo el siguiente procedimiento.
1. Se capturó y recortó la fotografía
2. Se convirtió a binario y se realizó el análisis de conteo de cajas.
3. Resultados y análisis en MORFOGÉNESIS PARA SÓLIDOS POROSOS con
DF = 2.21
Anotaciones
El software MORFOGÉNESIS PARA SÓLIDOS POROSOS, conlleva un gran tiempo de cargado para situaciones en las que se involucran más de 200 posiciones espaciales (con 10 tiempos) y no pudo arrojar resultados en una laptop con las siguientes características.
4 GB RAM, Windows 10, inside intel core i3, lenovo b40
CONCLUSIONES
Durante la estancia de verano se aprendieron las nociones de la utilidad de la dimensión fractal dentro del campo de mecánica de fluidos, utilizando y con la intención de validar el software desarrollado por la Facultad de Arquitectura Diseño y Urbanismo junto al Instituto de Ingeniería de la UNAM. Se reconoció la aplicación dentro de mi profesión, Ingeniería Química, para la posible aplicación en tópicos de Fenómenos de Transporte para posibles trabajos posteriores.
Ayala Zárate Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Ing. Ofelia del Carmen Leal Salazar, Universidad Autónoma de Occidente
COMPORTAMIENTO DEL CONSUMIDOR Y LA SEGMENTACIóN INTELIGENTE: CASO ZAMORA, MICHOACáN.
COMPORTAMIENTO DEL CONSUMIDOR Y LA SEGMENTACIóN INTELIGENTE: CASO ZAMORA, MICHOACáN.
Ayala Zárate Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Ing. Ofelia del Carmen Leal Salazar, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se basa en la premisa de que la Estrategia de Segmentación de Mercados, es un factor clave de éxito de cualquier organización. La mercadotecnia se centra en la orientación hacia el cliente, y para poder atender al mercado meta de una forma mejor que la competencia es necesario conocerlos y atenderlos.
METODOLOGÍA
El estudio es de tipo cuantitativo, exploratorio y descriptivo. El trabajo de campo consiste en la aplicación del instrumento a una muestra de 200 personas nacidas en el periodo de los años 1995 a 2007. El cuestionario aplicado es en escala MindBase del constructo dos denominado Conectado, el cual considera 7 variables y aplicados a las personas correspondientes de la generación Z que habitan en el municipio de Zamora, Michoacán.
CONCLUSIONES
Los resultados del estudio realizado de segmentación inteligente MindBase reflejan de manera relevante que la mayoría de los jóvenes pertenecientes a la Generación Z del constructo conectado, en las variables a, c, d, e, f y g, se identifican mejor con la escala de tipos Likert de cinco puntos correspondiente a totalmente en desacuerdo a totalmente de acuerdo, correspondiendo los valores 1 y 5, obteniendo los valores totalmente de acuerdo y de acuerdo en su mayoría, los cuales buscan tener un equilibrio en su vida pues consideran importante trabajar en lo que lo que quieren pero también es importante para ellos tener tiempo para convivir con su familia y amigos pues son una parte transcendental de su vida al igual que el cuidar de su salud, el lado espiritual y no tener problemas financieros. Les gusta sentirse satisfechos sin embargo también se preocupan por lo que pueden contribuir al mundo y apoyar a la comunidad; también se consideran que son open-minded y están dispuestos a aprender del mundo y de las personas a su alrededor.
Baeza González Jonathan Kevin, Instituto Politécnico Nacional
Asesor:Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
ADSORCIóN DE CONTAMINANTES MEDIANTE MIL-100
ADSORCIóN DE CONTAMINANTES MEDIANTE MIL-100
Baeza González Jonathan Kevin, Instituto Politécnico Nacional. Asesor: Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La presencia de contaminantes en el agua es uno de los problemas de mayor relevancia para la humanidad ya que es un recurso indispensable para el día a día.
Entre los contaminantes de agua tenemos el diclofenaco sódico (DCF), un fármaco antiinflamatorio ampliamente utilizado que ha suscitado una gran atención debido a su detección en aguas recientemente. A pesar de su existencia en bajas concentraciones, el DCF se está volviendo omnipresente debido a su producción y consumo masivo.
La exposición a largo plazo a DCF en aguas supondrá riesgos potenciales y persistentes para los seres humanos y los ecosistemas; en particular el marino.
Para el saneamiento de contaminantes están los llamados adsorbentes, los cuales aprovechando su gran área superficial se encargan de atrapar de forma eficiente estás partículas.
Para el estudio que se tomó de base se caracterizó el MOF (Metal Organic Framework) "MIL-100". El adsorbente se sometió a un estudio en el que se probaron varios modelos cinéticos para predecir su comportamiento y por supuesto su capacidad de adsorber el contaminante mencionado.
METODOLOGÍA
En base a los datos experimentales obtenidos del artículo se propuso un modelo de transferencia de masa externa, considerando un isoterma lineal.
Para ello se tabularon datos obtenidos del isoterma de adsorción y los modelos cinéticos propuestos por el artículo, se obtuvo el valor de la capacidad de adsorción al inicio de la corrida experimental, obtenido el valor se aplicaron las ecuaciones correspondientes al modelo de transferencia de masa externa realizando las consideraciones y restricciones correspondientes. Se supuso un valor para el coeficiente de transferencia de masa externa y se acotó el error al mínimo realizando una comparación entre la concentración modelada y los datos experimentales. Finalmente se obtuvo la gráfica que predice el comportamiento de la capacidad de adsorción según el modelo cinético propuesto.
CONCLUSIONES
Los resultados indican que el modelo de transferencia de masa externa no predice el comportamiento de adsorción de DCF en MIL-100.
Se parte de un modelo de isoterma lineal donde se recomienda trabajar en concentraciones diluidas, en este caso se trabajó con una concentración mucho más alta a la de simulaciones hechas previamente.
Se justifican los resultados obtenidos mediante la conclusión a la que llega el artículo en donde la Resistencia a la transferencia de masa interna (IMTR) es el mecanismo dominante.
Anexo
Se tomó un curso en "Fusión 360" para la realización de modelos en 3D, esto con el objetivo de replicar algunas imágenes del libro de "QUÍMICA LA CIENCIA CENTRAL - BROWN" para facilitar el aprendizaje de ciertos temas como el de geometrías moleculares gracias al apoyo visual de los modelos en 3D.
Adicionalmente se realizaron infografías de carácter científico con el objetivo de dar a conocer un poco del mundo de la adsorción.
Balderas Ramirez Daniel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ZEOLITA CLINOPTILOLITA APLICADA A UN TRATAMIENTO DE AGUA RESIDUAL.
ZEOLITA CLINOPTILOLITA APLICADA A UN TRATAMIENTO DE AGUA RESIDUAL.
Balderas Ramirez Daniel, Benemérita Universidad Autónoma de Puebla. Zamora Bautista Verónica, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En la actualidad existen muchos tipos de contaminación ambiental que dañan los ecosistemas y la vida en general del planeta. Las zeolitas forman parte de la solución a causa de que sus propiedades y características le confieren importantes aplicaciones en diferentes tipos de remediación.
A partir de la información recabada, se determinó que para la zona específica de Puebla y Tlaxcala, tanto el río Atoyac como el río Zahuapan sufren de un gran problema de contaminación. El recorrido del Río Atoyac se divide por zonas de acuerdo con las comunidades que atraviesa de las cuales recibe descargas de residuos sólidos urbanos, así como por el punto más importante para nuestro estudio: las aguas residuales que emanan de actividades industriales. La evaluación toxicológica del Río Atoyac presentada en 2015 para el segundo congreso de la Asociación Mexicana de Ingeniería, Ciencia y Gestión Ambiental, identifican zonas que por la naturaleza de las descargas y las industrias establecidas ofrecen diferentes niveles de contaminación con metales pesados y variaciones en el oxígeno disuelto. Esto de acuerdo a los límites establecidos por la NOM-001-SEMARNAT- 1996 donde se establecen los máximos permisibles de contaminación en cuerpos de agua. La presa Manuel Ávila Camacho, popularmente conocida como la presa de Valsequillo recibe agua del Río Atoyac y del río Alseseca, pero el caudal más importante viene del Atoyac. Justamente en la zona 5, previa a Valsequillo destacaron los niveles de toxicidad de 5 descargas industriales.
Estos metales pueden ser inhalados, ingresar a través de la piel o ser almacenados en las vacuolas de las células vegetales cuando se utilizan aguas contaminadas para riego. Al ser consumidas, se absorben vía intestinal uniéndose a proteínas y así poder viajar por la sangre.
METODOLOGÍA
Para lograr los objetivos planteados a lo largo de la investigación, primero se realizó una investigación general sobre las zeolitas para poder reconocer las más empleadas. Posteriormente, al analizar la información recabada, se tomó una muestra de 4 L de agua de la presa Valsequillo de la ciudad de Puebla. Para elegir el lugar para toma de muestra se utilizaron los siguientes criterios:
Accesibilidad,contaminantes de acuerdo con la NOM-001-SEMARNAT-1996, impacto a la salud por su uso, seguridad para la persona que toma la muestra, el lugar ideal fue a un costado de la Dirección, local de CONAGUA para el distrito de riego 030. Pues representaba un lugar de fácil acceso a pie, nivel de agua suficiente como tomar la muestra en la orilla del río, menos materia orgánica y fecalitos y finalmente se trata del distrito de riego.
Con dos recipientes de plástico utilizados exclusivamente para agua potable se almacenaron 4 litros (2 en cada recipiente) pues se requería uno para un análisis inicial y otro para un análisis posterior al tratamiento del agua. Se llevó la muestra a un laboratorio de análisis de agua, específicamente para un estudio de metales pesados.El laboratorio elegido fue Lab Bio Indu, mismo que realizó la determinación de Plomo, Zinc, Cadmio, Arsénico, Cobre y Níquel de 2 de nuestras muestras. Los resultados iniciales más importantes sin tratar el agua con la zeolita fueron los siguientes:
Plomo +: Límite permisible es de 0.025, el resultado fue < 0.170 mg/L.
Cadmio +: Límite permisible es de 0.005, el resultado fue < 0.014 mg/L.
Níquel +: Límite permisible no especificado, el resultado fue < 0.866 mg/L.
Por temas de costos y tiempos elegimos Clinoptilolita por ser la más asequible, rápida en tiempo de entrega y certificada en cuanto a composición. Como materiales, fue necesario el uso de dos garrafas de agua de 4 litros cada una, así como mallas de plástico reutilizadas y vendas elásticas para retener los sólidos que contenía el agua así como aquellas zeolitas granuladas con un diámetro tan pequeños que pudiese pasar por la malla, tijeras, ligas y una cubeta limpia.
La boquilla de una de las garrafas fue recortada para que el envase únicamente sirviera como contenedor del agua filtrada, mientras que a la otra garrara se le recortó únicamente su base para que en ella cupieran los 3 kilogramos de zeolita Clinoptilolita. A la boquilla de ésta última se le colocó una malla de plástico así como una venda elástica para realizar un primer filtrado al agua muestreada para retirar los sólidos más grandes y así evitar que interfirieran en el análisis posterior. Después, se volvió a realizar otro filtrado al agua muestreada con otra venda elástica. Filtrada el agua, se lavaron los contenedores mientras el agua se almacenaba en una cubeta limpia. Limpios y secos los contenedores, se colocó en aquél que no tenía base, la zeolita con la boquilla hacia abajo y con la malla de plástico y una venda elástica. Se embonó este contenedor con el otro y se vació toda el agua sobre la zeolita. El tiempo de retención fue de 1 hora 35 minutos; se buscaba era que el agua estuviese en contacto mucho tiempo con la zeolita. El agua fue pasada a un tercer contenedor completamente limpio para su posterior análisis.
CONCLUSIONES
Los recursos y el tiempo eran limitados pues se encuentran cerrados los laboratorios de la universidad. De acuerdo con los resultados obtenidos del primer análisis del laboratorio, nos dimos cuenta de que los niveles de plomo y cadmio eran elevados, mientras que otros parámetros que en un principio se pensaron que serían altos, no lo fueron. Uno de los motivos principales por el cual se optó por la zeolita Clinoptilolita fue porque era más fácil de adquirir, y porque después de una investigación exhaustiva en diferentes puntos de la ciudad de Puebla para poder conseguirla normalmente las distribuidoras nos comunicaban que efectivamente. Esperamos que con los resultados que estén por venir del laboratorio, existan parámetros favorables. Se pretende que con este trabajo de investigación se puedan llevar a cabo más investigaciones futuras para seguir estudiando el papel de las zeolitas en el tratamiento de aguas residuales.
Baldovino Sanjuan Juan de Dios, Corporación Universitaria Americana
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN MEDELLÍN Y CALI, COLOMBIA.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN MEDELLÍN Y CALI, COLOMBIA.
Baldovino Sanjuan Juan de Dios, Corporación Universitaria Americana. Rubio Murcia Angélica Maria, Universidad de Medellín. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia se han presentado transformaciones importantes, las cuales han impactado la productividad de las industrias y su economía, estas transformaciones son denominadas de manera global como revoluciones industriales. Por su parte, la cuarta revolución industrial también conocida como la industria 4.0 presenta diversas oportunidades de mejora, pero también desafíos para las organizaciones de la industria, ya que los beneficios son potencialmente efectivos para quienes son capaces de innovar y adaptarse. Así mismo se hace visible que las organizaciones pueden adaptarse a los cambios, siempre y cuando conozcan y sepan adecuar a su sector productivo, las tecnologías necesarias para optimizar tanto los procesos como la capacidad de mejorar su rentabilidad. Por eso se hace necesario hacer énfasis en la implementación y renovación de las tecnologías, con la finalidad de potencializar las industrias manufactureras buscando aumentar la competitividad en el comercio nacional e internacional, promoviendo el desarrollo de la innovación en los sectores de la industria capitalina y a su vez conducir al crecimiento económico afectando positivamente el PIB.
Sin embargo, debido al gran crecimiento de la competencia, la mentalidad de las organizaciones ha ido cambiando durante los últimos años, modificando su forma de producción optando por la innovación e implementación de tecnologías que aporten un máximo rendimiento en todas sus operaciones. Por lo tanto, es necesario implementar estrategias que impulsen al sector manufacturero en las ciudades de Medellín y Cali con el fin de adoptar e incluir a sus procesos productivos, tecnologías de la industria 4.0.
METODOLOGÍA
Esta tesis aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) de Medellín y Cali Colombia, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Conclusiones
La digitalización de los procesos es una herramienta transversal para muchos ODS, sin embargo, el enfoque de esta estancia al ser del área de ingeniería industrial es sobre temas relacionados con la industria, innovación e infraestructura. Algunos ejemplos para resaltar son el generar modelos predictivos con datos tomados en tiempo real y simulación de procesos, las aplicaciones de Ciberseguridad, detectar modos de fraude en sistemas bancarios a población vulnerable. También en la logística, las redes de transporte, en alimentos reducir desperdicios, los modelos de simulación para riego y optimización de agua.
Con esta investigación se busca determinar capacidades tecnológicas y hacer un diagnóstico para lograr cobertura de esta herramienta.
Resultados
Se ha evidenciado en lo que va de la investigación en curso, que los conceptos más relevantes las tecnologías de la industria 4.0 son desconocidos en su mayoría por algunas organizaciones manufactureras de Medellín y Cali, y por lo tanto seria necesario capacitar a todo el talento humano.
Por otra parte, Las industrias manufactureras consideran que la implementación de las tecnologías 4.0 son una ventaja para el crecimiento productivo, ya que generan mayor rentabilidad y les da mayor competitividad en el mercado.
Cabe resaltar que algunas de las organizaciones manufactureras en Colombia no realizan capacitaciones de nuevas tecnologías; es importante incentivar las propuestas de innovación e investigación que ayuden a fortalecer las estrategias de las compañías y les faciliten cumplir sus objetivos corporativos. Por último, la mayoría de encuestados hasta el momento, consideran que es importante implementar las I4.O con el fin de ser competitivos y crecer en el mercado.
Ballesteros Reyes Luisa Fernanda, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
HERRAMIENTA AUTODIAGNóSTICO PARA EL GOBIERNO DE TECNOLOGíAS DE LA INFORMACIóN PARA EMPRESAS
HERRAMIENTA AUTODIAGNóSTICO PARA EL GOBIERNO DE TECNOLOGíAS DE LA INFORMACIóN PARA EMPRESAS
Ballesteros Reyes Luisa Fernanda, Tecnológico de Estudios Superiores de Tianguistenco. Santana Contreras Daniel, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Se propone diseñar una aplicación web que evalué el gobierno de TI y ofrecer retroalimentación de fortalezas y debilidades para la mejora continua, mediante software libre, ya que en las empresas no siempre ven al área de TI como una inversión sino como un gasto, y al ser esto así pues no hay gran apoyo en sí. Lo que los directivos no saben es que cuando les falla algún sistema, el departamento de TI, responde, pero si hay deficiencias en alguna área va a haber fallas al momento de que se realice alguna atención del departamento de TI. Para ello se plantea el desarrollo para identificar las dificultades o debilidades dentro de la empresa como área de TI entre otras: si no hay capacitación insuficiente, personal de TI insuficiente, cotización de altos costos, escaza adopción de tecnologías y esto conlleva a personal con sobrecarga laboral perdida de oportunidades y clientes o fracasos de proyectos de TI por inadecuada gestión
METODOLOGÍA
Por medio de una metodología ágil de desarrollo de software en este caso SCRUM, se hacen entregas pequeñas, para dar resultados paso a paso y las correcciones sean casi inmediatas. Se desarrolla una Herramienta software de autodiagnóstico, por medio del cual los líderes de las empresas podrán reflexionar sobre múltiples de aspectos relacionados con TI. Para ello, se ha creado este instrumento interactivo que permite, a través de un cuestionario distribuido en cuatro categorías dar un diagnóstico y unas recomendaciones encaminadas a ayudar alinear los objetivos de TI con los de la empresa.
CONCLUSIONES
La importancia del proyecto dentro de una empresa es para la evaluación del área de TI ya que muchas empresas no lo hacen, y realmente no saben el estado del área dentro de la empresa. Con la herramienta, se validará las subáreas de TI como gobierno, tecnologías emergentes y aprendizaje organizacional y se evalúa donde se debe de aportar un mejor desarrollo y donde hay que mantenerse. Se desarrolló una aplicación web, en PHP, CSS3 y MYSQL, donde se arrojarán resultados y se capturarán dentro de la base de datos para generar un informe de cada sección dentro de la página para la retroalimentación, además de poder guardar un historial por persona para comparar los resultados pasados con resultados futuros. De esta forma se verá la importancia del autodiagnóstico.
En esta pasantía se fortalecieron los conocimientos en Ing. de software, bases de datos, desarrollo web, no solo teóricos sino prácticos fuera del contexto de la escuela aplicados a un proyecto en sí, con una clara metodología en este caso SCRUM para poder llevarlo a cabo en las 7 semanas de la pasantía, además de esto se aprendió a trabajar de manera remota en un desarrollo sin perder el rumbo del proyecto. Fue una experiencia muy rápida, pero de ella se aprendió mucho ya que no se había trabajado con la metodología SCRUM y gracias al el asesoramiento y dedicación de la Dra. Gina Paola Maestre Gongora por dirigirnos en esta pasantía, ya que con su conocimiento y experiencia nos brindo todas las herramientas necesarias para poder llevarla a cabo.
Barajas Casillas Carlos Adrian, Universidad de Guadalajara
Asesor:Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
Barajas Casillas Carlos Adrian, Universidad de Guadalajara. Franco Orzuna Daniel Adan, Instituto Tecnológico de Ciudad Juárez. Rodríguez Rodríguez José Ricardo, Universidad de Guadalajara. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 ha impulsado en los últimos años a las empresas a aplicar nuevas tecnologías a sus líneas de producción que les permitan adaptabilidad, interconectividad y aumenten su eficiencia. La pandemia por COVID-19 aceleró la visibilidad de esta nueva tendencia debido a que el control y monitoreo remoto se volvieron componentes fundamentales para continuar los procesos de producción mientras se combate este problema de salud mundial.
Se busca abordar en este proyecto de investigación la aplicación de un sistema SCADA, el cual representa en sí mismo el control y la supervisión de procesos industriales a distancia, e involucra tecnologías completamente establecidas en la mayoría de las empresas nacionales como la automatización o la robótica, así como modelos de transición presentes ya en distintas industrias a lo largo del mundo como el internet de las cosas (IoT) o big data.
METODOLOGÍA
Inicialmente se definió el proceso industrial sobre el cual se basaría la fábrica a simular en el software de Factory IO, consiste en la producción automatizada de tarjetas electrónicas, específicamente las etapas de clasificación de material, maquinado, ensamblaje, paletización y almacenaje. Definido lo anterior, se realizó el diseño de la planta industrial, buscando apegarse lo más posible a la realidad. Se utilizaron elementos como máquinas CNC, brazos robóticos, bandas transportadoras, sensores de visión, sensores infrarrojos, racks de almacenamiento, entre otros.
La automatización de la fábrica se realizó a través de un PLC Siemens virtualizado, el cual se programó en el entorno de TIA Portal mediante lenguaje escalera (Ladder), se utilizó un modelo S7-1500 con módulos I/O agregados para manejar todas las señales de entrada y salida de la línea de producción.
Luego de comunicar el PLC con la planta industrial, se realizó el diseño de la interfaz de monitoreo en el software de LabVIEW, dicha interfaz permite la visualización remota del estado de los procesos en la fábrica, brindando la posibilidad de acceder las categorías principales (producción, almacenaje y base de datos) por separado para facilitar la lectura de los datos. Para conectar las señales que controla el PLC con la interfaz, se utilizó un servidor OPC. Finalmente se programó el sistema de rastreo de las piezas para guardar esta información en la base de datos.
CONCLUSIONES
Al final del programa de investigación se logró finalizar la implementación del sistema SCADA, desde la construcción, programación y simulación de la línea de producción hasta el diseño, programación y conexión de la interfaz (HMI). Se trabajó utilizando la dualidad de teoría y práctica para poder aplicar conceptos de diseño y manejar distintos softwares requeridos durante todo el proceso.
Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan
Asesor:Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan. Espinosa Moreno Victor Hugo, Universidad Autónoma de Chiapas. Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
En México el tema de los huertos urbanos no es tema del día a día, por lo tanto se sufre de desinformación sobre los beneficios que estos traen consigo. Siendo que algunos de estos son: ayuda económica, mejora de la salud, disminución del desgaste físico-mecánico del suelo y las aguas residuales.
METODOLOGÍA
El modelo ADDIE es el proceso utilizado por diseñadores y desarrolladores de capacitación. Las cinco fases: Análisis, Diseño, Desarrollo, Implementación y Evaluación representan una guía para construir herramientas de capacitación y apoyo al desempeño.
En la fase de análisis, se aclara el problema de instrucción, La fase de diseño se ocupa de los instrumentos de evaluación, La fase de desarrollo es donde se crea y ensambla el contenido, En la fase de implementación, se desarrolla un procedimiento para capacitar a los facilitadores y alumnos y por último la fase de evaluación proporciona oportunidades de retroalimentación de los usuarios.
CONCLUSIONES
Una de las tendencias estimadas para el 2030 es un alto incremento de la densidad poblacional, según la ONU seremos tres mil millones de habitantes más, donde aproximadamente el 60% de la población total vivirá en las ciudades, teniendo en cuenta que, al incrementar la densidad poblacional. Si no se hace una buena gestión de los recursos, nosotros como sociedad nos veríamos obligados a generar estrategias en un contexto, tal vez, con menos posibilidades que las de ahora. Por lo que los huertos urbanos representan una opción de cultivo sustentable que se realizan en espacios pequeños dedicados a sembrar y cosechar alimentos, logrando así parte del cuidado del medio ambiente y también del beneficio personal.
Es por ello, que promover prácticas que sean sostenibles y enseñar a la población a fortalecer su capacidad científica para avanzar hacia modalidades de consumo y producción sostenible, es algo fundamental para la supervivencia y bienestar de nuestra especie.
Barradas Diaz Jesus Uriel, Instituto Tecnológico Superior de Xalapa
Asesor:Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
Barradas Diaz Jesus Uriel, Instituto Tecnológico Superior de Xalapa. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Orozco Morales Lorena, Universidad Tecnológica de Pereira. Asesor: Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En este trabajo de investigación la base es el agua, este es un recurso natural que es esencial para el hombre. En el caso de presas como la de valle de bravo las fuentes de agua en embalse posibilitan el desarrollo de una gran cantidad de actividades para la comunidad, además de recreación y de servicios. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso, pero hacerlo de forma tradicional implica tomar muestras, enviar a un laboratorio y realizar un análisis, lo cual significa tiempo excesivo, desperdicio de mano de obra y poco económico. La propuesta de la investigacion es realizar un dispositivo que pueda efectuar una medición de la calidad del agua en tiempo real que permita tener una base de datos actualizada con la información necesaria de cuál es el comportamiento de los datos, además de que esta sea autosuficiente energéticamente. El objetivo es el uso del IoT como herramienta para la comunicación de datos en tiempo real, usando la tecnología LoRa. En conjunto con un sistema de comunicaciones basado en un sistema Bluetooh, además de que las mediciones se harían con el uso de sensores, los cuales interactuaran entre sí en cada momento como medición-análisis-comunicación, esto necesitará una alimentación suministrada por un conjunto de celdas conectadas a una tarjeta programaba Raspberry. El desarrollo del dispositivo pretende conformar una plataforma que ponga las bases en cuanto a que estrategias o tecnologías se pueden usar en mejorar o regular la calidad del agua del embalse. Este dispositivo estaría en una Boya dentro del lago para tener un control en tiempo real.
METODOLOGÍA
-Análisis: Hacer lainvestigación documental en artículos, revistas, compañías y patentes registradasque conduzca a la selección dela metodología ideal de diseño para el dispositivo.
Realizar la selección de los elementos que conformaran al dispositivo, sensores, elementos de comunicación, ordenador o placa y plataforma de desarrollo de software.
Seleccionar la fuente de poder para los elementos que conformaran al dispositivo, tomando en consideración su correcto funcionamiento
-Síntesis: Diseñardispositivo de forma diagramática, realizando la conceptualización en diagramas de flujo y de bloques.
Seleccionar los elementos para la fuente de poder, celdas y conexiones eléctricas.Realizar el algoritmo de programación de medición, recolección, comunicación y análisis de datos a través de la plataforma seleccionada.
Modelar y simular la boya que contendrá el dispositivo de medición, a través del CAD/CAE
CONCLUSIONES
-Evaluación: Construir de la boya junto con el dispositivo de medición, conformando los elementos previamente diseñados y seleccionados.
Realizar pruebas de medición en un ambiente controlado para evaluar el funcionamiento de sensores, ordenador o placa y comunicación.
Evaluar el correcto funcionamiento de la boya que contendrá al dispositivo en cuestión.
Conformar la boya de medición con todos los elementos previamente testeados para su puesta en marcha
Barragán Zepeda Olga, Instituto Tecnológico de Tepic
Asesor:Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
CAUSA PRINCIPAL POR LA QUE NO TODAS LAS PYMES DE MÉXICO PROSPERAN: EXTERNA O INTERNA
CAUSA PRINCIPAL POR LA QUE NO TODAS LAS PYMES DE MÉXICO PROSPERAN: EXTERNA O INTERNA
Barragán Zepeda Olga, Instituto Tecnológico de Tepic. García del Real José Antonio, Universidad de Guadalajara. Asesor: Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
Las PyMES son las Pequeñas y Medianas Empresas que cuentan con menos de 251 trabajadores, no tienen gran facturación ni son de gran tamaño, y por lo tanto no disponen de los mismos recursos ni las mismas oportunidades como las tienen empresas de mayor tamaño a ellas. Según el Instituto Nacional de Estadística, Geografía e Informática (INEGI, 2019) hay más de 4.1 millones de empresas en México que se consideran PyMES.
Las PYMES forman una gran parte de la economía mexicana, alimentan muchas bocas y familias diariamente y además poco a poco son capaces de proveer empleos. La gran cuestión es porque existen tantas PyMES en México, no se convierten en grandes industrias de productos o servicios, cual es la causa de que no todas prosperen. Hay diversas investigaciones donde investigan las razones de estos cuestionamientos pero desde distintos ángulos, uno de ellos es lo que está deteniendo a estas empresas externamente, sea el gobierno, las leyes o la competencia en el mercado; por otra parte están las razones internas que van desde la forma en que se administran financieramente, la forma en que innovan, hasta como administran sus procesos u operaciones.
METODOLOGÍA
Se llevará a cabo una investigación documental según sus fuentes, y una investigación aplicada según su objetivo pues es aquella que depende de los descubrimientos y avances de la investigación básica y se enriquece con ellos, pero se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos como en este caso su aplicación en las PYMES de México. La intención de la investigación que se aborda es explicativa al sustentar con información toda aquella exposición de la realidad, es también una investigación cualitativa que se basa en encontrar subjetivamente la causa más importante de por qué las pymes no prosperan en un 100% en México. Las variables igualmente serán cualitativas es decir las causas de esta problemática. Y por último para calcular el tamaño de la muestra tomaremos la cantidad de pymes en México, que según Forbes (2020), serían cerca de 4.2 millones, con un nivel de confianza del 90% de confianza y un 10% de error, se utilizó la siguiente formula de N para poder determinar el tamaño de la muestra.
(N*Z^2*P*(1-P)) / ((e^2*(N-1))+(Z^2*P)-(1-P))
Dónde:
N = tamaño de la población
Z = nivel de confianza
P = probabilidad de éxito, o proporción esperada
e = Error
Al aplicar la formula nos arrojó un resultado de:
P= 0.5
Z=1.65
Arrojándonos un resultado de:
Tamaño de la muestra (n) = 68.63
Lo que nos dice que 69 es el número de empresas que necesitamos analizar para representar el universo de 4,200,000 con un error del 10% y nivel de confianza de 90%.
CONCLUSIONES
La ejecución de la muestra en las PYMES trae consigo un gran beneficio social y económico. Las PYMES se encuentran en un constante desarrollo, en donde cada día se enfrentan a nuevas situaciones las cuales se deben afrontar de la mejor manera, no quiere decir que la implementación de nuevos métodos será la solución para resolver problemas referentes al crecimiento debemos plantear las situaciones y evaluar para obtener mejores resultados. En conclusión gran parte de la viabilidad de proyectos se encuentran en la sostenibilidad del mismo y en los recursos que se obtengan de instancias gubernamentales para su ejecución ya que hablamos de evolución y adaptación y esto se requiere la mayor parte del tiempo, por los factores mencionados anteriormente y porque pertenecemos a un sistema complejo, caracterizado históricamente por condiciones de inequidad en la asignación de los recursos financieros necesarios para que las PYMES en México afronten las condiciones sociales presentes en el entorno multicultural de nuestro país. Aún falta analizar numerosos casos de empresas para así concluir cual sería la causa principal por la que no todas las PyMES en México no prosperan.
Barrera Garcia Janeth Estefania, Universidad Vizcaya de las Américas
Asesor:Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla
ANáLISIS Y DISEñO DE UNA PROPUESTA DE “MACHóMETRO” CON BASE EN FRASES POPULARES.
ANáLISIS Y DISEñO DE UNA PROPUESTA DE “MACHóMETRO” CON BASE EN FRASES POPULARES.
Barrera Garcia Janeth Estefania, Universidad Vizcaya de las Américas. Asesor: Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En este proyecto se realizó la elaboración de la propuesta de Machómetro cuya función principal, es la identificación de frases y dichos populares, asociados al machismo y que como sociedad, deberíamos erradicar debido al gran impacto que han generado en nuestra sociedad, familia y entorno. La detección de estas frases más que nada es para concientizar a la comunidad en general, que las pequeñas cosas suman, suman a la violencia de género, a la violencia familiar, a la violencia laboral, y a tantas más que debemos contrarrestar.
El machismo, ¿cómo lo podemos describir en México?
El machismo se trata de una serie de comportamientos que pueden ser vistos con naturalidad, aunque en realidad son agresiones. Por ejemplo, que se piense que una mujer deba pedir siempre ensalada y no un plato de carne en un restaurante, "porque las mujeres siempre están a dieta". O pensar que la forma en que se viste una mujer justifica un acoso. Aunque estemos muriendo de calor, nos ponemos un suéter. De repente te puedes dar cuenta de que lo estás haciendo para evitar violencia hacia tu persona aunque nosotras no seamos las responsables, ya lo tenemos naturalizado (País, E. E., 2020)
Este es un tema muy extenso de explicar, se caracteriza por ser un elemento que aún impera en estos tiempos, en hogares de muchas familias, las cuales en su mayoría son zonas rurales donde este aún predomina y es el pan de cada día en familias alrededor del mundo. Con este proyecto pretendemos llegar a mujeres y hombres, ya que el machismo no es exclusivo de algún sexo, lo que buscamos es proponer un instrumento de medición adicional a los ya existentes, en el cual participen tanto hombres como mujeres, y erradicar las costumbres tan antiguas que solemos conservar.
En este trabajo se categorizaron distintas frases populares, entre las familias, amigos, comunidades, de las cuales se evaluaron, categorizaron y se contaron para dar a conocer que no todo lo que nos decían de pequeños estaba bien, y que por más mínimo que sea el impacto que nosotros queramos provocar, este con el paso del tiempo irá creciendo más, hasta tomar una forma que ya no podamos dominar.
METODOLOGÍA
Al inicio de este proyecto identificamos frases y dichos más populares, relacionadas con la cuestión de género, de las cuales se recategorizaron dependiendo su enfoque, ya sea a la salud, educación, trabajo, sociedad, familia, etc. Seguidamente estas mismas frases se categorizaron de acuerdo a La Guía del Buen Aliado (Demachosahombres.com, 2019.), que nos sirvió de referencia en la categorización de dichas frases, gracias a la información que esta implica, para nosotros fue el punto de partida más ideal para este proyecto.
Acto seguido, se inició una investigación por medio de familiares, amigos, vecinos y conocidos, de los cuales realizamos un pequeño censo con dichas frases, para identificar las más pronunciadas, populares o incluso las que escuchamos de pequeños y aun de adultos seguimos pronunciándolas.
Así se concentró en una pequeña encuesta que se compartió en redes sociales y en nuestras propias universidades, para así estimar la frecuencia de las más populares y los menos. Se obtuvo una participación de 223 personas, siendo el 67% participantes del sexo femenino, desde este punto podemos observar el interés de las mujeres sobre este fenómeno social, al tener mayor participación en encuestas que sabemos ayudan a hacer una diferencia y con una participacion del 33% del sexo masculino.
A lo que 87% se sitúan en zona urbana y 13% en zona rural. Siendo así 48.4% de la región sur, 25.1% de la zona centro, 23.3% de la región norte, de la región oriente 1.6% y de la región occidente 1.6%. Donde la edad que predominó con 39.5% fue de 20/29 años, seguidamente con 32.7% la edad de 30/39 años,continuando con la edad de 40/49 años con 18.8%, posteriormente la edad de 50 y más con la participación de 4.9% y por último una participación de 4% en la edad de 20 años o menos.
Siendo 3 las principales categorias sometidas a votacion las cuales fueron, salud, sociedad y varias, esta ultima recopilando las categorías de familia, transporte público,redes sociales,lenguaje y explotación, donde las frases con mayor votacion fueron las siguientes:
En la categoría salud, seguro estás en tus días (83%), ya estás hecha toda una señorita (57.8%) y ¿para que se emborracha? (54.3%)
En la categoría sociedad, ya sabes cocinar, ya te puedes casar (82.1%), pinches viejas, ni ellas saben lo que quieren(68.6%) y mujer tenias que ser(61.9%)
En la categoría varias, el hombre llega hasta donde la mujer quiere(78.5%), seguro que viene manejando una mujer(77.6%) y como eres hombre te va a tocar mantener(46.2%)
CONCLUSIONES
Este proyecto considero que puede provocar un impacto considerable, no solo en la comunidad sino en muchas regiones, hablo de un impacto positivo, ya que en México nos categorizamos por tener a los hombres más machos pero también a la población más sensible y que sabe que cuando uno comete un error, somos los primeros en tratar de repararlo, somos un país de gente solidaria, de gente entusiasta pero también de gente que quiere un cambio.
Un cambio para nuestras próximas generaciones, dejemos de fomentar los micro-machismos, dejemos de normalizar las frases con la cuales crecimos y que pensábamos que eran normales, dejemos ese pensamiento antiguo y miremos hacia el futuro, volvamos nuestro país en uno en donde tanto hombres como mujeres, podamos expresarnos libremente, trabajar en lo que nos apasione, que el hecho de ser mujer no sea una limitante para nuestras capacidades ni nuestros enfoques.
¡Yo sí creo en que el cambio se define con nosotros!
Barrera Velázquez José Luis, Instituto Tecnológico de Tepic
Asesor:Dr. Pedro Ortega Gudiño, Universidad de Guadalajara
PROPIEDADES TéRMICAS, MECáNICAS Y MORFOLóGICAS DE FILAMENTOS EXTRUIDOS A BASE DE POLíMEROS BIODEGRADABLES, áCIDOS ORGáNICOS Y HARINA DE NOPAL (OPUNTIA FICUS-INDICA)
PROPIEDADES TéRMICAS, MECáNICAS Y MORFOLóGICAS DE FILAMENTOS EXTRUIDOS A BASE DE POLíMEROS BIODEGRADABLES, áCIDOS ORGáNICOS Y HARINA DE NOPAL (OPUNTIA FICUS-INDICA)
Barrera Velázquez José Luis, Instituto Tecnológico de Tepic. Asesor: Dr. Pedro Ortega Gudiño, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Evaluación de las propiedades morfológicas, mecánicas y térmicas de distintas mezclas de polímeros biodegradables (ácido poliláctico o poliácido láctico (PLA) y polibutilen adipato-co-tereftalato (PBAT)), con aceites vegetales (canola) y otras con una pequeña composición de nopal, los cuales a su vez fueron extruidas a distintas velocidades y temperaturas, con la finalidad de identificar las mejores condiciones de procesamiento.
METODOLOGÍA
Mediante el uso de un microscopio electrónico de barrido se caracterizó la morfología de todos los especímenes seleccionados, la cual se confrontó con la información publicada en la literatura para establecer una relación entre las micrografías obtenidas y las condiciones de procesamiento de los filamentos analizados.
Para la evaluación de las propiedades mecánicas de los filamentos se empleó la normatividad aplicable al tipo de muestra. Se emplearon un equipo de pruebas universales para evaluar la resistencia a la tensión utilizando la prueba del marco, donde los filamentos son montados en una pequeña ventana cuadrangular de 25 mm, que permite sujetar los especímenes en las mordazas, permitiendo que el equipo registre únicamente la resistencia mecánica a la tensión del material polimérico al momento que se se cortan los bordes del marco antes de iniciar la prueba. Los marcos de papel fueron fabricados utilizando en la cortadora láser y se emplearon 5 muestras representativas de cada grupo, a los cuales se les determinó su diámetro utilizando un micrómetro y se dejaron secar en una estufa durante 24 h a una temperatura de 60 °C, previo a la evaluación de propiedades mecánicas.
Las propiedades de resistencia a la tensión de mezclas y los polímeros puros fueron llevadas a cabo a una velocidad de 1 mm/min, en las que se registró la relación de esfuerzo-deformación, para de nueva cuenta establecer la correspondencia entre las propiedades mecánicas y la composición y condiciones de procesamiento de los diferentes filamentos.
La evaluación de las propiedades térmicas (temperatura de transición vítrea, temperatura de cristalización, punto de fusión) se obtuvieron utilizando un equipo de calorimetría diferencial de barrido (DSC) con una rampa de calentamiento de 10°C/min y utilizando un proceso circular para borrar la memoria térmica de los polímeros. El análisis de los datos obtenidos a partir de los termogramas obtenidos, ayudó a identificar los cambios de las transiciones térmicas con el tipo de procesamiento y la composición de los filamentos poliméricos.
CONCLUSIONES
Fue posible establecer relaciones entre información recopilada de las propiedades de los polímeros y las variables tanto de composición y procesamiento, para identificar los especímenes con mejores condiciones para ser empleados en aplicaciones relacionadas con el embalaje y conservación de alimentos.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán. Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán. Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán. Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán. Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
El agotamiento de los recursos naturales constituye uno de los problemas más preocupantes de la actual situación de emergencia planetaria [3], a causa de la dilapidación de recursos como el agua y la energía, los cuales son vitales para el sostenimiento de ecosistemas naturales, e históricamente han tenido mucha influencia en la prosperidad y éxito de una nación [4].
El poder y la eficacia de los métodos del aprendizaje automático derivan de la capacidad de extraer patrones y crear modelos a partir de los datos. En consecuencia, la aplicación de estos métodos se vuelve un enfoque clave para utilizar los grandes volúmenes de datos que se obtiene a partir del monitoreo continuo de la demanda de agua (Smart metering), así como tratar la complejidad que subyace al encontrar patrones de hábitos de consumo o predecir la demanda de agua futura, cuando se involucran variables de tipo sociodemográfico.
METODOLOGÍA
La metodología asociada a la consecución del objetivo general se divide por actividades, de acuerdo con los objetivos específicos planteados con antelación.
Creación de una base de datos de consumidores de servicios públicos de agua de la ciudad de Pereira: la generación de la base de datos será posible mediante la realización de encuestas en hogares de la ciudad de Pereira. Teniendo en cuenta la contingencia actual derivada por el CoVID-19, se emplearán recursos digitales para tal fin. Así, la muestra que se pretende tomar consiste en alrededor de 400 hogares de distintos niveles socioeconómicos y estratos, esto con el fin de garantizar la relevancia estadística de la población elegida. La muestra tiene un 95% de confianza con un 5% de error esperado sobre una población de 149.704 suscriptores de estos servicios, que para el año 2017 fueron reportados por el sistema único de información de los servicios públicos, adscrito a la superintendencia de los servicios públicos domiciliarios a la república de Colombia.
Preprocesamiento de la base de datos. La base de datos ha sido recolectada cuenta con dos tipos de datos: categóricos y no categóricos. Por lo tanto, para extraer información relevante e identificar patrones subyacentes se implementarán algoritmos de aprendizaje de máquina supervisados y no supervisados.
CONCLUSIONES
En el transcurso de esta estancia se ha adquirido conocimiento en el área de Machine Learning Aprender en este contexto quiere decir identificar patrones complejos en miles de datos, por medio de algoritmos, ajustando las horas por medio de un plan de trabajo descrito con anterioridad con una breve introducción al entorno y al lenguaje de Python, analizando los diccionarios, estructuras de datos, Pandas, histogramas,tablas, gráficos de 2 dimensiones por medio de la librería (Matplotlib), DataFrames, bibliotecas de aprendizaje automático, preprocesamiento de las bases de datos con sus funciones, cargando bases de datos a Python métodos de agrupamiento de datos en la base de datos de consumo sostenible en sus diferentes métodos. Se puede concluir que los algoritmos arrojaron ciertos resultados, pero que la ineficiencia de los etiquetados fue lo que provocó resultados tan pobres. Esto se puede dar a entender porque aún con cinco métodos de agrupamiento, ninguno dio el nivel de acierto por encima del 50%, lo que denota la deficiencia en el etiquetado de la base de datos.
Bautista Lázaro David, Instituto Politécnico Nacional
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
DISEñO DE UN ROBOT ANFIBIO PARA MEDICIóN DE VARIABLES FíSICAS
DISEñO DE UN ROBOT ANFIBIO PARA MEDICIóN DE VARIABLES FíSICAS
Bautista Lázaro David, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Dentro del marco de la agricultura y la acuicultura en México, la creación de sistemas de monitoreo de estos entornos es fundamental debido a la naturaleza temporal de los procesos de cultivo y la influencia climatológica en el entorno. La naturaleza específica de estos dispositivos limita las capacidades de implementación en otros entornos con características diferentes, lo que genera que se deba realizar un proceso de diseño y elaboración para cada aplicación. Por ello la necesidad de dispositivos modulares con fácil adaptabilidad en entornos acuáticos y terrestres a representando una de las líneas de desarrollo e investigación más demandas en los últimos años.
Las nuevas corrientes tecnológicas demandan a su vez el desarrollo de sistemas que cumplan las normativas en los ámbitos ecológicos y de consumo energético mediante la incorporación de fuentes de alimentación renovables e incorporación de sistemas de bajo consumo. Por lo que la necesidad de crear un dispositivo que cumpla con estas normativas es fundamental para los requerimientos de los dispositivos de monitoreo de espacios de cultivo acuícolas y agrícolas.
METODOLOGÍA
Se realizo el diseño de un dispositivo de monitoreo anfibio basado en los desarrollos tecnológicos de los vehículos autónomos anfibios. Realizando la comparación de distintos mecanismos de locomoción anfibios inspirados en la naturaleza, se seleccionó un sistema de mecanismo basado en un propulsor por rueda modificada impulsada por 2 motores de CD de corriente directa Pololu 20D y 4 servomotores DS3225MG que permitan modificar la dirección de desplazamiento.
Partiendo de la metodología del bio diseño, se seleccionó al Ajolote como referente anfibio como modelo para el diseño del dispositivo mediante técnicas de diseño modular. Se elaboro en Solidworks el diseño del dispositivo, separando en subensamblajes el dispositivo para su manejo en el software CAD.
Utilizando técnicas de abstracción de sistemas embebidos se elaboraron protocolos de respuesta fácilmente adaptables a distintos microcontroladores en lenguaje C, utilizando un microcontrolador PIC24FJ128GA705. Para facilitar la reutilización de código, se definieron 2 modos de operación, uno enfocado a monitoreo a largo plazo y el otro a reconocimiento de un entorno. De igual se identificaron 4 estados de operación, 5 considerando los modos de bajo consumo, que se comparten entre los modos de operación, siendo estos el estado de Carga de Batería, Envió de datos y geolocalización, Medición de variables y Desplazamiento.
Para la comunicación y el manejo de datos, se realizó un sistema de conexión Wi-Fi basado en el modulo ATWINC1500 y en el circuito de protección de datos ATECC608A. Así como el uso de una memoria EEPROM de bajo consumo para asegurar la fiabilidad de los datos enviados.
Se realizaron estimaciones y cálculos para la selección de la fuente de alimentación basada en baterías LiPo-Lion de 3.7V, considerando el consumo energético máximo y el mínimo en estado de reposo. A fin de optimizar el consumo energético se utilizó técnicas de diseño de bajo consumo para la regulación de la alimentación de los dispositivos mediante circuitos de conmutación MOSFET-N Low Side y manejo de sistemas de bajo consumo e interrupciones. A su vez que se incorporo alimentación basada en energía solar mediante una celda solar de 5V de 500mA para la carga y recarga de la batería.
Se seleccionó un sistema de posicionamiento basado en localización GPS, utilizando el módulo NEO-6-M para el posicionamiento en 2 dimensiones. Mediante el uso de las propiedades de disipación del agua para ondas electromagnéticas, la celda solar y de un control de tipo difuso se realiza el posicionamiento en profundidad.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos y se aplicaron técnicas de diseño para dispositivos mecatrónicos. Explorando el área del diseño modular y bioinspirado, así como la abstracción de hardware y diseño de bajo consumo.
Si bien es un proyecto con amplia extensión y se requiere de la realización de pruebas en los espacios donde se va realizar el monitoreo para la correcta parametrización de los sistemas de control, el diseño se ha hecho teniendo todas las consideraciones posibles y buscando cumplir con la norma de seguridad para dispositivos autónomos.
Bautista Montes Luis Pablo, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Mg. Manuel Fernando Martínez Forero, Universidad La Gran Colombia
INVESTIGACIóN DE MURO CON BAHAREQUE
INVESTIGACIóN DE MURO CON BAHAREQUE
Bautista Montes Luis Pablo, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Manuel Fernando Martínez Forero, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
Investigar temas relevantes y de gran repercusión para la elaboración de una estructura en la que se verá implementado el uso de bahareque para la elaboración de viviendas y con una inversión económica menor.
METODOLOGÍA
Revisión de fuentes de información confiables, como normativas y artículos científicos para delimitar el campo de estudio.
CONCLUSIONES
Se concluye que el uso del bahareque es viable como elemento constructivo para viviendas de bajo costo, teniendo en cuenta las condiciones de cada región, es necesario caracterizar las particularidades para tener recomendaciones propias para las características de una región especifico.
Bazán Bravo Carlos Eduardo, Instituto Politécnico Nacional
Asesor:Dr. Uzziel Caldiño Herrera, Universidad Autónoma de Ciudad Juárez
EVALUACIóN Y ANáLISIS DE UNA TOBERA SUPERSóNICA PARA UN MOTOR DE REACCIóN DIDáCTICO
EVALUACIóN Y ANáLISIS DE UNA TOBERA SUPERSóNICA PARA UN MOTOR DE REACCIóN DIDáCTICO
Bazán Bravo Carlos Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Uzziel Caldiño Herrera, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Una tobera es el componente de un motor encargado de producir empuje. Para obtener el mejor rendimiento de la tobera, es importante seleccionar sus parámetros de manera adecuada para maximizar el rendimiento y evitar inestabilidades que puedan afectar al flujo. Se busca diseñar una tobera para la turbina didáctica del laboratorio de la universidad mediante análisis de CFD.
METODOLOGÍA
Se diseñó una tobera supersónica a partir de los parámetros de salida de una turbina didáctica. Mediante estos parámetros se determinó el área de salida y el área de garganta de la tobera. Se propuso que la longitud total de la tobera sería igual a 40 cm. Se analizaron toberas con secciones convergentes y divergentes de diferente longitud para determinar las dimensiones óptimas de cada sección. La forma de cada sección se obtuvo mediante una función cuadrática. Estas funciones se determinaron a partir del radio de entrada y salida de la tobera, y considerando que el radio mínimo se encuentra en la garganta. La tobera con las dimensiones óptimas se analizó mediante un software de CFD y mediante relaciones isentrópicas para analizar el flujo a través de la tobera, y determinar su rendimiento.
CONCLUSIONES
Luego de analizar cada tobera, se concluyó que la tobera con una longitud de 32.5 cm en la sección convergente y de 7.5 cm en la sección divergente resultó ser la tobera con el rendimiento óptimo. Luego de analizar el flujo determinado mediante análisis de CFD, se observó que no hay presencia de ondas de choque en la sección convergente, y en la sección divergente solamente hay una onda de choque a la salida de la tobera. Cerca de la garganta y en la salida de la tobera se presentan los gradientes de presión más grandes, sin embargo, esto no afecta de manera considerable al flujo, por lo que el rendimiento de la tobera es adecuado para producir empuje.
Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
SISTEMAS ILSS: PODOTáCTILES LUMíNICOS SOSTENIBLES
SISTEMAS ILSS: PODOTáCTILES LUMíNICOS SOSTENIBLES
Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. Hoy Canul Eduardo Azael, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El Sector Cerro Cachito es un asentamiento de la ciudad de Pachacútec de Ventanilla que fue fundada en el año 2003. Pese a su resiliencia de los pobladores el sector vive en un asentamiento arenoso con dunas empinadas generadas por los fuertes vientos y no cuenta con un sistema completo de pavimentación, ni de lugares equipados o accesibles para las personas con discapacidad que viven en dicho lugar, esto hace imposible la movilidad de un lugar a otro, por lo que les impide tener una propia autonomía, un difícil acceso de lugares y sobre todo a los lugares de trabajo haciendo que los ingresos económicos sean menores.
Bajo un estudio realizado por Jóvenes de la Universidad César Vallejo, nos percatamos que existen 12 personas con alguna discapacidad entre ellos las personas con problemas visual representan un 20%, físico motriz un 55%, mental intelectual un 25%. Este grupo olvidado son quienes más se ven perjudicados en este asentamiento debido a las condiciones del lugar.
METODOLOGÍA
Esta investigación es de un enfoque cualitativo y cuantitativo, experimental con un alcance correlacional. La mayor parte de la investigación fue a partir de observaciones, reportajes, entrevistas, estudio de campo y documental que nos proporcionaron estudiantes de la UCV de Perú.Por nuestra parte la investigación recabada fue a partir de ensayos, trabajos de investigación de materiales, documentales, reportajes entre otros métodos de recolección, para comprender y de esa manera elaborar nuestro proyecto de investigación.
Gracias a la información que se recabó, logamos ubicar las carencias y la situación en las que viven; así como, las conductas y hábitos que tienen respecto a consecuencia de las condiciones que viven. Aún más por la complejidad que contrajo la pandemia por COVID-19, implicó riesgos en salud y economía, debido a que la gran mayoría de la población generaba ingresos con empleos informales dando como resultado no poder cubrir necesidades básicas.
De esa manera se plantea el sistema ILSS que posee los siguientes enfoques:
Inclusivo, al adecuar las vialidades para personas discapacitadas; principalmente en el sector con discapacidad visual, al ser podotáctiles; lumínico, debido a que es un producto que ayuda a identificar las vialidades y contribuir al ahorro energético; seguro, al aumentar la seguridad de todos los participantes del asentamiento; sostenible, al reducir contaminantes y aumentando la eficiencia energética.
Los sistemas son propuestos como piezas prefabricadas debido a que su producción es ajena al sitio de instalación.
Se propuso utilizar conos de huevo de cartón como moldes (con medidas de 30x30cm) que se rellenarán de resina epóxica, para reducir el volumen de resina usamos botellas de PET en trozos, así como sus tapas, también se usó para el funcionamiento de los podotáctiles; para advertir sobre zonas de peligro (STOP), y zonas de seguimiento (GO). Por cuestión de luminiscencia y seguridad se propone la utilización de pigmentos fluorluminiscentes.
Los moldes con sus estructuras cónicas dan una mejor sujeción al terreno. Esto también implica un costo de producción muy bajo, accesible para los residentes del asentamiento para que puedan generarlos y desarrollar un mercado sostenible.
En el primer proceso de producción no conseguimos los resultados esperados. Se colocaron los moldes en donde se vaciaron los trozos de botellas de PET, se acomodaron de tal manera que quedaran en la parte de la punta del cono, esto para aprovechar su resistencia a la sujeción del terreno, así mismo, se acomodó una tapa de las mismas botellas para reducir la cantidad de resina. Luego, se procedió a realizar la resina epóxica casera, vaciando una cantidad de 100 ml de alcohol etílico al 70% y 100 ml de silicona fría. Se consiguió revolver a su totalidad para poder y se vació en los conos del molde. Respectivamente, los conos de huevo absorbieron la mezcla y desechándola como si fuese un filtro.
En el segundo proceso de producción se realizó el mismo acomodo, siendo la diferencia las cantidades de 150 ml de silicona fría y 50 ml de alcohol etílico, añadiendo un forro de los conos interiormente por medio de bolsas de plástico, esperando a que conservara la forma y se llevara a cabo las reacciones químicas adecuadas. El resultado que obtuvimos fue que la mezcla no se secó, quedando en un estado líquido.
Dentro de la investigación se plantea como aprovechamiento de la energía mecánica generada por las personas en los podotáctiles, integrar un circuito de piezoeléctrico dentro de cada baldosa podotáctil esto con el fin de generar energía eléctrica. Este sistema se plantea alterno a lugares en dónde la radiación solar no es lo suficiente como el caso de Cerro Cachito, incluso la viabilidad aumenta al investigar que el 75% de las personas que residen en ese lugar se desplazan a pie. Este sistema se integra por conexiones en serie y paralelos, que serán interconectados entre sí para que la energía eléctrica generada sea almacenada para un posterior uso, ayudando así a la movilidad segura de las personas con problemas visuales y físico-motriz del lugar. Entre las principales aplicaciones del almacenamiento energético es abastecer a un sistema de alarma, para la seguridad del lugar o como alternativa a un sistema de iluminación.
CONCLUSIONES
La investigación ayudó a ampliar la visión y comprender la realidad del mundo en el que vivimos, se trata de conocer y entender las situaciones distintas que cada persona vive. Los conocimientos, las experiencias, el intercambio de culturas y hábitos, las herramientas nuevas para el desarrollo y la comunidad apremia el poder crecer como estudiante, como persona y como humanidad. La parte experimental nos ayudó a conocer de mejor manera el cómo proceder para conseguir el producto deseado, planteando utilizar Bisfenol A y Epiclorohidrina, para hacer la mezcla y recabar los resultados a obtener.
Bejarano Lara Yolitzy Guadalupe, Universidad Politécnica del Valle del Évora
Asesor:M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
APP WEB LABORATORIO DY
APP WEB LABORATORIO DY
Bejarano Lara Yolitzy Guadalupe, Universidad Politécnica del Valle del Évora. Beltrán de la Herrán Dulce Nayely, Universidad Politécnica del Valle del Évora. Asesor: M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La problemática que buscamos solucionar con la creación de esta aplicación web es agilizar el proceso de prestamos en un laboratorio de una universidad, ya que la manera tradicional de realizar este proceso es el tradicional de apuntar todo en un formato de papel, lo cual ocasiona perdida de datos si se extravía algún comprobante del préstamo.
METODOLOGÍA
Para lograr este avance en la app web se utilizo visual studio code, como servidor fue laragon, php en conjunto con css y html, y para la base de datos mysqly.
CONCLUSIONES
Reforzamos los conocimientos para la creación de la app web, así como también de la creación de un crud, aunque sabemos que no esta concluido aun por falta de tiempo, estamos muy contentas de haber realizado este verano de investigación, con las esperanzas de que en algún futuro pueda llegar a su finalización y usabilidad.
Bello Aguilar Cecilia Cristina, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
REMOCIóN DE PRODUCTOS FARMACéUTICOS EN SOLUCIóN ACUOSA EMPLEANDO UN ADSORBENTE A BASE DE CARBóN.
REMOCIóN DE PRODUCTOS FARMACéUTICOS EN SOLUCIóN ACUOSA EMPLEANDO UN ADSORBENTE A BASE DE CARBóN.
Alanis Marban Maria Montserrat, Instituto Politécnico Nacional. Bello Aguilar Cecilia Cristina, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la mayor parte de las aguas residuales son desechadas hacia los cuerpos de agua, provocando contaminación al medio ambiente y elevado riesgo en la salud humana y animal (Hiew y col., 2019). Entre los compuestos orgánicos que se han detectado en estas aguas se encuentran los contaminantes emergentes los cuales incluyen pesticidas, productos de cuidado personal, detergentes, productos de desinfección, drogas y productos farmacéuticos, por mencionar algunos ejemplos (Teodosiu y col., 2018). En particular, los compuestos farmacéuticos han llamado la atención de los investigadores, ya que estos son vertidos al medio ambiente de forma continua y pueden provocar un impacto negativo en la salud humana y la vida acuática (Yakubu, 2017). Teniendo en cuenta esta problemática se han empleado diversos métodos para su remoción, entre ellos, la adsorción. Este proceso de separación destaca por su alta eficacia y fácil operación (Seo y col., 2016). Existen diversos materiales que pueden ser empleados como adsorbentes para la remoción de los compuestos farmacéuticos, la mayoría de estos provienen de desechos agroindustriales por lo que son de bajo costo y gran abundancia. Considerando lo anterior, este trabajo se enfocó en la remoción de naproxeno, diclofenaco y acetaminofén, empleando un adsorbente a base de carbón (el cual se obtuvo empleando un residuo lignocelulósico como precursor).
METODOLOGÍA
El adsorbente utilizado se obtuvo de la pirólisis del nopal tapón (Opuntia robusta). Previo al tratamiento térmico la biomasa fue triturada y tamizada hasta obtener un tamaño de partícula de 35 mallas. El tratamiento físico se realizó a 400 °C, durante 2 h, flujo de nitrógeno de 100 mL/min y una rampa de calentamiento de 10 °C/min. El material obtenido se lavó con agua desionizada (hasta obtener un pH constante en el agua de lavado), se secó durante 24 h, se trituró y tamizó para obtener partículas de 40 mallas. Los estudios de adsorción se llevaron a cabo durante 24 h empleando soluciones de naproxeno (NAP), diclofenaco (DIC) y acetaminofén (ACE) con concentraciones iniciales de 100, 400 y 700 mg/L, a pH 7, 30 °C y 120 rpm, poniendo en contacto 10 mL del adsorbato con 0.025 g del adsorbente. Transcurrido el tiempo de equilibrio el adsorbente fue separado de la solución mediante filtración. La concentración de los adsorbatos en las soluciones remanentes y sus concentraciones iniciales se determinaron con un equipo HPLC. Con los resultados obtenidos se calcularon las capacidades de adsorción (q, mg/g) mediante el siguiente balance de masa:
q=((Ci-Cf)*V)/m
donde Ci y Cf son las concentraciones iniciales y finales (mg/L) de los productos farmacéuticos, V es el volumen del adsorbato (L) y m es la masa de adsorbente (g) utilizada en los experimentos de adsorción.
CONCLUSIONES
Los resultados obtenidos con el tratamiento físico indicaron que después del proceso de pirólisis se tiene un rendimiento promedio de 48 %. Bajo las condiciones experimentales evaluadas se obtuvieron capacidades de adsorción máximas promedio de 22.86, 17.17 y 42.53 mg/g para NAP, DIC y ACE, respectivamente.
BIBLIOGRAFÍA
Hiew, B. Y. Z., Lee, L. Y., Lai, K. C., Gan, S., Thangalazhy-Gopakumar, S., Pan, G. T., Yang, T. C. K. (2019). Adsorptive decontamination of diclofenac by three dimensional graphene-based adsorbent: Response surface methodology, adsorption equilibrium, kinetic and thermodynamic studies. Environmental Research, 168, 241- 253.
Seo, P. W., Bhadra, B. N., Ahmed, I., Khan, N. A., Jhung, S. H. (2016). Adsorptive Removal of Pharmaceuticals and Personal Care Products from Water with Functionalized Metal-organic Frameworks: Remarkable Adsorbents with Hydrogen-bonding Abilities. Scientific Reports, 6(1), 34462.
Teodosiu, C., Gilca, A. F., Barjoveanu, G., Fiore, S. (2018). Emerging pollutants removal through advanced drinking water treatment: a review on processes and environmental performances assessment. Journal of Cleaner Production, 197, 1210-1221.
Yakubu, O. (2017). Pharmaceutical Wastewater Effluent-Source of Contaminants of Emerging Concern: Phytotoxicity of Metronidazole to Soybean (Glycine max). Toxics, 5(2), 10.
Beltrán de la Herrán Dulce Nayely, Universidad Politécnica del Valle del Évora
Asesor:M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
APP WEB LABORATORIO DY
APP WEB LABORATORIO DY
Bejarano Lara Yolitzy Guadalupe, Universidad Politécnica del Valle del Évora. Beltrán de la Herrán Dulce Nayely, Universidad Politécnica del Valle del Évora. Asesor: M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La problemática que buscamos solucionar con la creación de esta aplicación web es agilizar el proceso de prestamos en un laboratorio de una universidad, ya que la manera tradicional de realizar este proceso es el tradicional de apuntar todo en un formato de papel, lo cual ocasiona perdida de datos si se extravía algún comprobante del préstamo.
METODOLOGÍA
Para lograr este avance en la app web se utilizo visual studio code, como servidor fue laragon, php en conjunto con css y html, y para la base de datos mysqly.
CONCLUSIONES
Reforzamos los conocimientos para la creación de la app web, así como también de la creación de un crud, aunque sabemos que no esta concluido aun por falta de tiempo, estamos muy contentas de haber realizado este verano de investigación, con las esperanzas de que en algún futuro pueda llegar a su finalización y usabilidad.
Benavides Cifuentes Isabella, Universidad del Valle
Asesor:Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
JUEGO INTERACTIVO CON REALIDAD AUMENTADA "LITTLE FOX"
JUEGO INTERACTIVO CON REALIDAD AUMENTADA "LITTLE FOX"
Benavides Cifuentes Isabella, Universidad del Valle. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
En la educación primaria, la comprensión lectora es un área de formación donde se han estudiado diferentes estrategias para descifrar y unir ideas en los contenidos de lecturas, de esta manera obtener resultados favorables en las evaluaciones de los estudiantes.
Una de las problemáticas de muchos alumnos es relacionar las palabras textuales con su significado físico. Es decir, identificar el objeto con la descripción escrita del mismo, además de otros factores como la distracción momentánea y el interés en responder un cuestionario.
Debido a esto, se desarrolló un sistema en el que un niño por medio de un personaje animado se podrá desplazar por un entorno, donde habrá estaciones y le realizará preguntas sobre un tema previamente visto.
METODOLOGÍA
Inicialmente, se realizó un estudio de las principales dificultades que tenían los estudiantes en educación primaria a la hora de comprender los textos académicos y de esta manera generar una metodología con fases de aprendizaje.
Por esta razón se utilizó el programa Unity, para la creación de los elementos que componen el juego. En una primera instancia, se seleccionó la imagen para el activador y agregarla posteriormente a vuforia.
Posteriormente, se creó el entorno compuesto por pasto, árboles y piedras, de los cuales se dio uso a la tienda Unity para obtener alguno de estos elementos mencionados. Para el personaje se estableció un animal como el zorro y se realizó un script de movimiento relacionado a un joystick virtual.
Una vez que pueda recorrer el lugar, se coloca un lienzo (canvas) para la activación de los textos que contienen las preguntas y luego con botones se selecciona la respuesta correcta gracias al desarrollo del código (que funcionan por proximidad).
Para probar el funcionamiento del sistema se hizo la compatibilidad para Android y se generó el APK. El último paso consiste en hacer pruebas al público dirigido que en este caso son los alumnos y analizar cómo se desenvuelven con el uso del software.
CONCLUSIONES
Se logró crear un juego interactivo para el estudiante, donde se puede dar el recorrido en un pequeño entorno en el rol de un animal y responder preguntas en las estaciones predispuestas. Sin embargo, está en fase de desarrollo por lo que solo se ha hecho un primer piloto con un par de preguntas y se planea realizar más actividades-preguntas con un mayor rango de espacio.
Gracias a la investigación, trabajos anteriores y experiencias se pudo realizar el proyecto, de esta manera ofrecer un aprendizaje visual y dando alternativas a las estructuras evaluativas convencionales para la comprensión lectora.
Bernabe Rojas Cristian Ailton Andre, Universidad Autónoma de Guerrero
Asesor:Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo
RESPUESTA SíSMICA DE EDIFICIOS DE PLANTA BAJA FLEXIBLE DURANTE EL TEMBLOR DEL 19 DE SEPTIEMBRE DE 2017
ASESOR: DR. JOSé MANUEL JARA GUERRERO
ESTUDIANTE: CRISTIAN AILTON ANDRE BERNABE ROJAS
RESPUESTA SíSMICA DE EDIFICIOS DE PLANTA BAJA FLEXIBLE DURANTE EL TEMBLOR DEL 19 DE SEPTIEMBRE DE 2017
ASESOR: DR. JOSé MANUEL JARA GUERRERO
ESTUDIANTE: CRISTIAN AILTON ANDRE BERNABE ROJAS
Bernabe Rojas Cristian Ailton Andre, Universidad Autónoma de Guerrero. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Un sismo es la propagación de vibraciones en la capa de la tierra llamada litósfera, provocada por el movimiento abrupto de las placas tectónicas ubicadas bajo la misma. Estos movimientos pueden variar en profundidad y por lo tanto la intensidad con la que se presentan, el daño que presentan las estructuras depende de muchos factores, entre los que se encuentran la concepción estructural.
En la ciudad de México, gracias a los registros existentes sabemos que las ondas sísmicas dispersadas en la ciudad tuvieron un impacto distinto dependiendo de la zona en la que se encontraban los edificios. En zonas de terreno blando, la ciudad de México tuvo mucho mayor impacto que en zonas de terreno firme, las amplificaciones del movimiento que se presentan en terrenos blandos, hacen muy vulnerables a grupos de construcciones que dependen de las características del temblor y de los edificios.
METODOLOGÍA
El trabajo se inició al realizar una investigación documental sobre los daños estructurales dejados por el sismo del 19 de septiembre de 2017, así como también en el estudio del programa SAP2000. Se tomaron en cuenta los conocimientos básicos en la rama de estructuras de la ingeniería civil para determinar el objeto de análisis. Se estudiaron numéricamente dos modelos de edificios, el primero con estructuración de planta baja flexible y el segundo soportado en marcos de concreto en todos los niveles. Los edificios tienen dimensiones en planta de 15mx25m, cuentan con cuatro niveles y la separación de columnas es a cada cinco metros. Los edificios con planta baja flexible normalmente usan el primer nivel como estacionamiento y los demás niveles como apartamentos. De esta manera, la planta baja se soporta en trabes y columnas y los demás niveles sobre muros de mampostería. La segunda edificación (como fuente de comparación) conserva las dimensiones y el número de pisos; sin embargo, se elimina la planta baja flexible soportando toda la estructura en columnas y trabes en todos los niveles. Para obtener la respuesta sísmica, se realizaron análisis dinámicos en la historia del tiempo sometiendo a las estructuras a tres acelerogramas reales registrado en terreno blando de la ciudad de México, durante el temblor del 19 de septiembre del 2017.
CONCLUSIONES
Los análisis dinámicos lineales de historia del tiempo de ambas estructuras mostraron que las edificaciones de planta baja flexible, aumentan las demandas sísmicas en el primer nivel de la estructura de forma importante. Se incrementan considerablemente los desplazamientos laterales, las fuerzas cortantes y los momentos flexionantes. Estos resultados justifican la alta vulnerabilidad sísmica que este tipo estructuraciones presentan durante la ocurrencia de temblores, que queda evidente al analizar los daños severos y colapsos originados por eventos sísmicos.
Bernal Flores Marihan Itzel, Universidad de Guadalajara
Asesor:Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional
CARACTERIZACIóN ESTADíSTICA DE SEñALES FISIOLóGICAS PARA EL ESTUDIO DE LA RESPUESTA A ESTíMULOS DOLOROSOS MEDIANTE LA IDENTIFICACIóN DE PARáMETROS RELEVANTES.
CARACTERIZACIóN ESTADíSTICA DE SEñALES FISIOLóGICAS PARA EL ESTUDIO DE LA RESPUESTA A ESTíMULOS DOLOROSOS MEDIANTE LA IDENTIFICACIóN DE PARáMETROS RELEVANTES.
Bernal Flores Marihan Itzel, Universidad de Guadalajara. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El dolor ocasiona sensaciones y emociones desagradables en las personas, pero también son una respuesta preventiva del cuerpo. Experimentarlo de manera intensa o crónica puede traer efectos significativos en la calidad de vida, tanto personal como social. Tres características que definen el dolor son el tiempo (agudo y crónico), el origen (nociceptivo y neuropático) y su ubicación (somático y visceral).
La Asociación Internacional para el Estudio del Dolor (IASP), menciona que el dolor se asocia con daño tisular real o potencial y se considera problemático cuando se presenta de forma crónica. La Organización Mundial de la Salud (OMS) reconoce el dolor crónico como un importante problema de salud pública mundial que afecta entre el 25 y el 29% de la población. En México se estima que el 27% de la población padece dolor crónico.
Las herramientas utilizadas comúnmente para evaluar la intensidad del dolor son subjetivas, ya que sólo consideran la percepción del sujeto del dolor. Debido a que el dolor tiene varios niveles de sensación asociado, es importante diferenciar entre un dolor percibido a nivel donde se aplica o que sea imaginado. En búsqueda de generar un índice de dolor cuantitativo, la estancia de investigación consistió en el análisis de señales fisiológicas registradas durante la aplicación de estímulos dolorosos agudos, para estudiar su respuesta y lograr su caracterización.
METODOLOGÍA
Las señales bajo estudio se obtuvieron de evaluar el dolor por un estímulo mecánico, por lo que se registró en estado de reposo y durante la aplicación de un estímulo doloroso de dos niveles de intensidad en cada mano. En el estudio participaron 12 sujetos, y los dispositivos utilizados para registrar las señales fueron un electroencefalógrafo (EEG-LIPS) y el dispositivo de medición de señales fisiológicas tipo wearable Empática E4. Los estímulos fueron aplicados una vez en la falange distal del dedo índice de manera aleatoria, por medio de un algómetro. En total, se aplicaron 4 estímulos dolorosos sostenidamente durante 10 segundos cada uno con intervalos de 2 minutos entre ellos.
Para procesar las señales obtenidas, primero se realizó la segmentación tanto de las señales electroencefalográficas (EEG, fm=256 Hz) como de las señales obtenidas de la E4 wristband, las cuáles fueron: Volumen de Pulso Sanguíneo (BVP, fm=64 Hz), Actividad Electrodérmica (EDA, fm= 4Hz), Temperatura periférica (TEMP, fm=4 Hz) , Frecuencia cardíaca (HR, fm=1 Hz) y Acelerómetro (ACC, fm=32 Hz). Para sistematizar y agilizar el proceso de segmentación, se desarrolló un algoritmo en MATLAB para dividir la señal por eventos (relajación inicial, estímulo 1, estímulo 2, estímulo 3, estímulo 4 y relajación final) haciendo el cálculo de la duración en segundos de cada evento, tomando como referencia los tiempos de aplicación para cada sujeto, y además considerando la frecuencia de muestreo (fm) de cada señal.Las segmentaciones se guardaron en archivos .mat con nombres específicos para su fácil identificación.
El método de caracterización que se propuso fue un análisis considerando las señales como una variable aleatoria, por lo que se extrajeron las propiedades estadísticas de los segmentos por tipo de señal, para observar que parámetros estadísticos tienen mayor utilidad en la caracterización de los diferentes eventos. Se eligieron los parámetros más frecuentemente utilizados para extraer características relevantes en las señales y que tuvieran poca complejidad computacional, lo cual era importante debido al extenso número de datos a analizar. Los parámetros elegidos fueron: media, mediana, moda, rango, promedio de la primera derivada, desviación estándar, varianza, desviación absoluta media, rango intercuartílico, simetría, curtosis y los parámetros de Hjorth: actividad, movilidad y complejidad. Para calcular estos parámetros a las diferentes segmentaciones de las señales se desarrolló un algoritmo en MATLAB.
Para el primer análisis, se hizo una exploración visual de las respuestas por participante y por parámetro. Para visualizar los resultados, para cada señal se creó en Excel una tabla por parámetro calculado en el segmento, en los que se hace la distinción por sujetos y eventos. Posteriormente, se realizó la estandarizaron de los datos de algunos parámetros asociados a las tendencias centrales que presentaban valores muy similares debido a la tendencia natural del cuerpo de permanecer en homeostasis, con la finalidad de que fueran más apreciables las mínimas diferencias entre eventos. Al final, se crearon gráficas tridimensionales de los datos contenidos en dichas tablas, para facilitar su interpretación.
CONCLUSIONES
El análisis estadístico permitió visualizar los parámetros para diferenciar entre estados en cada una de las señales, y excluir aquellos que no reflejan cambios significativos entre estados. La media, moda, mediana y los parámetros de Hjorth demostraron ser parámetros viables para diferenciar los eventos en la mayoría de las señales. Los parámetros de rango y rango intercuartílico sí permitieron ver algunas diferencias entre eventos, pero usualmente eran muy grandes o mínimas para cada paciente. No se encontró alguna tendencia significativa en la desviación estándar y la desviación absoluta media asociados a los eventos de las señales porque tienden a ser constantes, como la frecuencia cardíaca. Otros parámetros como la simetría y el promedio de la primera derivada no resultaron buenos diferenciadores para ninguna señal al presentar valores muy variables entre eventos, que no permiten alguna interpretación.
Además de los conocimientos prácticos, también se adquirieron conocimientos teóricos sobre protocolos de adquisición de señales, los dispositivos de registro que se utilizan y los métodos de análisis de las características de las señales que son adquiridas.
Bernal Ibarra Maria Danea, Instituto Tecnológico de Tepic
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
REMOCIóN DE METALES PESADOS EN FASE ACUOSA EMPLEANDO CARBONES ACTIVADOS SINTETIZADOS A PARTIR DE RESIDUOS AGROINDUSTRIALES
REMOCIóN DE METALES PESADOS EN FASE ACUOSA EMPLEANDO CARBONES ACTIVADOS SINTETIZADOS A PARTIR DE RESIDUOS AGROINDUSTRIALES
Bernal Ibarra Maria Danea, Instituto Tecnológico de Tepic. Toledo Montesinos Uzziel, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
Actualmente, la contaminación del agua se contempla como uno de los temas vitales a tratar por la Agenda 2030 para el desarrollo sostenible. Su objetivo principal es proteger el planeta, ratificar la prosperidad para todas las personas y asegurar el futuro de las próximas generaciones en la Tierra. Específicamente, el 6to Objetivo de Desarrollo Sostenible (ODS) pretende dar solución a la crisis mundial del agua, mismo que establece garantizar la disponibilidad, gestión sostenible y el saneamiento de este recurso para todos (ODS, 2015). Previamente establecido el panorama de la situación referente a la contaminación del agua, los metales pesados se encuentran en mayor proporción en afluentes de diferentes industrias; entre ellas, la industria minera, la siderúrgica y la petroquímica representan el mayor riesgo en la liberación de estos agentes a cuerpos de agua. La crisis de los contaminantes radica en el riesgo que representan para la salud humana y el daño que causan a los ecosistemas en los cuales existe un afluente de agua contaminada (Escobar, 2002). Para esto se tiene como medida correctiva la adsorción usando materiales sintéticos y naturales como una de las técnicas con mejor desempeño para la remoción de iones metálicos. Entre los materiales naturales con alto potencial de adsorción para este tipo de contaminantes se encuentran las biomasas lignocelulósicas. Dichas biomasas son usadas de forma cruda y como materia prima para la preparación de adsorbentes a base de carbón.
Con base a este planteamiento, en este trabajo se aprovecharon desechos agroindustriales como precursores para la remoción de metales pesados. Entre estos residuos se encuentra el orujo de uva (OU), bagazo de la caña de azúcar (BC), fruto de la jacaranda (FJ) y semilla de guayaba (SG), los cuales no tienen uso alguno en la industria agroalimentaria, por lo que es importante darles una aplicación alternativa para favorecer el ciclo de la economía circular de un modelo sostenible.
METODOLOGÍA
Durante la estancia virtual, el investigador anfitrión compartió material multimedia en el cual se mostró a grandes rasgos el trabajo que se realiza en el laboratorio de investigación de ingeniería y tecnología del agua del Instituto Tecnológico de Aguascalientes. En total se recibieron 7 vídeos, (uno por cada semana) en los cuales se describen las actividades del plan de trabajo. Para poner en práctica los conocimientos adquiridos se obtuvieron los porcentajes de remoción de diferentes metales pesados empleando residuos agroindustriales. A continuación, se describe la metodología tomando como referencia la información proporcionada.
En primera instancia las biomasas se trituraron, tamizaron para obtener un tamaño de partícula entre 0.50 - 0.84 mm y lavaron hasta tener un pH constante del agua de lavado. Los materiales obtenidos fueron modificados fisicoquímicamente bajo diferentes condiciones experimentales. Para evaluar el impacto de las variables involucradas (tipo de biomasa, agente químico, concentración, tiempo de impregnación, temperatura de pirólisis y tiempo de residencia) se planteó un diseño de experimentos (L16 de Taguchi). La modificación química de los precursores se llevó a cabo en un sistema cerrado. Los materiales modificados se pusieron en una estufa para continuar con la activación. El proceso de pirólisis de los materiales impregnados se realizó en un horno tubular. Los adsorbentes obtenidos se emplearon en la remoción de Zn2+, Pb2+ y Hg2. Los experimentos de adsorción se llevaron a cabo durante 24 h en condiciones por lote a pH 5, 30 °C, empleando una relación adsorbente-adsorbato de 2 g/L y soluciones con concentraciones iniciales de 200 mg/L. Una vez que se alcanza el equilibrio, se mide la concentración remanente del metal. La medición de las concentraciones iniciales (C0) y finales (Ce) para los respectivos metales se realiza con un espectrofotómetro Thermo Scientific Ice 3000. La información obtenida para los adsorbentes modificados con ZnCl2 fue proporcionada por el investigador anfitrión y se utilizó para calcular los porcentajes de remoción (R, %) mediante la siguiente ecuación:
R=((C0-Ce)/(C0))*100
Cabe destacar que la secuencia de cálculos se realizó en el software Excel.
CONCLUSIONES
Los porcentajes de remoción de los diferentes adsorbentes fueron de 23.76, 36.65, 40.02 y 42.92 % para SG, FJ, OU y BC, respectivamente. Por otro lado, con respecto a los adsorbatos de interés dicho parámetro presentó la siguiente tendencia Zn2+ < Hg2+ << Pb2+. Para la eliminación de Hg2+ se registró que el adsorbente con mayor potencial de adsorción se obtuvo a partir de SG (con un 27.39 % de remoción). En segundo lugar, se encuentra el BC (26.61 %) seguido del FJ (24.49 %) y el OU (8.70 %), respectivamente. Con respecto al Pb2+ el desempeño de los adsorbentes es el siguiente BC (82.94 %) > FJ (80.76 %) > SG (71.79 %) >> OU (31.03 %). Para el Zn2+ se obtuvieron los siguientes porcentajes de adsorción: 7.98, 7.07, 3.92 y 0.99 % para FJ, BC, SG y OU, respectivamente. De acuerdo con la información proporcionada estos estudios se van a complementar con estudios cinéticos y de equilibrio de adsorción a distintas temperaturas.
Finalmente, se concluye que con la participación en el verano de investigación virtual se logró adquirir conocimientos teóricos de la remoción de metales pesados del agua usando adsorbentes sintetizados a partir de biomasas lignocelulósicas. De acuerdo con lo que se observó en los diferentes videos, en un laboratorio de investigación es relevante la reproducibilidad de los datos experimentales. Por tanto, es importante la aplicación de medidas estrictas en el manejo de equipo de instrumentación analítica y la destreza para manipular el material de laboratorio (por ejemplo: pipetas, matraces volumétricos), con el objetivo de obtener resultados confiables.
REFERENCIAS
J. Escobar. La contaminación de los ríos y sus efectos en las áreas costeras y el mar. CEPAL. 50 (2002) 5-5.
ODS. 2015. Objetivo de desarrollo sostenible. ¿Qué es la Agenda 2030? Recuperado de https://www.gob.mx/agenda2030
Bernal Mora Alejandro, CIAF Educación Superior
Asesor:Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos
FACTORES DETERMINANTES DE LA PRODUCTIVIDAD EN EL DESEMPEñO Y RENDIMIENTO LABORAL HUMANO DE LAS MIPYMES DE BALANCAN TABASCO
FACTORES DETERMINANTES DE LA PRODUCTIVIDAD EN EL DESEMPEñO Y RENDIMIENTO LABORAL HUMANO DE LAS MIPYMES DE BALANCAN TABASCO
Bernal Mora Alejandro, CIAF Educación Superior. Asesor: Dra. Nancy Tass Salinas, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
La productividad laboral humana es el factor con mayor impacto internacional, ya que se basa en el personal de cada microempresa y eso hace que sea mucho más reconocida. muchas de las MiPymes no encuentran los factores que afectan la obtención de un crecimiento óptimo, y por ende muchas llegan a la quiebra. Las MiPymes en Balancán Tabasco México, son artesanales y tienen unas tradiciones antiguas y de alto potencial para ser competentes, pero, para eso tienen que tener una buena productividad y eso se ha visto muy afectado debido a los factores
METODOLOGÍA
Se realizó una investigación mixta y descriptiva de cuántas mipymes existían en el municipio de balancán Tabasco y de antemano también se hizo una investigación para saber cuáles son los factores más influyentes del desempeño y del rendimiento, dónde se encontraron 8 factores de desempeño y 10 factores de rendimiento. Por lo que dio cabida a realizar la investigación para analizar cuáles son los factores determinantes de la productividad en el desempeño y rendimiento laboral humano.
Para ello hubo una encuesta para poder recaudar la información necesaria y así tener buenos resultados.
La encuesta diseñada se aplicó en 18 MiPymes diferente donde un software de análisis de resultados estadístico minitab, obtuvo información relevante dándole una fiabilidad al instrumento y De igual forma cuáles eran las correlaciones entre los factores.
CONCLUSIONES
Cómo resultado de este proyecto se puedo ver cuáles eran los factores más detenidamente y cuáles eran los que más esta afectando a las MyPymes de Balancan y se muestra cuáles fueron los factores más determinantes, el factor de satisfacción de la variable desempeño muestran una buena correlación y de igual forma se obtuvo el factor más correlacionado de la variable Rendimiento que fueron motivación, estructura organizativa, mano de obra y factores ambientales gracias a una matriz de correlación y se desarrollaron estrategias de mejora, con la variable rendimiento tales como. Contar con una política salarial inspirada en un trabajo de análisis y evaluación de los puestos de trabajo, hacer reuniones motivacionales en horas del trabajo sin perjudicar el personal, establecer un correcto organigrama que defina las responsabilidades de cada personal y de la variable desempeño, respetar cada una de las culturas del personal, tener creación de espacios compartidos para que trabajen, en algunas ocasiones ofrecer al personal la posibilidad de gestionar sus horarios y que dispongan de tiempo para asuntos personales y así poder difundir cuáles son esos factores determinantes con los cuales las MiPymes están decreciendo y así poder mejorar el crecimiento y teniendo una buena productividad, para que sea competente y pueda tener el reconocimiento regional, nacional e internacional que amerita.
Bernal Ortega Eduardo de Jesús, Universidad Autónoma de Baja California
Asesor:Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León
ÍNDICE DE SIMILARIDAD EN ESQUEMAS DE PROTECCIóN DIFERENCIAL DURANTE CORRIENTES GEOMAGNéTICAS INDUCIDAS (GIC).
ÍNDICE DE SIMILARIDAD EN ESQUEMAS DE PROTECCIóN DIFERENCIAL DURANTE CORRIENTES GEOMAGNéTICAS INDUCIDAS (GIC).
Bernal Ortega Eduardo de Jesús, Universidad Autónoma de Baja California. Delgado Rodríguez Paul Alberto, Instituto Tecnológico de Tepic. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La protección diferencial es uno de los más efectivos medios de protección de transformadores y otros equipos. En su forma más simple, la protección diferencial dispara al detectar una diferencia entre las corrientes entrantes y salientes dentro de la zona protegida. El relé diferencial puede tener una mayor sensibilidad a las fallas que otros tipos de relés pues opera solamente con la diferencia de la corriente y no con la corriente total que fluye por el circuito.
El índice de similaridad entre dos señales de corriente es obtenido a partir de la formula de Similitud de Cosenos, la cual toma como referencia el ángulo existente entre las dos señales. Como su nombre lo indica, revela la similaridad entre dos formas de onda a partir de una serie de muestras definidas.
METODOLOGÍA
En este proyecto, se explora el uso de índices de similaridad de las formas de onda de corrientes en el dominio del tiempo, con el objetivo de implementarlo en la protección diferencial para la detección de corrientes geomagnéticas inducidas (GIC) en el neutro, y poder desconectar el transformador antes de que falle.
Tormentas solares crean fluctuaciones temporales en el campo magnético de la Tierra causando perturbaciones en los sistemas eléctricos instalados. Al presentarse corrientes geomagnéticas inducidas en los equipos de los sistemas eléctricos de potencia son provocados disturbios, calentamientos, corrientes armónicas y otros fenómenos que afectan los equipos y sus esquemas de protección.
Para comprender el uso de los índices de similaridad se realizaron simulaciones de las diferentes fallas internas por cortocircuito disponibles en el software y herramienta de simulación PSCAD/EMTDC. Para continuar simulando una GIC con una fuente de corriente directa inyectada en el neutro del transformador (Y aterrizada-Y aterrizada).
CONCLUSIONES
Al observar que este modelo detectó y discriminó de forma adecuada los eventos de fallas internas de los de fallas externas, podemos concluir que este método puede ser efectivo en un escenario más complejo como lo puede ser una perturbación del orden de una corriente geomagnética inducida; asegurando así la protección al sistema eléctrico y al desempeño de sus protecciones. Los efectos de las corrientes geomagnéticas que causan en, por ejemplo, un transformador, pueden ser devastadoras y esta herramienta brinda una buena alternativa para detectarla y tratarla como si de una falla interna se tratase.
Bernal Sandoval David Alejandro, Universidad de Colima
Asesor:Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar
TéCNICAS Y APLICACIONES DE MACHINE LEARNING
TéCNICAS Y APLICACIONES DE MACHINE LEARNING
Bernal Sandoval David Alejandro, Universidad de Colima. Asesor: Dr. Juan Carlos Martínez Santos, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El machine learning es un área de estudio dentro de las ciencias de la computación, y específicamente es una rama de la inteligencia artificial que en la última década se ha posicionado como uno de los ejes centrales de la investigación tecnológica.
El propósito de este proyecto es comprender las bases que sustentan el desarrollo del machine learning bajo las perspectivas de clasificación, regresión y agrupamiento. Además, se consideraron métricas bajo las cuales podemos garantizar un mejor desempeño y precisión en la predicción de información, así como el análisis de conjuntos de datos para el entrenamiento de distintos algoritmos.
METODOLOGÍA
Se utilizó una perspectiva cualitativa para la búsqueda bibliográfica de información respecto a los temas abordados. Mientras que para la codificación de los modelos se utilizó una perspectiva cuantitativa, la cual consistió en el análisis de conjuntos de datos para el entrenamiento de algoritmos, para su posterior programación utilizando el lenguaje Python junto con las librerías NumPy, Pandas, Matplotlib y Scikit-learn, y finalmente se analizaron los resultados para validar el desempeño llevado a cabo por los modelos.
CONCLUSIONES
Los enfoques de clasificación, regresión y agrupamiento, son esencialmente la base de algoritmos y modelos más complejos utilizados para el desarrollo de tecnologías de la información y de industria. Observando la información obtenida de la implementación de estos modelos, se puede percibir claramente la versatilidad que posee el machine learning como herramienta digital para la predicción y el manejo de información en un gran número de entornos. Por lo que se espera, y de hecho ya se puede observar, que el machine learning, como parte de la inteligencia artificial, comience a ganar espacio dentro de un sin fin de áreas laborales y de la vida cotidiana.
Por cuestiones de tiempo solo se pudieron abordar estos tres enfoques, y unas cuantas métricas de validación, sin embargo, se espera que con el conocimiento adquirido en la búsqueda de información se le dé continuidad a este proyecto para su futuro uso dentro de una tesis de titulación.
Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramirez Alanis Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las Pymes representan una pieza fundamental para la economía de un país, por ser generadoras de riqueza y son de vital importancia en el impulso al progreso de una sociedad, debido a que inciden en varios sectores económicos.
Este proyecto nace por la imperiosa necesidad de desarrollar plataformas que apoyen la creatividad e innovación en proyectos que
impacten en el ámbito tecnológico y/o social.
InnovaCamping TM es un proyecto que busca nuevas formas de enseñanza en las aulas universitarias, para sensibilizar el área de emprendedores y formulación de proyectos emanados en algunos casos de las aulas y/o de las academias y dirigíos por jóvenes entusiastas, líderes y creativos.
METODOLOGÍA
InnovaCamping TM es un Campamento que consta de una Metodología para generar ideas Tecnológicas y/o Empresariales, en el que durante día y medio alrededor de 50 jóvenes alumnos acampados tienen la oportunidad de adquirir destrezas y aptitudes que a corto y medio plazo les serán de gran utilidad cara a su incorporación al mundo laboral.
Durante el Paso 1, el participante identificará sus principales características que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
En el Paso 2, el participante determinará su nivel de creatividad e innovación para el emprendimiento.
Durante el Paso 3, el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar se premiará a los 2 primeros lugares de acuerdo a lo siguiente:
Primer Lugar: Idea de Proyecto más Innovadora (Diploma y Trofeo a la Innovación)
Segundo Lugar: Equipo Talentoso (Cantidad Mayor en Bonos) (Diploma y Trofeo del Trabajo en Equipo)
CONCLUSIONES
InnovaCamping es una metodología que pretende lograr los siguientes resultados:
Formación de líderes
Formación de mentalidad emprendedora
Generación de ideas de proyectos de impacto tecnológico y social
Durante el verano de investigación del Programa Delfín 2021, se lograron obtener grandes resultados, dado que el conocimiento impatido por el docente Juan José González, nos brindó la oportunidad de ser coach de su modelo de innovación apoyando a más jóvenes a formar ideas de innovación y creatividad.
Aunado a ello, se presentó la oportunidad de participar en un proyecto de la metodología Lean Six Sigma y en un proyecto de Estaciones de trabajo con principios de Antropometría, los cuales son de gran importancia en nuestro programa de aprendizaje.
Berrio Pino Jorge Luis, Dirección Nacional de Escuelas de la Policía Nacional
Asesor:Mg. Sergio Antonio Sanchez Hernandez, Corporación Universitaria Antonio José de Sucre
CARACTERIZACIóN DE ACUMULADORES DE ENERGíA SOLAR EN APLICACIONES MéDICAS RURALES
CARACTERIZACIóN DE ACUMULADORES DE ENERGíA SOLAR EN APLICACIONES MéDICAS RURALES
Berrio Pino Jorge Luis, Dirección Nacional de Escuelas de la Policía Nacional. Asesor: Mg. Sergio Antonio Sanchez Hernandez, Corporación Universitaria Antonio José de Sucre
PLANTEAMIENTO DEL PROBLEMA
En la labor medica se evidencia una falencia relacionada con el uso de las diferentes herramientas para el cumplimiento de dicha misión, lo cual desencadena dificultades a la hora de requerir algunos elementos en zonas rurales, que en muchas ocasiones no cuentan con suministro energético estable, y como consecuencia generan traumatismo en el momento de requerir tales dispositivos que dinamizan la labor médica (Gutiérrez, 2017).
Por otra parte, se puede evidenciar también la ausencia de herramientas que ayuden a determinar el tipo de batería que se pueden usar en estos escenarios.
Cuando llega el momento de profundizar conceptos sobre el rendimiento de una batería, es decir, por ejemplo, cuál es el tiempo de operación (o «runtime«) del que disponemos antes de que se agote y requiera una recarga, el tema ya no es tan simple. Esto es porque el rendimiento no sólo depende de muchos factores prácticos y de diseño, sino además porque no existe un parámetro específico ni tampoco la industria ha establecido uno para determinar dicho rendimiento. (Demaquinasyherramientas.com, 2018).
METODOLOGÍA
Para el estado colombiano es de vital importancia cerrar las brechas relacionadas con el acceso a la salud en áreas rurales, sin embargo, no se cuentan con sistemas energéticos suficientes para el uso de equipos tecnológicos, debido a la inestabilidad del servicio de energía en estas zonas, por tal motivo se optó por investigar sobre las baterías adecuadas para su funcionamiento por lo que el componente innovador de la propuesta es poder determinar qué tipo de batería es el más apropiado para estas aplicaciones.
CONCLUSIONES
RESULTADOS
Producto de la investigación se desarrolló una tabla, con el fin de identificar qué tipo de baterías son recomendables según la zona de Colombia, donde se va a utilizar y las características propias de cada acumulador de energía, en la cual se puede observar una amplia información y las respectivas sugerencias para su aplicación en el lugar donde se deseen poner en funcionamiento.
TIPO DE BATERÍA
Plomo
Ciclo de vida: Largo: más de 1200 cargas
Auto-descarga: Alta: 90%
Tiempo de carga óptima: Moderado
Mantenimiento: Alto
Efecto memoria: Alto
Sensibilidad: Alto: a temperaturas bajas
Rango de temperatura de operación: -20°C a 55°C
Rango humedad ambiental de operación: 4 ~ 100%
Áreas del territorio colombiano donde se puede aplicar su uso
En cualquier parte del territorio colombiano, aunque se recomienda optar por otro tipo de batería en las zonas a más de 4.500msnm de altitud teniendo en cuenta su sensibilidad al frio, estas son: Nevado del Tolima, Nevado del Huila, Nevado del Ruiz, Nevado del Quindío Nevado d del Quindío, Ritacuba Blanco, Pico Simón Bolívar, Pico Cristóbal Colón.
TIPO DE BATERÍA
Ni-CD
Ciclo de vida: Largo: más de 1000 cargas
Auto-descarga: Moderada: 15% a 20%
Tiempo de carga óptima: Rápido
Mantenimiento: Alto
Efecto memoria: Alto
Sensibilidad: Resistente
Rango de temperatura de operación: -50°C a 50°C
Rango humedad ambiental de operación.: 65% ± 20%
Áreas del territorio colombiano donde se puede aplicar su uso
En cualquier parte del territorio colombiano,
TIPO DE BATERÍA
Ni-MH
Ciclo de vida: Largo: más de 1000 cargas
Auto-descarga: Rápida: entre 20% y 30%
Tiempo de carga óptima: Rápido
Mantenimiento: Moderado
Efecto memoria: Moderado
Sensibilidad: Sensible a temperaturas extremas
Rango de temperatura de operación: -10°C a 40°C -
Rango humedad ambiental de operación.: 60% ± 20%
Áreas del territorio colombiano donde se puede aplicar su uso
En cualquier parte del territorio colombiano, aunque se recomienda optar por otro tipo de batería en las zonas a más de 4.500msnm de altitud teniendo en cuenta su sensibilidad al frio, estas son: Nevado del Tolima, Nevado del Huila, Nevado del Ruiz, Nevado del Quindío Nevado d del Quindío, Ritacuba Blanco, Pico Simón Bolívar, Pico Cristóbal Colón. Y en zonas con altitudes menores a 1.000msnm lo que comprende la alta guajira: Riohacha, Maicao, Manaure, Uribia.
TIPO DE BATERÍA
Li-ion
Ciclo de vida: Largo: más de 2000 cargas
Auto-descarga: Casi nula
Tiempo de carga óptima: Moderado
Mantenimiento: Ninguno
Efecto memoria: Ninguno
Sensibilidad: Sensible al calor y al impacto
Rango de temperatura de operación: -20°C a 55°C
Rango humedad ambiental de operación: 50% ± 20%
Áreas del territorio colombiano donde se puede aplicar su uso
En cualquier parte del territorio colombiano, recomienda optar por otro tipo de batería en las zonas menores a 1.000msnm lo que comprende la alta guajira: Riohacha, Maicao, Manaure, Uribia.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los diferentes tipos de baterías que existen en el mercado, así como sus características, con el fin de determinar en que aplicaciones se pueden utilizar teniendo como objetivo los sistemas fotovoltaicos aplicado a las diferentes zonas de Colombia en aplicaciones médicas rurales.
Betancourt Pérez Briseida, Universidad Autónoma de Guerrero
Asesor:Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
Betancourt Pérez Briseida, Universidad Autónoma de Guerrero. Morales Granadillo Juanpablo, Universidad de la Guajira. Redondo Pinto Pinto Jhandra Mishelle, Universidad de la Guajira. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La inestabilidad de taludes es un problema que afecta a Colombia y a una multitud de personas generando la pérdidas de vidas humanas, así como económicas debido a las zonas de alto riesgo debido a los distintos fenómenos de erosión que se presentan por las altas pendientes de las laderas creadas por la misma naturaleza. Suarez (2020) Este problema actual ocurre cuando encontramos una pendiente muy inclinada donde es muy difícil o imposible evitar que ocurran deslizamientos de las masas de suelos, de la misma forma ocurren diversas formas de degradación del suelo como la erosión, la salinización y la desertificación, se presentan altos grados de desgaste en estos suelos se puede notar el resultado de la alteración por agua, la cual se da a causa de que están expuestos debido a la omisión de manto vegetal y de esta manera la precipitación cae justo sobre ellos formando el desgaste.Dicho fenómeno puede producir daños considerables a aquellas obras contiguas como por ejemplo, las vías generando una obstrucción que lleva a afectar el normal funcionamiento de la misma impidiendo la movilidad y con esto afectando en las actividades comerciales de aquellas poblaciones vecinas, en el caso de haber población en el área afectada estos habitantes también podrían correr grandes riesgos al estar presente en el momento que ocurran los deslizamientos, flujos o avalanchas, el material que se desplaza puede además ser un obstáculo en el caso de existir fuentes hídricas debido a que bloquearía el curso de dichas fuente provocando así inundaciones.La investigación tiene como criterio el priorizar debido a que el fenómeno a investigar tiende a poner en riesgo la vida y la seguridad de las personas y es innovador debido a que la solución que por lo general escogen tienden a cambiar o alterar la estructura natural del medio mencionado, entonces optando por una solución que es amigable con el ambiente y poco usual, podríamos reducir ese impacto, ubicando esta propuesta para remediar los problemas globales con el objetivo de desarrollo N° 9 INDUSTRIA, INNOVACIÓN E INFRAESTRUCTURA.
METODOLOGÍA
En general, la estabilidad del talud esta determinada por factores geométricos, como su altura e inclinacion; factores geologicos; hidrogeologicos; y geotécnicos. De esta manera, la combinacion de los 4 factores anteriores puede determinar la condicion de rotura del terreno en algun tipo de superficie, permitiendo el movimiento de la masa contenida en dicha superficie.
Bien es sabido que factores como los terremotos son causa importante de deslizamientos, especialmente, en las zonas costeras de Chile, como ocurre con el caso en estudio.
2. Movimientos del terreno
La forma de clasificar los distintos movimientos de masas de tierra depende si se trata de suelos o rocas. Por otra parte, en estas clasificaciones se considera el mecanismo y tipo de rotura, conjuntamente con otros aspectos, tales como el contenido de agua en el terreno, la velocidad y magnitud del movimiento, entre otros.
Los tipos de movimientos se pueden clasificar en: deslizamientos, flujos y desprendimientos.
3. Superficie de rotura en un deslizamiento rotacional
Cuando se han producido movimientos que tienden a la falla, los analisis a posteriores (geo5) cobran importancia, puesto que se conoce el mecanismo, modelo y geometria de la inestabilidad. Es un analisis muy util para la caracterización geomecanica de los materiales involucrados, para el estudio de los factores influyentes en la rotura y para conocer el comportamiento mecanico de los materiales del talud; los resultados obtenidos pueden ser extrapolados a otros taludes de similares caracteristicas. Estos analisis consisten en determinar, a partir de los datos de terreno necesarios (geometria, tipos de materiales, modelo de rotura y presiones hidrostaticas, entre otros), los parametros resistentes del terreno, generalmente pares de valores c y Φ, que cumplan con la condicion de equilibrio estricto del talud (FS = 1)
CONCLUSIONES
Tras finalizar nuestra estancia de investigación hemos analizado diferentes tipos de taludes con distintas geometrías y materiales desde suelos arcillosos, rocas y brechas volcánicas, lo cual nos permitió estudiar el comportamiento de acuerdo a diferentes situaciones y obtener un factor de seguridad que determina que tan inestable o estable es el talud estudiado, esto mediante dos softwares especializados en la estabilidad de taludes como lo son Geo5 y Geo Studio.
En nuestro primer análisis de un suelo con de una clasificación MH, se llegó a apreciar su inestabilidad al no cumplir con un factor estipulado en las normas de 1.5, dado esto se propusieron varios métodos para poder estabilizarlo como lo es escalonar el talud y disminuir su ángulo de inclinación. De igual forma, se analizó otro talud conformado por dos materiales, estos variaban de la siguiente forma suelo-roca, roca-brecha volcánica, brecha volcánica-roca y por último estrato de arcilla y brecha volcánica, en este segundo caso con estos tipos de suelos se logró observar estabilidad debido a que la roca y la brecha volcánica aportaban estabilidad al ser totalmente rígidos.
Por otro lado, durante el verano de investigación científica se adquirieron nuevos conocimientos geotécnicos que son valiosos en el ámbito laboral para evitar accidentes y facilitar la construcción de obras civiles como carreteras, edificios, represas, entre otros, los cuales debemos conocer para la eficacia de nuestro trabajo como futuros ingenieros.
Bibiano Cortés Karla Vanessa, Instituto Tecnológico de Acapulco
Asesor:M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
METODOLOGíA PARA LA GENERACIóN DE UN MODELO MATEMáTICO DE ANáLISIS DE DEPRESIóN: CASO DE ESTUDIO CHATBOT CON TEST DE HAMILTON MEDIANTE IA.
METODOLOGíA PARA LA GENERACIóN DE UN MODELO MATEMáTICO DE ANáLISIS DE DEPRESIóN: CASO DE ESTUDIO CHATBOT CON TEST DE HAMILTON MEDIANTE IA.
Bibiano Cortés Karla Vanessa, Instituto Tecnológico de Acapulco. Gómez Figueroa Andrés, Universidad de Guadalajara. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desarrollo de un prototipo de chatbot y modelo matemático de Deep Learning enfocado al diagnóstico de la depresión en jóvenes y adultos utilizando redes neuronales para predecir la puntuación del usuario en la Hamilton Depresion Rating Scale (HDRS), y con base en el resultado realizar un diagnóstico preliminar de depresión.
Se busca el análisis profundo del comportamiento de las personas que tienen el trastorno de depresión, para buscar alternativas de solución para que las personas puedan mejorar su estilo de vida. Se ha pensado que el desarrollo de este proyecto pueda ayudar a muchas personas a la detección temprana de enfermedades mentales y emocionales.
Carecer de salud psicológica puede ocasionar en los individuos males fuertes como la depresión, este es un trastorno emocional que causa un sentimiento de tristeza constante y una pérdida de interés en hacer diferentes ocupaciones. También denominada «trastorno depresivo mayor» o «depresión clínica», afecta los sentimientos, los pensamientos y el comportamiento de una persona, y puede causar una variedad de problemas físicos y emocionales.
Nuestro proyecto explorará las posibilidades de tecnologías como Inteligencia Artificial haciendo uso de un chatbot, para entender y promover la salud mental, este será capaz de detectar indicios de depresión en las personas y calificar que tan probable o no es que esa persona desarrolle esa enfermedad con predicciones de la puntuación del usuario en el test de Hamilton Depresion Rating Scale (HDRS).
METODOLOGÍA
Para el desarrollo de este proyecto seguimos la fase de la Investigación Aplicada, la cual fue guía para llevar a cabo acciones y obtener nuestros resultados. Se diseñará una pequeña web para implementar el chatbot y experimentar con este mismo, será sencillo y se pretende que desde este sitio se pueda acceder al agente con el que interactuará el usuario final. Las mediciones se harán con Machine Learning como motor de inferencia basado en algoritmos de aprendizaje supervisado por expertos clínicos multidisciplinares. La limitante es que el usuario no puede enviar respuestas abiertas, sino seleccionar un conjunto de opciones predeterminadas.
Herramientas:
-Lenguaje de programación: Python 3.9.0
-Editor de código: Visual Studio Code
-Plataforma de desarrollo colaborativo: Github -Infraestructura de Chatbot: Watson Assistant (IBM)
-Librería para entrenamiento de datos: Tensorflow (Google)
-Librería para diseño de sitios web: Bootstrap.
Extraer los datos muestra recopilados de la encuesta
Con ayuda de la herramienta de Google Forms realizamos nuestras preguntas basadas en el Test de Hamilton y la pusimos al público, donde capturamos un total de 206 datos.
Posteriormente los pasos fueron:
-Dividir los datos para el entrenamiento, validación y prueba.
90% dataset para pruebas
10% dataset para validación
-Definir las métricas para la precisión del modelo.
Modelado predictivo de regresión
El modelado predictivo es el problema de desarrollar un modelo utilizando datos históricos para hacer una predicción sobre nuevos datos donde no tenemos la respuesta. En nuestro caso la métrica elegida para evaluar y reportar el desempeño de el modelo de regresión fue el error absoluto medio.
Elaboración del chatbot con IBM Watson
Se desarrolló un chatbot utilizando el servicio de IBM Cloud llamado Watson Assistant, el asistente fue llamado Hamilton. De acuerdo a la documentación de los asistentes de Watson Assistant, este debe contener al menos una skill para interactuar con el usuario. Se escogió agregar una skill del tipo actions, debido a que es la más rápida de implementar y cuenta con todas las funciones que requieren nuestro chatbot, tales como consultas condicionadas y variables de entorno.
Al comenzar la interacción con el agente, este saluda al usuario y explica brevemente que para ayudar a conocer si este padece depresión debe hacer algunas preguntas, en caso de que el usuario no esté de acuerdo, el asistente se despide y termina la interacción, de lo contrario la prueba de Hamilton comienza.
La acción de hacer el test consta de 23 pasos, los cuales contienen las 16 preguntas, 2 pasos que calculan la puntuación final del usuario y la muestran en la conversación, y los 5 restantes corresponden a las respuestas condicionadas a la puntuación final del usuario, es decir, el diagnóstico que el asistente realizó con base en las respuestas del usuario y su nivel predicho de depresión.
El asistente contiene además, 17 variables, las cuales corresponden a cada una de las 16 respuestas que el usuario dará en el test de Hamilton y una más para la puntuación final correspondiente a la suma de los puntos.
CONCLUSIONES
Este proyecto propone una vía útil para que cualquier persona que lo requiera tenga la capacidad de recibir un diagnóstico preliminar acertado acerca de si padece o no algún nivel de depresión. Este diagnóstico está dado por la comunicación trilateral entre el paciente, el chatbot y la red neuronal artificial, y basado en su totalidad en un test bien fundamentado y utilizado ampliamente como lo es la escala de depresión de Hamilton (Hamilton Depression Rating Scale). Este proyecto tiene la posibilidad de ser escalado, utilizando un agente de chatbot ajeno a IBM Watson, desarrollándolo desde cero y con las necesidades específicas en mente, además esto representa la posibilidad de tener una integración completa entre la red neuronal y el chatbot.
También podemos decir que el desarrollo de tecnologías asociadas con las técnicas de inteligencia artificial (IA), aplicadas a la medicina, representa una novedosa perspectiva, que puede reducir los costos, el tiempo, los errores médicos; enfocándolo en este caso al diagnóstico temprano de enfermedades emocionales y psicológicas, también usar la IA para potenciar el uso de recurso humano en ramas médicas y demás.
Bibiano Guadarrama Jesus Alberto, Universidad de Guadalajara
Asesor:M.C. Juan Carlos Aquino Hernández, Universidad Tecnológica de Nayarit
CELDAS FOTOVOLTAICAS A BASE DE TIO2 Y TIZNE DE MADERA
CELDAS FOTOVOLTAICAS A BASE DE TIO2 Y TIZNE DE MADERA
Bibiano Guadarrama Jesus Alberto, Universidad de Guadalajara. Asesor: M.C. Juan Carlos Aquino Hernández, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
Uno de los principales problemas que se vive en la actualidad es la alta demanda de energía eléctrica que año con año va en aumento, y así mismo, las consecuencias que se derivan del uso excesivo de fuentes de energía fósil. Por lo que cada vez es mas importante optar por otro tipo de alternativas, como lo son las energías renovables, las cuales están tomando una gran importancia hacia el futuro de la generación de energía. Entre una de la más utilizadas actualmente se encuentra la energía fotovoltaica, la cual tiene como principal objetivo aprovechar la radiación solar a través de un dispositivo semiconductor mejor conocido como celda fotovoltaica para posteriormente convertirla en energía eléctrica.
Actualmente la fabricación de celdas solares se basa principalmente en el silicio poli y monocristalino, sin embargo, en estas tecnologías se utilizan procedimientos costosos y complejos y que también utilizan como materia prima elementos que son poco abundantes o incluso tóxicos, por lo que se siguen investigando cada vez más nuevos materiales y procedimientos que hagan el desarrollo de las celdas menos complejas y más accesibles para distintos usos.
El óxido de titanio (TiO2) es uno de los materiales con los que más se ha experimentado debido a que es un semiconductor al igual que el silicio, pero ofrece como ventajas ser un material de bajo costo, no toxico y estable. Este tipo de celdas, aunque aún no son competitivas económicamente frente a las tecnologías anteriores, tienen una gran proyección a futuro por las ventajas ofrecidas.
METODOLOGÍA
Se utilizaron 10 g de óxido de titanio y 4 g de serrín refinado (Tizne de madera) para la realización de las placas, primeramente, se mezclaron estos reactivos con 30 ml de etanol durante 10 minutos cada uno, se formaron dos pastas de diferentes color y textura, una vez que se formaron las dos sustancias las mezclamos durante otros 15 minutos hasta formar una pasta homogénea.
Para este experimento, se utilizaron 4 placas de vidrio de 10x10 cm de las cuales a cada una de ellas se les encontró la polaridad correspondiente con un multímetro. Ya identificada la polaridad de cada placa de vidrio, en el lado positivo de la placa se procedió a añadir la sustancia preparada mediante un método de pincel, en el que se recubrió el vidrio con 8 capas de la sustancia preparada y posteriormente se dejo secar durante 15 minutos.
Una vez que se secaron muy bien las placas, se procedió a llevarlas a un horno en donde se les elevo la temperatura a 500°C durante un tiempo de 30 minutos. Después, poco a poco se fue disminuyendo la temperatura del horno hasta alcanzar una temperatura ambiente. Posterior a eso se procedió a realizar las pruebas correspondientes, como medición de voltaje con el multímetro, para comparar con los resultados esperados en la teoría.
CONCLUSIONES
En esta estancia de verano pude adquirir conocimientos acerca del proceso y principio de funcionamiento de las celdas solares convencionales de silicio, así como también entender la estructura de los materiales que los componen, porque es que estos se utilizan y como es que se están investigando y desarrollando actualmente nuevas tecnologías y materiales como lo es el TiO2, para así mejorar la eficiencia de estas celdas y estas sean utilizadas en diferentes áreas donde actualmente no se pueden utilizar por sus elevados costos y poca rentabilidad.
Como resultado se puede observar que al colocar el gel de Tio2 y Tizne de madera, en el cristal de 10x10 y después llevarlo a un proceso de calentamiento térmico a 500 C, se comprueba que existe conductividad al exponer al sol con un ángulo de 20ª grados la placa de vidrio y 11:30 am de la mañana, midiendo con el multímetro 10.8 mV.
Bilbao Palacio David Esteban, Corporación Universitaria Americana
Asesor:M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla
TéCNICAS DE INTELIGENCIA ARTIFICIAL Y CIBERSEGURIDAD PARA LA PREDICCIóN DE
SISMOS EN MéXICO
TéCNICAS DE INTELIGENCIA ARTIFICIAL Y CIBERSEGURIDAD PARA LA PREDICCIóN DE
SISMOS EN MéXICO
Bilbao Palacio David Esteban, Corporación Universitaria Americana. Asesor: M.C. Ana Claudia Zenteno Vázquez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Existen momentos en los que nos damos cuenta de que vivimos en un mundo de máquinas, equipos de cómputo de diferentes clases, formas y tamaños, con una gran diversidad de características. Estas máquinas también están acompañadas de sus respectivas "mentes". Es en este sentido, que la ciencia llamada inteligencia artificial, se ha dado por objetivo el estudio y el análisis del comportamiento humano. De esta manera, las aplicaciones de la IA s sitúan principalmente en la simulación de actividades intelectuales del hombre. Es decir, imitar por medio de máquinas, llegar a mejorar las capacidades humanas en estos aspectos. La lógica es el estudio de la validez de un argumento. La lógica clásica o bivalente fue desarrollada por Aristóteles y reconoce solo los valores de verdad o falso para cualquier posición. En 1920 jan Lukasiewicz propuso una lógica trivalente para incluir proposiciones verdaderas, falsas e indeterminadas. Luego a inicios de 1930 desarrollo una lógica de infinitos valores y tras ese esfuerzo se han desarrollado las lógicas polivalentes o multivaluadas. Una de estas lógicas polivalentes es la lógica es la lógica difusa desarrollada en 1965 por Lofti Zadeh, quien le asigna a una proposición verdaderas, falsas e indeterminadas.Zadeh la definió como"un sistema que proporciona una vía natural para tratar los problemas en los que la fuente de impreciso es la ausencia de criterios claramente definidos de tipos se pertenecía". El aprendizaje automático es un tipo de IA que proporciona a los equipos la capacidad de aprender sin ser programada de forma explícita.El aprendizaje automático se centra en el desarrollo de programas informáticos que pueden enseñar a sí mismo y cambiar cuando se exponen nuevos datos.Tensorflow e una herramienta ampliamente utilizada para la aplicación de aprendizaje profundo, Es una biblioteca de software libre, desarrollada por Google Brain dirigida al aprendizaje automático por medio de grafos computacionales como flujo de datos,los nodos del gráfico representa operaciones matemáticas y los bordes del grafo son el conjunto de datos multidimensionales llamados "tensores".Actualmente las técnicas de inteligencia artificial aprende sobre el mundo real con la ayuda de los recursos computacionales.Un sismo es un sismo es un fenómeno de sacudida brusca y pasajera de la corteza terrestre producida por la liberación de energía acumulada en forma de ondas sísmicas, México se encuentra en el continente americano ubicado e el subcontinente de centro América limitando el norte con estados unidos,el sur con Guatemala y Belice,un país que está entre el océano pacífico el mar caribe.El anillo de fuego ocurren muchas erupciones volcánicas y terremotos.Es un cinturón en forma de herradura de unos 40.000 Km de largo y hasta unos 500 km de ancho.El propósito de este trabajo es identificar las técnicas de IA y ciberseguridad utilizadas en la predicción de sismos en trabajos actuales.
METODOLOGÍA
Entre el 30 de mayo y el 20 de julio de 2021,el servicio Sismológico Nacional ha reportado 1,069 sismos que conforman este reporte se obtienen al consultar el catálogo del SSN utilizando una circunferencia de 30 km de radio centrada en las coordenadas 19.43° latitud N y 102.17° longitud w. EN el año 2020,el servicio sismológico nacional registro otro enjambre sísmico en la misma región entre las fechas del 5 de enero al 10 de marzo de 2020,en el cual se reportaron 3,666 sismos y posteriormente la actividad sísmica disminuyo durante el resto del año. Sin embargo, a finales de mayo de 2021 se reanudó la actividad en la región. El objetivo del proyecto citado es predecir la posibilidad de que ocurra un evento sísmico y las características de minimizar daños del territorio ecuatoriano debido a que la aparición de un terremoto imprevisto es causante de daños estructurales y sociales dependiendo de su magnitud, por lo que, se aplicaron las técnicas de Redes Neuronales y regresión logística. Las investigaciones que se relacionan con la detección de las señales de origen Sismo-volcánico establecen diferentes métodos el tipo de procesamiento de las señales para la extracción de patrones, considerando varios parámetros. Las RNA de aprendizaje profundo muestran resultados prometedores en el análisis del tráfico de red HTTPS para buscar actividades maliciosas. Esto es muy útil para hacer frente a muchas amenazas cibernéticas como las inyecciones SQL y los ataques DOS.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimiento teórico de inteligencia artificial y ponerlos en práctica con la herramienta tensor Flow, que ha resultado adecuada, ya que se logró implementar tres ejercicios alimentándolos de base de datos. Sin embargo, no se pueden mostrar los datos obtenidos para analizar los datos de sismos en México. En la obtención de datos de los sistemas de espera asegurar la integridad de los datos, por lo que el análisis de tráfico en la red es vital, sobre todo cuando se emplean bases de datos con grandes cantidades de información. Se espera en una siguiente etapa completar el entrenamiento con obtención de más datos sismológicos y otras instituciones que puedan proveer datos para brindar un mejor entrenamiento a los algoritmos de inteligencia artificial propuesto.
Blanco Soriano María Alexandra, Instituto Politécnico Nacional
Asesor:Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
DESARROLLO DE UN SISTEMA WEB DE APRENDIZAJE DE INGLéS PARA PERSONAS CIEGAS
DESARROLLO DE UN SISTEMA WEB DE APRENDIZAJE DE INGLéS PARA PERSONAS CIEGAS
Blanco Soriano María Alexandra, Instituto Politécnico Nacional. Mendoza Martinez Maria Isabel, Universidad de Sonora. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
PLANTEAMIENTO DEL PROBLEMA
Durante los últimos años se ha visto que la tecnología digital ha revolucionado la manera tradicional de dar clases, brindándole ahora la posibilidad al usuario de gestionar su propio aprendizaje y de volverse autodidacta. Sin embargo, este beneficio no es igual para todos los sectores de la población, ya que ciertos grupos son usualmente minimizados y sus necesidades se ven ignoradas al querer aprender nuevas técnicas y obtener nuevos conocimientos. Dentro de estas categorías entran las personas con discapacidad visual o ceguera, los cuales se ven obstaculizados en el aprendizaje ya que las tecnologías que se utilizan en la actualidad no fueron, en su mayoría, desarrolladas con el fin de ser accesibles para estos usuarios. Para superar estas barreras, se plantea desarrollar un sistema web de aprendizaje del idioma inglés que sea accesible para personas con discapacidad visual utilizando métodos de experiencia de usuario para evaluar la estructura del mismo.
METODOLOGÍA
El estudio se dividió en 5 fases: análisis, diseño, desarrollo, pruebas con los usuarios y lanzamiento. Dentro de la fase de pruebas, los métodos de experiencia de usuario utilizados fueron Card Sorting y Thinking Aloud, los cuales se aplicaron de manera remota, y contaron con una participación de 4 voluntarios ciegos con un nivel mínimo de experiencia con dispositivos móviles.
CONCLUSIONES
A partir de los datos obtenidos se diseñó un prototipo a bajo nivel de las tareas y subtareas con las cuales cuenta el sistema, el cual utiliza texto a voz para que los usuarios puedan navegar dentro de él, al igual que se implementa un número mínimo de botones para favorecer la experiencia del usuario. Al trabajar con tecnologías accesibles es importante no solo considerar el aspecto técnico al desarrollar estos sistemas, sino que se deben tener en cuenta las diferencias que existen en el proceso de aprendizaje de una persona ciega comparadas con el de alguien sin esta discapacidad visual; por esto mismo, durante la investigación, se buscó que ésta fuera diseñada bajo la correcta interacción entre el estudiante y el material que se está aprendiendo.
Se recomienda a investigaciones futuras trabajar con una versión para dispositivos móviles del sistema que cuente con retroalimentación vibratoria.
Blanco Vergara Juan David, Corporación Politécnico de la Costa Atlántica
Asesor:Dr. Raul Paz Alvarez, Instituto Tecnológico Superior de Uruapan
INTERNET DE LAS COSAS CON EL MICROCONTROLADOR PHOTON Y NODEMCU
INTERNET DE LAS COSAS CON EL MICROCONTROLADOR PHOTON Y NODEMCU
Blanco Vergara Juan David, Corporación Politécnico de la Costa Atlántica. Asesor: Dr. Raul Paz Alvarez, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Teniendo en cuenta las necesidades tecnolócias pertinentes en la sociedad en diferentes aspectos que rigen nuestro diario vivir, surge la necesidad de hacer uso del control tecnologico IOT para facilitar y mejorar necesidades que requieran la sociedad como el ambiente Domótico, seguridad, industrial, agrícola, médico, robótico, etc. y de ello el conjunto de placas con electrónica y conexión con softwares necesarios para resolver dichas necesidades IOT como en el caso de la nodeMCU y el uso del protocolo MQTT en nodejs para realizar el control y recepción de datos de dichas implementaciones tecnolocias que compraten electrónca y software
METODOLOGÍA
La realización de los procesos y resolvimiento de problemas IOT fueron realizados haciendo uso de materiales teóricos y experimentos de los procesos relacionados para la realización de cada implementación IOT necesarias haciendo uso de la placa nodeMCU y la photon y uso programático de arduino y nodejs con protocolos MQTT mosquito. En donde se llevaron acabo y se resolvieron las necesidades planteadas de manera correcta y precisas.
CONCLUSIONES
De las anteriores investigaciones haciendo uso del énfasis teorico y experimental se logró entender más el mundo del IOT, aprender y analizar problemas y necesidades cotidianas en los ambientes de la sociedad en un punto de vista haciendo uso de soluciones IOT con la implementación de placas, electronica y programación pertinentes para abordar cada necesidad, aprender y entender también pros y contras de usos de herramientas IOT similares e surgimiento de ideas para inovar en el mundo de la tecnologia,
Bonilla Gómez Hilen Camila, Universidad La Gran Colombia
Asesor:Dr. Juan Fernando López López, Universidad Católica de Pereira
PROTOTIPO DE BARRERAS VERDES SOBRE LOS SEPARADORES EN VíAS COMO ELEMENTO DE DISMINUCIóN DE DIóXIDO DE CARBONO PARA TRANSEúNTES DE LA CIUDAD DE TOLUCA.
PROTOTIPO DE BARRERAS VERDES SOBRE LOS SEPARADORES EN VíAS COMO ELEMENTO DE DISMINUCIóN DE DIóXIDO DE CARBONO PARA TRANSEúNTES DE LA CIUDAD DE TOLUCA.
Arteaga Gonzàlez Ana Carolina, Instituto Tecnológico de Toluca. Bonilla Gómez Hilen Camila, Universidad La Gran Colombia. Asesor: Dr. Juan Fernando López López, Universidad Católica de Pereira
PLANTEAMIENTO DEL PROBLEMA
La contaminación del aire tiene que ver con el grado de concentración de sustancias o contaminantes atmosféricos, es una alteración en los niveles de la calidad del aire debido a emisiones naturales, químicas o biológicas, actualmente la contaminación por la combustión de los hidrocarburos ocupa el primer lugar en contaminación en las ciudades de los países industrializados
Los vehículos motorizados por medio del combustible líquido generan compuestos contaminantes PM (micro partículas), el uso desmedido y no regularizado de vehículos, además por la gran cantidad de uso especialmente en Latinoamérica ha generado un aumento significativo en el calentamiento global.
En el centro del estado de México se encuentra la ciudad de Toluca, tiene una densidad de 2.133 habitantes por 1 Km², donde solo el 66% de la población tiene algún tipo de afiliación a la salud, la problemática es la causa de muertes por las enfermedades respiratorias generando 233 casos por año, el enfoque principal es mitigar los problemas de contaminación respiratorios.
METODOLOGÍA
Analizando la problemática planteada comenzamos con la investigación que sustenta nuestro trabajo, y nos aporta para darle una solución eficaz y eficiente al mismo.
Una infraestructura es aquella que es realizada por humanos, donde ellos mismos diseñan y dirigen, todo esto siendo profesionales de Ingeniería, Urbanismo, entre otras. De esta manera nos encontramos con las llamadas infraestructuras verdes las cuales tienen como objetivo mejorar los aspectos ambientales alrededor como lo son la calidad del aire, la reducción de temperatura, el estrés en horas pico en las grandes ciudades, entre otros, estas se encuentran compuestas por vegetación.
Centrados en la ciudad de Toluca nos encontramos con grandes infraestructuras que son pioneras en la contaminación del aire, entre las que destacan Paseo Tollocan, José Ma. Morelos, Venustiano Carranza, Isidro Fabela, Valentín Gómez Farías, Independencia, Paseo, José Ma. Pino Suárez, Jesús Carranza y Nezahualcóyotl, por mencionar algunas.
Toluca aloja 10 zonas industriales muy importantes, en consecuencia de las actividades que se realizan para la elaboración de sus procesos, contribuyen en gran parte en la contaminación del aire, debido a la logística que se realiza dentro y fuera de los corredores industriales; siguiendo con nuestra investigación encontramos los principales tipos de contaminación que repercuten en la en la calidad del aire en Toluca.
La zona metropolitana del Valle de Toluca, la erosión de los suelos y zonas agrícolas, las vialidades sin pavimentar y emisiones vehiculares son las responsables de emitir las partículas menores a 10 micrómetros (PM10).
Las fuentes móviles emiten partículas finas o menores a 2.5 μg/m3.
El Ozono es un contaminante secundario producto de la reacción fotoquímica entre los Compuestos Orgánicos Volátiles (COV) y los Óxidos de Nitrógeno (NOX) emitidos principalmente por los vehículos.
La principal fuente de emisión a la atmósfera de los Óxidos de Nitrógeno (NOX) es por los vehículos automotores.
Relacionamos las causas de muertes por enfermedad con tipos de contaminantes la principal causa es la polución, ya que genera compuestos orgánicos volátiles y partículas ultra finas que llegan a los bronquios afectando el sistema cardiovascular y respiratorio formando enfermedades como bronquitis, asma y enfisema que mal manejadas causan fallecimientos.
Las otras causas son las enfermedades respiratorias agudas con efectos virales por medio de los cambios de temperatura, ocasionados por los niveles elevados de contaminación durante el periodo de invierno y escasez de lluvias, formando fenómenos meteorológicos como es la niebla tóxica (smog) y la lluvia ácida.
Se presenta una solución de impacto positivo a favor de la sociedad, acogiendo la arquitectura biomimética como estudio del entorno adaptándose a la cotidianidad urbana de Toluca. Se implementan las barreras verdes que ocupan espacios desaprovechados y agregan un valor estético, para mejorar la calidad del aire y aislante sonoro.
La estructura de la barrera verde está prototipado con un sistema de auto montaje, donde se plantea un boceto de corte láser para la estructura de módulos que se encaja con muescas, impresión 3D para las uniones y unas bolsas en tela geotextil para la ubicación de vegetaciones.
Tras el proceso de consulta elegimos las plantas epifitas y líquenes como fijadoras de carbono que efectúan un buen proceso de fitorremediación donde absorben los contaminantes por medio de la raíz, ayudando a mejorar la calidad del aire en zonas localizadas, donde 1 m² de barrera verde metodizar 35 kg de dióxido de carbono, ayudando a mitigar el principal contaminante en la atmósfera y principal causa de gases efecto invernadero (GEI).
CONCLUSIONES
A medida que la estancia de verano fue avanzando, se logró adquirir conocimientos de las etapas de prototipos 3D en diseño industrial y como se han aplicado en un proyecto real de jóvenes investigadores, sobre respiradores no descartables como elemento de protección para agentes de tránsito, además de la profundización de metodologías de trabajo para una fusión integral del producto de innovación en proyectos ya aplicados de empresas como el CeMab, poniéndolo estos conocimientos en práctica para el prototipo de barreras verdes en enfoque a nuestras carreras de arquitectura e Ing. Industrial, al ser una extensa investigación se encuentra en fase de boceto inicial y obtención de datos analíticos que garantizan correcta ejecución teórica comparativa.
Se espera desarrollar una aplicación de barrera verde en el tramo de la Av. Paseo Tollocan frente a la zona industrial para ejecutar mediciones de calidad del aire logrando resultados positivos donde favorecen a la comunidad.
Botello Mancilla Isabel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
DESAFÍOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.
DESAFÍOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.
Botello Mancilla Isabel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Resendiz Cortina Victor Manuel, Universidad Mexiquense del Bicentenario. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El análisis de aprendizaje (Learning Analytics) es un área de rápido crecimiento de la investigación en Aprendizaje mejorado por tecnología. Tiene fuertes raíces en una variedad de campos, en particular inteligencia de negocios (BI), analítica web, minería de datos, etc. Sus fuertes conexiones con estos campos han significado que los investigadores ahora deben trabajar juntos para identificar los desafíos y así obtener nuevas herramientas tecnológicas que puedan ayudar al estudio de Learning Analytics (LA).
¿Qué es Learning Analytics?
Se define LA como la medición, recopilación, análisis y presentación de datos, sus contextos y las interacciones que allí se generan además de ser una disciplina emergente relacionada con el desarrollo de métodos para explorar series de datos procedentes de varios ecosistemas a fin de optimizar los entornos en los que se produce, facilitar investigaciones futuras o con objetivos comerciales futuros. Por ejemplo, Google Analytics, utiliza LA para identificar el comportamiento de los usuarios en un sitio web, además del análisis de videos de Youtube.
Esta investigación tiene como objetivo identificar problemas y desafíos actuales de LA utilizando un método de revisión sistemática.
Se define la pregunta de investigación como:
¿Cuáles son los problemas que Learning Analytics debe resolver para mejorar los procesos de enseñanza en los estudiantes de las universidades?
En la siguiente sección se describe el método y metodología de investigación; En la sección III se presentan los resultados y el análisis de los resultados, mientras que la sección IV presenta las conclusiones.
METODOLOGÍA
Método
Se define análisis temático como una técnica de investigación para identificar, analizar e informar patrones, es decir, temas dentro de los datos recopilados empíricamente. Organiza y describe mínimamente el conjunto de datos en detalle, e interpreta aspectos del tema.
La revisión sistemática se define como un diseño de investigación en sí misma en el que las unidades de estudio, en lugar de pacientes o unidades administrativas, son los trabajos originales que se revisan.
Esquema básico y resumido para la elaboración de una revisión sistemática:
Formulación de la pregunta de investigación.
Los criterios de inclusión: metodología del estudio, participantes, intervenciones, comparaciones a estudiar y medidas de resultado. Estas características marcarán el protocolo de estudio y su correcta definición facilitará el resto del proceso.
Búsqueda de estudios en la literatura científica a través de una estrategia de búsqueda que cumpla con los requisitos que nos proponemos, con la lectura del título o el abstract y /o revisando el artículo completo seleccionamos aquellos que reúnen nuestros criterios de selección. Estos estudios constituirán nuestra revisión, de ellos se extraerán los datos necesarios y se evaluarán tanto cualitativa como cuantitativamente.
En los que exista homogeneidad entre los estudios incluidos, y al menos dos de ellos presenten datos razonablemente combinables, se realizará un análisis cuantitativo denominado metaanálisis, generalmente mediante la ayuda de programas estadísticos informatizados que facilitan este trabajo, y que permiten visualizar los resultados gráficamente en los denominados forest plot.
Interpretar los resultados obtenidos y extraer las correspondientes conclusiones.
CONCLUSIONES
Conclusión
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre investigación en bases de datos, así como análisis de los artículos usados, de la misma forma él se adquiere el conocimiento del método de análisis sistemático.
Además de que para el desarrollo de la obtención de variables se basó en el sistema de etapas ya sea de que el desarrollo de aprendizaje organizacional dentro del desempeño empresarial, seguido de ello medir el desempeño empresarial, también saber su competitividad ante las otras empresas y mediante su sostenibilidad durante el desarrollo empresarial.
Por ello el método de revisión sistemática ayudo a observar que LA actualmente se encuentra en un proceso de madurez, es muy importante que sigan avanzando los estudios en este tema porque cada vez más y más universidades están trasladando sus cursos a plataformas en línea.
Precisamente en eso consisten las analíticas de aprendizaje, en medir, recopilar, analizar, y proporcionar informes a partir de los datos que los alumnos generan en sus procesos y contextos de aprendizaje, con el fin de comprenderlos y optimizarlos y, en definitiva, ofrecerles una experiencia de aprendizaje rica, personalizada, adaptada a sus intereses y necesidades individuales.
Bravo Ortiz Mario Alejandro, Universidad Autónoma de Manizales
Asesor:Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
Arteaga Arteaga Harold Brayan, Universidad Autónoma de Manizales. Bravo Ortiz Mario Alejandro, Universidad Autónoma de Manizales. Martínez Rodríguez Fernanda, Universidad de Guadalajara. Palancares Sosa Maria Jose, Instituto Politécnico Nacional. Asesor: Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
La pandemia de COVID-19 causada por el virus SARS-CoV-2 tiene un impacto severo en áreas sanitarias y también económicas, forzando la implementación de medidas de confinamiento social con el objetivo de reducir la expansión del virus y prevenir el colapso de los sistemas de salud.
A la fecha no existe un tratamiento farmacológico específico, sin embargo, gracias a los avances en investigación se han desarrollado vacunas y métodos de detección del virus. Las técnicas de imagen médica como radiografías de tórax (CXR) resaltan ante las pruebas de reacción en cadena de la polimerasa con transcriptasa inversa (RT-PCR) porque permiten diagnosticar y dar seguimiento a la enfermedad de manera más rápida y accesible.
Con la intención de reducir la carga de trabajo del personal de salud, al mismo tiempo de aumentar la fiabilidad del diagnóstico y el análisis cuantitativo de CXR, se han propuesto métodos de detección automática de COVID-19 mediante el uso de redes neuronales convolucionales (CNN) de arquitecturas propias o previamente documentadas. Y a su vez, en un intento por mejorar la precisión de la red, estudios previos han implementado técnicas de preprocesamiento a las CXR para mejorar la calidad de las imágenes de los pulmones, la apariencia de opacidades y estructuras no lineales.
METODOLOGÍA
Se estudiaron y aplicaron técnicas de preprocesamiento de imágenes como filtrados espaciales, mejoras de contraste por ecualización de histograma y extracción de características de fase al conjunto de datos original para compararlas y encontrar la que permitiera mejorar los resultados en la CNN. Estos métodos se describen a continuación:
Corrección gamma adaptativa con distribución de pesos (AGCWD)
La corrección gamma es una operación no lineal, pixel a pixel que emplea el parámetro gamma para mejorar el contraste de la imagen aprovechando la relación logarítmica entre la intensidad luminosa y la intensidad resultante. Debido a que se manipularon miles de radiografías de tórax, cada una con diversos rangos de intensidades se empleó un algoritmo de corrección gamma adaptativo evitando la limitación en el mejoramiento por un valor fijo de gamma.
Ecualización de histograma ponderado y separado de forma recursiva (RSWHE)
Es una técnica basada en el mejoramiento de contraste cuyas ventajas atribuidas son la mejora de contraste en la imagen con la preservación del brillo de esta y valores mayores en la relación señal ruido que otras técnicas de contraste. Esta se realiza mediante la segmentación del histograma de la imagen de entrada por media, generando 2r sub histogramas que se ecualizan individualmente.
Filtros espaciales (AMF, NLM, CLAHE)
Este método consta de dos procesos de filtrado espaciales seguidos de una mejora de contraste por medio de una ecualización de histograma adaptativo con contraste limitado (CLAHE).
El primer filtro utilizado es el adaptativo de mediana (AMF), cuya función es reducir el ruido impulsivo. Consiste en un análisis de la vecindad del pixel de interés, para saber si le corresponde el valor de intensidad que tiene, mediante una ventana que varía su tamaño en función a los valores de mediana presentes.
El segundo filtro de media no local (NLM) busca corregir el valor del pixel de análisis mediante una ponderación de zonas de la imagen denominadas “patches” que guardan similitud con la zona tratada de la imagen bajo la premisa de que la intensidad de un pixel puede estar ligada a las intensidades de otros pixeles en la imagen. Reduciendo el ruido aditivo de la imagen. Finalmente la imagen filtrada se ecualiza con el método CLAHE, el cual cuenta con un límite denominado “clipping” establecido para evitar la sobre amplificación de contraste.
Extracción de características de fase (LPA, LPE, ELEA)
Usando un análisis de imagen local basado en fase se extrajeron tres características de fase local diferentes que no son visibles en las radiografías originales y no varían con la intensidad, por lo que los resultados no se ven afectados por las variaciones de intensidad causadas por características físicas del paciente o las condiciones de la toma de la radiografía. Dichas características son: local weighted mean phase angle (LwPA), weighted local phase energy (LPE) y enhanced local energy attenuation (ELEA) (Qi. et al, 2021).
Redes neuronales convolucionales (CNN)
Posterior a la elaboración de las bases de datos con las imágenes preprocesadas, estas se usaron para la evaluación con la CNN. Con esto, se consolidó una base de datos de imágenes de radiografías de tórax con COVID-19 y sin este virus. También, una base de datos con segmentación de pulmones, mediante redes neuronales como U-Net. Además la implementación de los algoritmos de preprocesamiento para mejora de las imágenes y la creación de una CNN nueva para detección de COVID-19.
La CNN nueva tiene un diseño propio, su principio de creación está basado en Inception-ResNetV3 y GBRAS-Net. La CNN recibe imágenes de entrada de tamaño 224x224, extrae características mediante convoluciones, donde tiene bloques residuales que ayudan a evitar el desvanecimiento del gradiente debido a su tamaño, usa la función de activación ReLU, y finaliza con un global max pooling. Al llegar a la etapa final de clasificación, está conformada con 128, 64, 32 y 2 neuronas, donde las últimas 2 entran a un Softmax para las predicciones, mientras las otras neuronas usan la función de activación ELU.
CONCLUSIONES
Los resultados de evaluación de la CNN a imágenes de pacientes con COVID-19 y pacientes sanos mostraron una precisión del 99,71 %. Se desarrollaron algoritmos en Python y MATLAB de preprocesamiento de las imágenes, y se observó una mejoría en la segmentación de los pulmones cuando se emplearon imágenes preprocesadas en comparación con las imágenes originales. En particular, el algoritmo RSWHE con r=1 fue el que presentó los mejores resultados.
Bucio Perez Irene, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia
ALGORITMOS CRIPTOGRáFICOS EN SISTEMAS DE SALUD
ALGORITMOS CRIPTOGRáFICOS EN SISTEMAS DE SALUD
Bucio Perez Irene, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
De acuerdo al avance tecnológico que ha ocurrido, se han implementado sistemas tecnológicos enfocados al área de salud, el cual son de gran importancia y cuentan con diversas ventajas, entre algunas de ellas se encuentran: mejorar la eficiencia y calidad, reducir el tiempo de atención, mejorar la organización y control de la información de los pacientes y todo el personal de trabajo.
A pesar de que con esto se tienen muchos beneficios, toda la información que se recopila y esta guardada en estos sistemas, debe de estar segura y protegida, ya que hay datos personales y sensibles tales como: pacientes, médicos, directores de hospitales, administradores, números de teléfono, dirección, entre otros, los cuales deben ser protegidos para que no todas las personas puedan acceder a ellos, sino solamente las que cuentan con autorización y que tengan un cierto nivel de acceso, esto para evitar que haya robo de esa información.
METODOLOGÍA
Lo primero que se realizó fue comprender/entender el problema que se estaba presentando para saber que herramientas utilizaríamos y después investigar los tipos de criptografía simétrica que ya habían sido empleados.
Al tener los resultados de la investigación, se seleccionó un tipo de criptografía para llevarla a cabo en una base de datos de salud dentro del gestor de MySQL.
Posteriormente se buscó un método de cifrado y descifrado avanzado, en este caso fue el método cesar, que se implementó también en la base de datos dentro de MySQL y se verificó que tuviera un buen funcionamiento mediante ciertas pruebas que se realizaron. Además, se implementó un cifrado de vigenere ya que es un cifrado mas robusto y avanzado para la protección de datos. Por último, se reunió toda la documentación requerida.
CONCLUSIONES
Se desarrollaron algoritmos criptográficos los cuales fueron implementados en una base de datos de salud mediante el gestor MySQL, estos permiten cifrar información sensible, para una mejor protección de datos.
Las pruebas a las que se sometieron dieron un resultado favorable, ya que son un buen elemento para garantizar seguridad.
Bueno Cibrian Yeraldi Liney, Instituto Tecnológico de Tepic
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
INGENIERÍA SÍSMICA EN EL ANÁLISIS Y PROCESADO DE ACELEROGRAMAS EN LA REGIÓN DEL ESTADO DE JALISCO
INGENIERÍA SÍSMICA EN EL ANÁLISIS Y PROCESADO DE ACELEROGRAMAS EN LA REGIÓN DEL ESTADO DE JALISCO
Bueno Cibrian Yeraldi Liney, Instituto Tecnológico de Tepic. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
En México la construcción de edificios para situaciones sísmicas es muy poco regulada, pues solo en las grandes ciudades del país se aplica el reglamento para cargas accidentales por sismo y esto genera que al momento de analizar y diseñar una estructura se tome en cuenta dicha normativa. El resto de las ciudades en la república mexicana que se consideran de extensión media hasta poblaciones pequeñas, cuentan con poca información para que el diseño estructural se efectue de una manera optima y en otras zonas las normativas con respecto a fallas estructurales por sismos, son practicamente nulas, se construye sin aplicar ningun factor de seguridad.
Existe una deficiencia de estudios en cuanto a los espectros sísmicos y tipo de suelo que pueden afectar de acuerdo a la región de estudio. Por ello a consideracion es fundamental hacer estudios regionales en cuanto a las aceleraciones mismas que nos pueden dar un indicio de lo que puede ser el tipo de edificio que sera dañado; En este caso para la región del estado de Jalisco para que existan datos que puedan ser utilizados como referencia del impacto de los sismos en la región y así poder tener un poco mas en claro lo que la futura edificación necesita para poder brindar más seguridad ante otro posible sismo en la región de estudio.
METODOLOGÍA
Se utilizaron datos ofrecidos por estaciones sísmicas de la UNAM, ubicadas en el estado de Jalisco en total siendo 6, una vez que se obtuvieron los registros sísmicos de las estaciones unicamente se seleccionaron los sismos con magnitud mayor a 4.5, posteriormente los 10 sismos más cercanos a nuestra región de estudio y con hipocentro a profundidad menor de 30 km para tener una muestra más representativa de los sismos que presentaron características que los hacen más riesgosos para la zona.
Dichos sismos y estaciones seleccionados fueron representados en mapas para una mejor visualización.
Se instalo y aprendió a usar el programa Seismograms Analyzer-E; este último se utilizo para procesar y analizar los registros sísmicos procesados; para que así finalmente se obtuvieran los gráficos productos del procesado de los acelerogramas de los cuales se hizo un análisis y se determinaron las conclusiones.
CONCLUSIONES
Durante la estancia de verano logramos adquirir conocimientos sobre el análisis de acelerogramas y su utilidad para determinar lo que las aceleraciones pueden afectar a la región de estudio en este caso Jalisco y la importancia de tener estaciones que nos muestren los resultados de registros sísmicos para que al momento de diseñar edificios en la región se puedan tener datos de utilidad para lograr un diseño con mayor seguridad en cuanto a espectros futuros.
Caballero Patiño Francisco, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
Caballero Patiño Francisco, Instituto Tecnológico del Valle de Morelia. García Pérez Joana, Instituto Tecnológico del Valle de Morelia. González González Brenda Paola, Instituto Tecnológico del Valle de Morelia. Medina Chávez Eugenio, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
PLANTEAMIENTO DEL PROBLEMA
En México son contados los trabajos que se han realizado sobre la caracterización de los servicios ecosistémicos. La mayoría de estas investigaciones se han centrado en vegetación de ambientes semiáridos en el norte del país. Sin embargo, no existen estudios sobre la caracterización de los servicios ecosistémicos en México en los bosques mixtos de la Sierra Madre Occidental específicamente en la región del el Salto, Durango México.
Por tanto, esta región proporciona una oportunidad para estudiar y sistematizar la composición, estructura, riqueza y diversidad florística, o las formas de entender la evolución de los rasgos dentro de las especies a través de los ciclos biogeoquímicos, relacionados con los flujos de materia orgánica y nutrientes desde el dosel, procesos hidrológicos, en estos tipos de ecosistemas, en el cual las especies vegetales nativas y el tipo de suelo donde prosperan tienen una diversidad de usos tales como forraje para la ganadería y fauna silvestre, carbón, madera para la construcción, estantería, alimentos, herbolaria, medicinas y semillas para reforestación.
El objetivo de este estudio fue cuantificar la producción de la hojarasca, determinar las propiedades fisicoquímicas del agua vía precipitación incidente, precipitación directa, escorrentía cortical y describir la composición y estructura florística.
METODOLOGÍA
Producción de Hojarasca
En cuatro sitios de la sierra del estado de Durango. Se colecto hojarasca, (sitio, 2500 m2) usando diez canastas (1.0 m2) distribuidas en forma aleatoria. La colecta se realizó con intervalos quincenales (Enero-2021-Julio 2021). La hojarasca fue separada en hojas, material leñoso (ramas <2 cm de diámetro) y otros (estructura reproductivas, cuerpos y heces de insecto). Las muestras fueron secadas en una estufa a temperatura de 65°C durante 72 h. Los datos de producción de hojarasca fueron expresados en (g m-2).
Flujos corticales
En el ejido San Juan, Pueblo Nuevo, se establecio una parcela de 2,500 m2 donde fueron seleccionadas especies vegetales, para medir la precipitación directa mediante canaletas fijas (PVC de 0.1 m2 (10 cm de ancho x 100 cm de largo) en forma de U, conectadas por medio de mangueras a recipientes de 20 L, a una altura de 1 m. Adyacente a la parcela, se establecieron cuatro colectores de precipitación incidente. Para el escurrimiento fustal se eligieron arboles con 15 cm de diámetro (utilizando colectores de plástico en forma de embudo, mientras que para arboles de diámetros de 35 cm, se utilizaron mangueras de plástico con perforaciones de 2.5 a 3 cm de intervalos, estas mangueras se fijaron a 1 m de altura, para cada variable evaluada se utilizaron cuatro árboles de cada especie, (Yáñez, 2011). Después de cada evento de lluvia, las cantidades fueron registradas dentro del periodo de enero-2021-julio 2021. La determinación del valor de pH y conductividad eléctrica (CE, µS cm-1) de las muestras colectadas, se realizo mediante un potenciómetro-conductivímetro marca Consort multi-parameter analyser modelo C3010.
Composición y estructura de la vegetación.
En dos sitios de la sierra del estado de Durango. Se ubicaron parcelas de 1000 m2 por sitio de estudio, en las cuales se realizó un inventario y a cada individuo se le determinaron parámetros dasométricos tales como diámetro normal a altura de pecho, utilizando una forcípula forestal marca Haglöf, modelo Mantax Blue 950Mm, altura total y comercial con un hipsómetro Vertex Láser IV marca Haglöf, modelo HS102, cobertura de copas con cinta métrica marca Truper, modelo CM112 50 m; esta última se estimó a partir de la longitud del largo (norte-sur), por ancho (oriente-poniente) de cada copa, con el fin de conocer la cobertura parcial y total de las especies presentes por sitio, densidad, así como los indicadores ecológicos: abundancia, dominancia, frecuencia y valor de importancia (VI). La diversidad de especies se estimó con el índice de Shannon-Wiener y la similitud entre sitios mediante el índice de Jaccard.
CONCLUSIONES
Los resultados señalan la importancia de los diferentes componentes de la hojarasca, la deposición es un proceso fundamental en ciclo de nutrientes planta suelo ya que representa la principal fuente de transferencia de materia orgánica y nutrientes por parte aérea a la superficie del suelo produciendo una capa protectora, esta capa produce un manto orgánico el cual contribuye a la regeneración del suelo, mantiene la fertilidad y ayuda mantener las propiedades físicas y químicas, entre otros procesos fundamentales de los ecosistemas.
El pH y CE presenta variaciones químicas relacionadas al tipo de evento de lluvia, en general el pH se obtuvieron valores combinados (alcalinos y acidos) En la CE se mostraron valores muy altos en las primeras lluvias ya que arrastro consigo nutrientes y sedimentos de algunos insectos acumulados con el tiempo y fueron lluvias con poca precipitación, factores como la forma del árbol, duración del evento y dirección de la lluvia son importantes en la variación de la C.E.
Los resultados obtenidos de esta investigación revelan que la diversidad y estructura en sitios continuos y en condiciones similares de latitud existen una marcada diferencia en composición y estructura, lo cual es un ejemplo de la complejidad ecológica que alberga la Sierra Madre Occidental, además de que el desarrollo de las especies no es el mismo y que se le está dando un manejo diferente a estas áreas, a través de la información generada se proporciona el análisis sobre la composición y estructura vegetal de cada uno de los sitios, aportando información cuantitativa sobre la diversidad y riqueza de especies existentes en cada uno de ellos, permitiendo comprender el funcionamiento de los ecosistemas forestales y que sean utilizados en la toma de decisiones silvícolas para realizar un buen plan de manejo para el aprovechamiento de los recursos forestales o conservación de los mismos.
Cabañas Garduño Adela, Instituto Politécnico Nacional
Asesor:Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo
INTEGRIDAD DE DUCTOS DAñADOS POR CORROSIóN EXTERNA.
INTEGRIDAD DE DUCTOS DAñADOS POR CORROSIóN EXTERNA.
Cabañas Garduño Adela, Instituto Politécnico Nacional. Asesor: Dr. Antonio Contreras Cuevas, Instituto Mexicano del Petróleo
PLANTEAMIENTO DEL PROBLEMA
La corrosión en tuberías enterradas es un proceso extremadamente complejo debido a la variabilidad de las condiciones locales. El deterioro de las tuberías de metal enterradas debido al ambiente corrosivo del suelo es un problema que ha sido estudiado por muchos años. Sin embargo, las fallas de tuberías enterradas debido a suelos corrosivos siguen presentándose aún con la aplicación de tecnologías avanzadas de protección contra la corrosión. Por lo tanto, es necesario comprender los factores que causan la corrosión de las tuberías enterradas.
METODOLOGÍA
Durante esta estancia de investigación se analizaron los principales factores que causan la corrosión de las tuberías enterradas en el suelo y se analizan en función de la velocidad de corrosión. Los factores incluyen el contenido de humedad, la resistividad del suelo, el pH, el oxígeno disuelto (aireación), la temperatura, textura del suelo, contenido de iones y la actividad microbiana.
La corrosión externa tiene las siguientes características: el electrolito es el suelo, el electrolito es estático, la velocidad de corrosión está relacionada con el contenido iónico, pH, resistividad y potencial redox, entre otros; el producto de corrosión pasiva la superficie metálica de la tubería y la ubicación del daño por corrosión depende en gran medida del daño del revestimiento en las tuberías.
CONCLUSIONES
En general, se presentan dos tipos de corrosión externa en las tuberías: 1) corrosión generalizada, y 2) corrosión localizada (picaduras). La corrosión generalizada en términos generales es menos peligrosa que la corrosión localizada, esto debido a que generalmente se pasiva y la velocidad de corrosión disminuye con el tiempo. Sin embargo, la corrosión localizada (picaduras) es más peligrosa, debido a que dependiendo de las condiciones del suelo, la velocidad de corrosión puede ser tan alta que en un corto tiempo penetra la pared de un tubo ocasionando una fuga.
La velocidad de corrosión de los aceros expuestos a suelos depende de muchos factores. Debido a que múltiples factores afectan la corrosividad de un suelo (y por tanto la velocidad de corrosión) y adicionalmente estos factores se ven afectados por los cambios ambientales, hace que el proceso de corrosión en suelos sea muy complejo.
Cabrera Cano Elizabeth, Instituto Tecnológico de Pachuca
Asesor:Mtra. Laura de Guadalupe Vázquez Paz, Universidad Tecnológica de Cancún
REDISEñO DE LAS COCINAS DE HUMO TRADICIONALES, PARA DISMINUIR ENFERMEDADES EPOC
REDISEñO DE LAS COCINAS DE HUMO TRADICIONALES, PARA DISMINUIR ENFERMEDADES EPOC
Cabrera Cano Elizabeth, Instituto Tecnológico de Pachuca. Asesor: Mtra. Laura de Guadalupe Vázquez Paz, Universidad Tecnológica de Cancún
PLANTEAMIENTO DEL PROBLEMA
Las cocinas de humo ecológicas y sustentables, han sido una alternativa viable para el desarrollo de la economía y turismo en Quintana Roo, sin embargo, hay que considerar los contras para el bienestar físico de las personas que utilizan este medio para cocinar. La exposición crónica a combustibles sólidos o al humo de leña es un factor de riesgo para el desarrollo de enfermedad pulmonar obstructiva crónica (EPOC). Por lo que es necesario investigar un método que permita a las familias seguir cocinando a través de las cocinas de humo, sin comprometer su salud y bienestar físico.
METODOLOGÍA
1.- Búsqueda de información en el estado del arte
Esta búsqueda se llevó a cabo a través de buscadores académicos como lo son Google Académico y Scielo, además de revistas de divulgación científica y boletines universitarios.
2.- Recopilación de información de la comunidad Barrio Techachalco, Acaxochitlán, Hgo.
A través de la plataforma de Zoom, se realizaron varias entrevistas virtuales, con tres personas de una familia de esta comunidad, en donde se recabo información importante para el prototipo de la cocina.
3.- Elaboración del prototipo.
Una vez recabada la información necesaria, se procedió a trabajar en el prototipo de la cocina, combinando materiales para mejorar su durabilidad, utilidad y prevenir enfermedades crónicas respiratorias.
CONCLUSIONES
Resultados
Se realizó el prototipo principal utilizando el software de SolidWorks, las medidas que se tomaron como referencia son las que fueron proporcionadas por las tres personas que entrevistadas de la comunidad y el prototipo generado por la Mtra. Laura de Guadalupe Vázquez Paz.
Después de la investigación de campo, se decidió utilizar dos materiales para la construcción de este prototipo; ladrillo y acero 1810, con la finalidad de cumplir los objetivos planteados. Así mismo, el diseño está pensando para ser colocado en un área abierta, para que el humo pueda fluir de manera correcta, evitando la inhalación excesiva de este. Finalmente, el diseño permite la movilidad de la cocina, es decir, que no se quede estática, por los materiales empleados para su fabricación, si se complicaría un poco esto, pero es posible, en caso de ser necesario trasladarla.
Conclusión
El objetivo de este trabajo se cumplió de manera teórica, aún faltaría desarrollar el prototipo en una representación 3D, para poder encontrar si existen áreas de mejora, de acuerdo a los comentarios de las tres personas entrevistadas, cuando se les presentó el prototipo en conjunto con la explicación de como está pensando originalmente para fungir, quedaron satisfechas con las expectativas que se pusieron desde el inicio.
Caicedo Caicedo Brayan Steven, Universidad Autónoma de Occidente
Asesor:Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
Alvarado Martínez Israel, Instituto Politécnico Nacional. Caicedo Caicedo Brayan Steven, Universidad Autónoma de Occidente. Gutiérrez Zermeño Marianna, Universidad de Guadalajara. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El cáncer de mama es una de las tipologías de cáncer más comunes en la mujer. Consiste en la degeneración de un grupo de células sanas ubicadas en la glándula mamaria, lo que ocasiona la proliferación acelerada, desordenada y no controlada de ellas, dando origen a la conformación de un tumor con la capacidad de diseminarse a otros órganos
En México, el cáncer de mama representa una de las primeras causas de muerte en las mujeres. De acuerdo con el Instituto Nacional de Geografía y Estadística (INEGI), en 2019, por cada 100 mil mujeres de 20 años o más, se reportaron 35.24 casos nuevos de cáncer de mama, con una tasa de mortalidad de 17.19 defunciones a nivel nacional.
En Colombia, el cáncer de mama según el Globocan realizado en el año 2020 por la Organización Mundial de la Salud (OMS), cuenta con 15.509 casos nuevos relacionados a esta enfermedad. Cabe mencionar que es el primer cáncer con más tasa con respecto al total de casos de cáncer (representa el 13.7%) para ambos sexos.
La detección temprana del cáncer de mama es fundamental, debido a que puede mejorar la calidad del diagnóstico, la planificación del tratamiento y reduce las tasas de muerte entre las mujeres.
La mamografía de rayos X (XRM) es uno de los métodos más utilizados para el diagnóstico temprano de cáncer de mama. Sin embargo, existe una gran complejidad en la interpretación humana de estos estudios, debido a que es subjetiva y cualitativa. Además, depende en gran medida de la experiencia del radiólogo, inclusive existiendo una alta variabilidad entre radiólogos experimentados y por consecuencia un alto riesgo de un diagnóstico erróneo.
Para abordar estas limitaciones y mejorar el rendimiento en el análisis de mamografías, durante el verano de investigación se aplicaron técnicas de Deep Learning para desarrollar un modelo que apoye en la detección y diagnóstico de lesiones de manera automática.
METODOLOGÍA
Conjunto de datos
Para el desarrollo del método propuesto, se utilizaron imágenes de mamografías digitales del conjunto de datos disponibles públicamente de la Sociedad de Análisis de Imágenes Mamográficas (MIAS), la cual consta de 322 imágenes de mama derecha e izquierda (161 pares) con un tamaño de 1024 x 1024 píxeles. Las imágenes se agrupan principalmente en dos categorías, de las cuales 207 imágenes pertenecen a la clase normal y 115 imágenes muestran algún tipo de anomalía (64 imágenes benignas y 51 imágenes malignas). Por lo tanto, se aborda el problema de clasificación de las categorías: normal, benigno y maligno. Además, previo a la implementación de los modelos, fue necesario la realización de un cambio de formato a PNG y un redimensionamiento a 256 x 256 píxeles.
Se dividieron aleatoriamente las imágenes de ambos conjuntos de datos en tres partes, 75% como conjunto de entrenamiento, 15% como conjunto de validación y 15% como conjunto de prueba.
Diseño de red
En esta sección, se proponen dos modelos de Deep Learning y se emplea como modelo comparativo la arquitectura VGG16 para la evaluación del rendimiento de ambos métodos propuestos.
Modelo comparativo: VGG16
Debido a la facilidad de implementación de la red neuronal preentrenada VGG16, se empleó como modelo comparativo en este proyecto. Su arquitectura consta de 13 capas convolucionales y 3 capas densas y realiza la clasificación del conjunto de datos únicamente en benigno y maligno. Para poder evaluar de una manera homogénea el rendimiento de esta red respecto a los modelos propuestos, se añadió la categoría normal a la clasificación del conjunto de datos.
Modelo 1: CNN, Red Neuronal Convolucional
A la entrada del modelo hay una sección para la lectura de las imágenes y se aplicó la división que se especificó anteriormente, también se especificaron las etiquetas para cada imagen y con eso ya se tiene lista la información para el modelo. La red neuronal convolucional consta de tres capas, una capa de convolución con un kernel de tamaño 3, una capa de aplanado y una capa densa con tres neuronas de salida.
Modelo 2: Self-Attention
Para el entrenamiento de esta estructura de red neuronal por medio de mecanismos de atención, se definió el conjunto de datos de entrada usando la base de datos MIAS, se realizó un redimensionamiento a un cuarto del tamaño original. Siguiendo con la distribución 75% para el conjunto de entrenamiento y 15% para validación. Para realizar la estructura se tomó el mecanismo general de Scaled Dot Product Attention.
CONCLUSIONES
El modelo comparativo VGG16 permitió clasificar el conjunto de datos en las tres categorías propuestas. Debido al costo computacional se utilizaron un total de 300 épocas de entrenamiento, obteniendo un valor de precisión del 67.28% y una pérdida del 79.06%.
Por su parte, para el Modelo 1 se realizaron distintas pruebas de entrenamiento en las que se variaba la cantidad de épocas. Dentro de estas pruebas se encontró que la mejor combinación que hay es de 32 épocas con un tamaño de lote de 32, y con eso se obtuvo una precisión del 87.5% y una pérdida del 49.39% para el conjunto de prueba.
Finalmente, para el Modelo 2 de entrenamiento, se utilizaron 150 épocas de entrenamiento se logró conseguir una precisión de 98.2% y una pérdida de 22.3%.
Durante la estancia de verano se exploraron diferentes conjuntos de datos de imágenes de mamografía digital, así como modelos de Deep Learning, lo cual nos permitió adquirir los conocimientos teóricos y ponerlos en práctica para la realización de dos modelos que permitieran clasificar las mamografías según su estado patológico. Ambos modelos propuestos presentan una alta tasa de precisión y una baja tasa de pérdida, logrando tener un rendimiento superior al del modelo comparativo.
Caicedo Valencia Jasbleidi, Universidad Antonio Nariño
Asesor:Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
Caicedo Valencia Jasbleidi, Universidad Antonio Nariño. Osegueda Rodríguez Gisell Vanessa, Universidad Nacional de Ingeniería. Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
La industria cosmética es uno de los sectores de mayor crecimiento anual en economía que tiene el objetivo de mejorar aspectos físicos de las personas, en la cual para que un nuevo producto salga al mercado pasa por fases como desarrollo galénico, fabricación y control de calidad. Posteriormente en muchas ocasiones su calidad en la pigmentación de los tonos no es la más adecuada ya que son fabricado con materiales inapropiados para la piel o que no se adaptan a ella. El objetivo de este trabajo es diseñar e implementar un colorímetro para identificar la pigmentación de las sombras para así crear mejoras en la línea de productos que garantice que la sombra aplicada al parpado tiene el mismo color e intensidad que el de la paleta por la cual nos basaremos en la escala RGB que integra tres colores que nos permite identificar la luminosidad del rojo, verde y azul en diferentes proporciones.
METODOLOGÍA
Diseñar y construir un dispositivo (colorímetro) que sea capaz de reconocer e identificar el tono y la intensidad de color para tener una medida más objetiva en ciertas sombras. Para desarrollar el circuito, se estarán utilizando muestras que ayuden a diferenciar pigmento, en donde explicaremos el funcionamiento del componente del circuito del sistema de selección de color, así como los programas incluidos en la placa Arduino.
CONCLUSIONES
El tipo de sombras que se utilizo para llevar a cabo las muestras son de diferentes lotes de paletas con tonalidades de diferentes tonos de azul, verde y rojo, adicionando el color blanco. Posterioemente se seleccionó este tipo de sombras debido a que por sus tonos son colores primarios que los encontramos incorporados en la escala RGB, que son los más usuales para la fabricación de cosméticos.
Para experimentar el sistema se utilizaron sombras de cuatro tonos que contenían colores claros y oscuros, que permitieron por medio del sensor comprobar la saturación del producto cosmético, identificando las de mayor pigmentación y menor.En cuanto a los ensayos llevados a cabo muestran la variabilidad tonalidades y que con la aplicación del dispositivo se mejorara la calidad en pigmentación entre tonalidades.
Calderón Ramírez Karina, Instituto Politécnico Nacional
Asesor:Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
ENERGÍA DE BAJO IMPACTO
ENERGÍA DE BAJO IMPACTO
Calderón Ramírez Karina, Instituto Politécnico Nacional. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las energías limpias como una necesidad latente en el siglo XXI
En los últimos años se ha incrementado el desarrollo tecnológico para producir energías limpias que tengan un impacto mínimo en el medio ambiente, inclusive cuando hablamos de que la utilización de la energía eléctrica la cual es una excelente alternativa a los combustibles fósiles muchas veces esta de manera indirecta es producida en alguna planta utilizando métodos que dejan una huella de carbono, por este motivo es indispensable buscar alternativas para que esta producción a mediano plazo se aproxime a cero.
Por ello es necesario realizar una evaluación de como es procesada y desde hace mas de 20 años la investigación en materia aerodinámica ha tenido un auge de vital importancia pues gracias a esto se logramos construir aerogeneradores altamente eficientes.
Objetivo General
Construir un túnel de viento para analizar el comportamiento del aire al ser perturbado por el perfil aerodinámico FX 63-137.
FX 63-137
La aerodinámica es una ciencia que estudia el comportamiento de un fluido al ser perturbado, a lo largo del tiempo se ha visto que juega un papel importante en la sociedad. Influye en diversas industrias marítima, automotriz, militar, aeronáutica, entre otras.
Esta ciencia tiene una gran capacidad de análisis, utilizando las herramientas que nos brinda se pueden obtener las características aerodinámicas de un cuerpo. Por ejemplo, el perfil FX 63-137 diseñado por F.X. Wortmann es un perfil asimétrico que trabaja con un numero de Reynolds bajo de manera optima.
Refiriendo a la industria del consumo industrial y residencial, existen plantas de generación eólica que utilizan este perfil como lo son las turbinas H40 y H80 en America del Norte, lo cual comprueba su compatibilidad con la aplicación dentro de los aerogeneradores.
METODOLOGÍA
M etodologia:
La envergadura del modelo se secciono en 10 perfiles de madera de 3cm de grosor, 2.5cm de espesor y 15cm de cuerda para realizar el ensamble general. Para el ensamble del túnel de viento se utilizaron diversos proceso de manufactura para que el análisis del perfil cumpliera con todas los objetivos establecidas en un estudio aerodinámico, es importante encontrar que se observe el flujo de manera detallada durante la demostración.
Normalizar el flujo utilizando un mallado al ingreso del viento.
Ubicar la posición del modelo dentro del túnel considerando la dimensión de la estela.
Se ubico el centro aerodinámico a 3.75cm del borde de ataque para implantar un eje de aluminio que de manera mecánica va a estar sujeto al túnel de viento, a su vez de manera axial al eje se sujeto un transportador. Para medir el ángulo de ataque se trazo una linea horizontal en el túnel.
Se realizaron barrenos en la parte inferior de manera estratégica ubicándolos tanto en el borde de entrada y salida para lograr observar el flujo utilizando humo artificial generando contraste con un láser color verde.
CONCLUSIONES
Resultados.
Se realizan visualizaciones de flujo cada 5 grados hasta los 30 grados.
En las imágenes del borde de ataque se logra visualizar como es que el flujo toma la forma del modelo como si este se adhiriera gracias a la forma currentilínea del perfil, mientras que en el borde de salida se ve la fase turbulenta del viento llamada estela donde a su vez es posible ver los denominados vórtices de Von Kármán (remolinos que se generan cuando un flujo interactúa con un cuerpo sumergido en él).
Conclusiones
La construcción del modelo fue la adecuada, sin embargo en la validación del diseño del túnel de viento existen varios puntos a mejorar.
Propuesta de mejora
Ampliar la altura del túnel de viento para que expandir el espectro del láser, ya que la posibilidad de visualizar tanto el intradós como el extradós sería total. Ayudando a ver las diferentes etapas por las que el flujo transita.
Crear un ducto de entrada que direccione el flujo al área de interés.
Calderòn Villagràn Miguel Angel, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California
ESTUDIO COMPARATIVO ENTRE SISTEMAS DE CALEFACCIóN ACTIVADOS CON ENERGíA RENOVABLE PARA EDIFICACIONES DE UN POBLADO COSTERO REMOTO
ESTUDIO COMPARATIVO ENTRE SISTEMAS DE CALEFACCIóN ACTIVADOS CON ENERGíA RENOVABLE PARA EDIFICACIONES DE UN POBLADO COSTERO REMOTO
Calderòn Villagràn Miguel Angel, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dr. Nicolás Velázquez Limón, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Los asentamientos humanos alejados de las grandes urbes son lugares donde los problemas comunes se magnifican por factores como: difícil acceso, falta de insumos y escases de servicios básicos como: agua potable y energía eléctrica. Estas poblaciones aisladas en ocasiones están ubicadas sobre zonas con climas extremos. Debido a esto, un problema que deriva en estas zonas es la necesidad de sistemas climatización (calefacción/enfriamiento). Los sistemas convencionales de calefacción (compresión mecánica de vapor, resistencia eléctrica) representan una problemática para cualquier escenario por la presencia de fluidos refrigerantes contaminantes y/o alto consumo de energía eléctrica. Que en poblados sin acceso a la red de energía eléctrica se intensifica.
El poblado de Puertecitos se encuentra sobre una región costera ubicada en Baja California, que presenta durante el verano temperaturas ambiente elevadas y, durante el invierno muy bajas. Las bajas temperaturas que alcanza el ambiente en Puertecitos hacen evidente la necesidad de utilizar sistemas de calefacción para proveer confort térmico en edificaciones. Este poblado no cuenta con acceso a la red nacional de transmisión de energía eléctrica y sus necesidades energéticas se satisfacen por medio de una microrred de generación solar con sistema de almacenamiento. Por tales motivos, el presente estudio busca estudiar operativamente sistemas de calefacción con almacenamiento térmico de bajo costo aprovechando las fuentes de energía térmica disponibles en la comunidad costera aislada de Puertecitos.
METODOLOGÍA
Definición de las condiciones actuales de la tecnología y del área de estudio
Se realizó un estudio del estado del arte sobre sistemas de calefacción activados con energías renovables, en este caso solar y geotérmica. Con la finalidad de conocer el principio de funcionamiento de los sistemas existentes, así como los campos de mejora y las tendencias actuales para proponer y estudiar sistemas novedosos que aprovechen de manera eficiente las fuentes de energía térmica disponibles en el poblado de Puertecitos.
Se visitó el poblado de Puertecitos donde se encuentra la edificación de estudio. Cabe señalar que la edificación se encuentra conectada a una microrred activada con energía solar y al Sistema de Aire Acondicionado Termosolar de la Escuela de Puertecitos (SAATEP), proyectos realizados por el Centro de Estudio de las Energías Renovables (CEENER) en el Instituto de ingeniería de la Universidad Autónoma de Baja California (UABC) teniendo como director de los proyectos al Dr. Nicolás Velázquez Limón. Se mostró el funcionamiento de la microrred y del SAATEP para observar sus componentes y la importancia de cada uno de ellos en los proyectos.
Simulación térmica de edificaciones
Para la simulación de la edificación se utilizó el software TRNSYS 17. Antes de ingresar los datos como tal, se construyó la edificación en el software SketchUp con la herramienta o plug-in TRNSYS 3D con el que se hace una simulación de la carga térmica que llega al aula. Antes de ingresar estos datos a TRNSYS se tiene que poner un archivo con las mediciones solares del lugar para así el software TRNSYS pueda leer con más exactitud las condiciones del área y con ello tener una simulación más detallada.
Se realizó el registro experimental y procesamiento de datos de temperatura del ambiente interior de las aulas de escuela de Puertecitos con la finalidad de validar los resultados obtenidos con la herramienta utilizada para la simulación térmica de edificaciones (Type 56) en el simulador TRNSYS.
Estudio operativo de sistemas de calefacción activados con energía renovable
Para estudiar operativamente los sistemas de calefacción activados con las fuentes de energía térmica disponibles en la comunidad de Puertecitos, se definieron los siguientes sistemas y su respectivo modo de operación:
Colector solar-tanque de almacenamiento: Para esta propuesta se pretende utilizar un subsistema de captación y almacenamiento de energía solar con el objetivo de calentar el flujo de agua que entra al mismo. Por consiguiente, el flujo entrará a un tanque de almacenamiento de energía térmica y con una bomba elevará su presión y pasará por un calentador auxiliar. El flujo entrará a otra bomba que se encargará de que llegue a las Unidades Manejadoras de Aire (UMA) y cumplir con el objetivo del calentamiento. Al salir de las UMA’s, el flujo volvería a entrar al tanque de almacenamiento con una temperatura menor, y por medio de otra bomba, entrará de nuevo al subsistema de captación, completando el ciclo.
Intercambiador de calor tierra-aire: Para esta segunda propuesta la idea es utilizar perforaciones en las que se introducirán tubos de PVC. El objetivo es que el aire frio que entre, pase por las perforaciones y, utilizando el calor del subsuelo, elevar su temperatura unos grados. El aire de salida será introducido a las UMA’s por medio de unos ventiladores y así elevar un poco más la temperatura ambiente interior. Cabe mencionar que la idea es que sea un complemento de la primera propuesta y así obtener mejores resultados.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los sistemas de calefacción activados con energía solar y geotérmica, así como simularlos en el software TRNSYS para su estudio. Sin embargo, al ser poco el tiempo de la estancia, se tuvo que dedicar el tiempo para el aprendizaje del software y al ser un extenso trabajo aún se encuentra en la fase de simulación y es por lo anterior que no se pueden mostrar los resultados obtenidos. Se espera continuar con la simulación y con el trabajo en general aun después de concluido el tiempo de la estancia ya que se tienen los datos necesarios para hacer un modelado de los intercambiadores geotérmicos y del estudio del sistema termosolar más a detalle. También y debido a que existe la posibilidad de que sea factible el proyecto, se pretende regresar al poblado para poner en marcha el estudio y tener resultados aún más profundos.
Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
APLICACIóN MóVIL CON GEOLOCALIZACIóN PARA LA GESTIóN DE PEDIDOS.
APLICACIóN MóVIL CON GEOLOCALIZACIóN PARA LA GESTIóN DE PEDIDOS.
Calixto Contreras Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
Existe un aproximado de 7.9 millones de teléfonos celulares en todo mundo, excediendo ya el número de humanos a nivel mundial. Así pues, las grandes organizaciones administradoras de información están tomando la decisión de usar los servicios por medio de este tipo de tecnologías que un aplicativo. Así la empresa como Amazon y sus lectores de libros electrónicos; Google y su sistema operativo móvil Android, y empresas de noticias como CNN han dado gran importancia a dicha tecnología, para acercarse a los teléfonos celulares de sus clientes (Guadamuz, 2018).
Cabe mencionar que las aplicaciones móviles producen innovación, pues promueven y aportan la invención y el desarrollo de nuevos servicios, procesos en el ámbito gerencial. Los ejemplos son comunes, desde el uso de la plataforma Skype para acordar una reunión con los colegas de trabajo, hasta la banca móvil para la entrega de salarios, tendencias que están cambiando la gerencia tanto en áreas rurales como urbanas en todo Latinoamérica.
En esta investigación que se da conocer el estudio de una aplicación móvil con geolocalización y gestión de pedidos, existen fases muy importantes para el manejo de una gestión de pedidos. El principio de esto debe ser siempre la transparencia. La información debe ser completa, precisa y estar claramente a disposición del cliente para que éste pueda saber en qué condiciones recibirá el producto que decida comprar una de esas condiciones son:
Información sobre el pago y los medios de pago.
Información veraz sobre el producto que compramos.
Las condiciones de devolución.
Las condiciones del envío.
Condiciones de seguridad de la web para pago seguro.
El Aviso Legal, que aparte de ser un requerimiento obligatorio, permite al cliente conocer con qué empresa está tratando.
METODOLOGÍA
En esta investigacion se presentan los antecedentes y artículos científicos que se han estudiado, con base a la investigación teórica del proyecto Aplicación móvil con geolocalizacion para la gestion de pedidos.
En el presente estudio se consultó literatura bibliográfica, y consultas investigativas, sobre antecedentes y artículos científicos, que han sido de referente para tener una base teórica sobre el significado de la geolocalización, dispositivos Android que permiten la ubicación de loa objetos que comercializan las empresas, además se indago en diferentes medios de consulta científicas, sobre las tendencias de aplicaciones en latinoamérica.
Para la elaboración de este proyecto las investigaciones son directamente para dar un enfoque y entendimiento a la solución del problema, en lo cual tener buenos resultados es importante la recopilación de datos para tener un buen análisis para el desarrollo del proyecto.
CONCLUSIONES
Después de tener obtener los resultados se comprara con otras investigaciones las cuales se haya implantado una solución de una aplicación móvil con geolocalización con el objetivo de mejorar la gestión de pedido. Para el indicador porcentaje de eficacia en la entrega de pedidos se usó la ficha de ficha de observación y se alcanzó registrar muestras de porcentajes en eficiencia de entrega de pedidos antes del utilización del aplicativo móvil con geolocalización para compararlos con el porcentajes en eficiencia de entrega de pedidos de una cuenta después del uso del aplicativo móvil con geolocalización, obteniendo los siguientes resultados:
Según Ventura (2014) logró el periodo de atención los clientes con dicho sistema desarrollado se minimizo aproximadamente unas 15.50 horas y el costo afiliado al proceso de venta y distribución se minimizo en un porcentaje de 58.1% demostrado un servicio eficaz. Se concluye que la aplicación móvil logro una mejor atención al cliente, pues se hace entregas eficaces en un incremento porcentual de 12.02%. Según González & Saraza (2014) concluye que el sistema implantado cumple con la funcionalidad, que es apoyar el proceso de registrar de una reserva y para su posterior entrega es eficaz. Por lo tanto, se concluye que esta investigación al enfocarse en mejorar la eficacia en la gestión de pedidos se llega un consenso de la misma conclusión.
Se espera obtener el promedio del porcentaje de eficiencia de entrega de pedidos en un tiempo determinado para una muestra de 30 días sin la implementación del aplicativo móvil con geolocalización. Con ello se demuestra que un aplicativo móvil con geolocalización incremento el promedio del promedio del porcentaje de eficiencia de entrega de pedidos.
Calle Zuleta Juliana, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
Calle Zuleta Juliana, Institución Universitaria Colegio Mayor de Antioquia. Flores Alvarez Ivan, Instituto Tecnológico de Toluca. Ramirez Fabra Michelle, Universidad de Medellín. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Obtener energía electrica representa en la actualidad una necesidad en la realización de tareas esenciales en el sector laboral, doméstico, industrial, etc. El uso constante de registros fosiles se posiciona como la materia prima básica para el procesamiento, explotación y distribución de la energia que usamos en la actualidad; según data la historia, las maquinarias y equipos que existen para el aprovechamiento de la energia electrica se desarrolló solo para combustibles derivados del carbon puesto a su origen emergente.
La energía convencional influye desde el punto de vista social generando impactos como la generación de presión sobre los recursos naturales renovables y no renovables, se identifica que en la zona de estudio los recursos energéticos no son aprovechados en un 100%. La falta de legislación y los vacíos existentes referentes a la energía hace que sea arbitrario y no obligatorio para las personas el aprovechamiento de los recursos existentes en la zona de estudio. La implementación de energía química solar en la región en cuestión, permitirá aprovechar y explotar de forma controlada el recurso energético, disminuyendo costos de consumo energético derivados de la energía convencional y combustibles fósiles, un 60% de habitantes de Hermosillo seria impactado de forma positiva con la implementación de energía química solar en sus hogares.
En esta instancia, se requiere el estudio de la energia química solar y su posterior implementación partiendo de la premisa de que "las necesidades mundiales de energía eléctrica se podrán abastecer solo con energía solar", según Ignacio Mártil, catedrático de Electrónica. Actualmente la energía solar concentrada, también conocida como termosolar concentrada tiene el potencial necesario para la generación de electricidad a través de sistemas de espejos, en donde la radiación solar directa es concentrada, logrando temperaturas de entre 40 a 1000ºC (Pfahl et al. 2017). De esta forma, incursionar en energias renovables comprende un reto desde el marco de los Objetivos de Desarrollo Sostenible (ODS) debido a que la energía solar se mueve en el rango de eficiencias de las fuentes convencionales con el añadido de que no requiere quemar combustibles. En lo que respecta a los costos, cada tecnología renovable tiene sus propias características con base en la tecnología utilizada, la energía solar, puede tener un mayor beneficio y un costo de operación menor, sin embargo, presenta un costo de inversión alto y en múltiples ocasiones resulta económicamente inviable. A consecuencia de ello, los proyectos de generación con fuentes renovables de este tipo que se han implementado son muy pocos y tienen condiciones y finalidades muy especiales para su implementación, tal es el caso de la Plataforma Solar de Hermosillo (PSH) cuyo objetivo principal es la generación de conocimiento.
De acuerdo al rendimiento de la tecnología usada en la PSH, en la presente investigación, realizaremos el análisis de sostenibilidad del helióstato concentrador y mini helióstatos concentradores (comprendiendo el ámbito social, económico y ambiental) con el fin de elegir el equipo con mejor rendimiento y mayor eficacia dado que los helióstatos son el componente más importante de las plantas de torre central y hacen parte de aproximadamente el 50% del costo total de toda la planta solar de torre central (Gwiazda and DiBella, 2005).
METODOLOGÍA
Se llevó a cabo la visita a las instalaciones de la Plataforma Solar de Hermosillo y una posterior revisión de los planos centrales del helióstato concentrador (H36) y mini helióstatos concentradores (H6) con el fin de determinar la trazabilidad de la investigación asi como establecer con mayor claridad los aportes de Ingeniería Ambiental e Ingeniería Industrial. Al reconocer con exactitud los equipos en estudio, procedimos a la toma de datos en campo para posteriormente llevar a cabo cálculos cualitativos y cuantitativos en el software Tonatiuh; es preciso aclarar que se realizó toma de muestra independiente para helióstato concentrador H6 y H36, por lo cual fue indispensable el montaje, puesta en escena de cada artefacto y definir las horas con mayor productividad en términos de actividad luminica.
Con la información recopilada, realizamos el análisis de datos enmarcados en la sostenibilidad del proyecto basado en heliostatos concentrador H6 y H36 con el fin de precisar la revisión de costos vs beneficios (sociales, económicos y ambientales) en base a los resultados alcanzados durante la simulación realizada en el software en estudio en el que se obtuvo los perfiles para cada equipo. Es importante resaltar que el costo de instalación de heliostato H36 es de $360,120.00 pesos mexicanos, mientras que, para los heliostatos tipo H6 es de $207,600.00. Ambos con una vida útil promedio de 25 años.
Por último, trabajamos en la redacción y avance en el informe constatado.
CONCLUSIONES
1. Se identificó las variables de rentabilidad de los heliostatos concentradores H36 y H6.
2. Observamos varíables de sostenibilidad del proyecto, teniendo en cuenta la potencia, puntos focales y ópticos.
3. Interactuamos con el software Excel y Tonatiuh para realizar la modelación de reflectividad de rayos solares e incidencias de este en cuanto a la mayor generación de Flux (W/m2) de los heliostatos concentradores H36 y H6.
4. Realizamos pruebas de campo con el fin de verificar los spots generados por cada una de las superficies de los heliostatos concentradores y los miniheliosatatos.
5. Verificamos el impacto social de la implementación de energias limpias.
BIBLIOGRAFIA
E, & E. (2015). Implicaciones de la (baja) densidad energética solar eléctrica. Grupo de Energía, Economía y Dinámica de Sistemas. http://www.eis.uva.es/energiasostenible/?tag=energia-solar
Gwiazda, Jonathan, and Francis DiBella 2005 Power Generation by Solar/Pneumatic Cogeneration in a Large, Natural or Man-Made, Open Pit. http://www.google.com/patents/US20050150225, accessed November 3, 2017
Pfahl, Andreas, Joe Coventry, Marc Röger, et al. 2017 Progress in Heliostat Development. Solar Energy 152(Supplement C). Progress in Solar Energy Special Issue: Concentrating Solar Power (CSP): 3-37
Calleja Hernández Luis Gabriel, Instituto Politécnico Nacional
Asesor:Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
ALGORITMO DE DETECCIóN DE COLISIóN Y SEGUIMIENTO DE RUTA EN APLICACIONES DE SOLDADURA MULTIROBOT
ALGORITMO DE DETECCIóN DE COLISIóN Y SEGUIMIENTO DE RUTA EN APLICACIONES DE SOLDADURA MULTIROBOT
Calleja Hernández Luis Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
PLANTEAMIENTO DEL PROBLEMA
En la industria, las aplicación de soldadura en piezas de metal muchas veces resulta en deformaciones considerables, que requieren sobretrabajos, o sea se, una mayor inversión de tiempo, esfuerzo y dinero. El software de MANUFAI ataca este problema y con datos de entrada de las ubicaciones de los cordones de soldadura a aplicar, el material y la geometría de la pieza, esta deformación logra reducirse considerablemente.
Pero, este software solo es completamente funcional para aplicaciones de UN solo robot, cuando en la industria hay piezas que requieren la operación simultanea de más de un robot.
Una etapa para escalar este problema es calcular las configuraciones de soldadura que un sistema de DOS robots puede alcanzar y realizar simultaneamente, sin colisiones y en el menor tiempo posible.
En este trabajo se hizo una animación sencilla de DOS robots siguiendo trayectorias que un archivo con extensión .csv les brindaba, con su respectivo cálculo de geometría inversa y, si algún punto en la ruta no era alcanzable, o los robots tenían una colisión, el programa manda un mensaje de error directamente a la consola.
METODOLOGÍA
El desarrollo de este trabajo se desarrolló en el ambiente de programación de Pycharm, que maneja el lenguaje de programación Python.
En primera instancia, se realizó una animación simple de un brazo robótico de 3 grados de libertad, al cual, con tres elementos deslizadores (uno para cada eje cartesiano), se le daba la ubicación deseada del efector final. Para alcanzar esta ubicación, se prestó ayuda de la función de actualización de cada deslizador. Con cada actualización, se realizaba el cálculo de la geometría del robot con las ecuaciones de cinemática inversa, en una configuración codo arriba, al cual se le calculaba su ubicación espacial, ya que la coordenada final es conocida desde los deslizadores y la coordenada inicial (base) es introducida por el programador.
Esta misma función se escaló, añadiendo otros 3 deslizadores, y con estos controlar un segundo robot, con el mismo comportamiento que el anterior, pero una ubicación de base distinta.
Después, se procedió a implementar el algoritmo de detección. Este consta de dos módulos:
1.- El primer módulo divide a los eslabones en 10 (o más, eso es fácilmente modificable) partes y guarda las coordenadas absolutas de estas. Esta división se realiza con una transformación de coordenadas cartesianas a esféricas, haciéndose valer de los ángulos de cada brazo calculados en la cinemática inversa, guarda puntos con incrementos radiales, partiendo desde la articulación anterior y finalizando (para ese eslabón) en la articulación posterior.
2.-El segundo módulo consta de calcular las distancias euclidianas (lineas rectas) entre cada uno de los puntos guardados. Es decir, si en ambos robots se guardaron 10 puntos, el programa realiza 100 comparaciones; si se guardaron 100 puntos, se realizan 10000 comparaciones; etc. Para esto, se realiza el cálculo de la magnitud del vector director de un punto del robot 1, a un punto del robot 2, con una aplicación del teorema de Pitágoras en tres dimensiones. Cuando esta distancia sea menor a 10 (modificable) unidades, el programa detecta una colisión, se detiene y lanza un mensaje de error a la consola, arrojando las coordenadas en las que ocurrió dicha colisión.
Finalmente, para el seguimiento de ruta de cada robot, se sustituyó la función de actualización de los deslizadores por una función de animación de Python, en la que, con las coordenadas de un archvio csv ya leídas y transformadas a arreglo, cada actualización de la animación se leía una nueva posición, la cual el robot, de las etapas previas, ya alcanzaba. Esta etapa es algo delicada, la mayoría de las veces el robot no lograba alcanzar la geometría requerida ya que la ubicación de la base del robot no era adecuada, por lo que se debe prestar mayor atención a este aspecto.
CONCLUSIONES
En trabajos de programación, es importante realizar una modularización de los problemas, este fue un problema que se enfrentó a lo largo del proyecto y de esta manera fue más simple de resolver o modificar. Con programas secuenciales es fácil detectar y corregir las fallas.
Las aplicaciones de soldadura multirobot son la siguiente etapa en el software de MANUFAI, y con este avance se está aún más cerca de aditar esta funcionalidad al programa y ayudar a que esta empresa crezca exponencialmente.
Caloch Campos Edgar, Instituto Politécnico Nacional
Asesor:Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
Caloch Campos Edgar, Instituto Politécnico Nacional. Carrillo Ramirez Luis Daniel, Universidad Tecnológica de Nayarit. Gonzalez Acosta Luis Carlos, Universidad Nacional Abierta y a Distancia. Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad se cuentan con páginas de información turística sobre los pueblos mágicos de México, sin embargo, nos encontramos con una cuestión referente a la navegabilidad en sitios web turísticos, específicamente a su deficiencia de estilo e intuitividad para el usuario a la hora de consultar información, además de los datos pocos relevantes que se visualizan.
Por esto mismo, nuestro objetivo durante la estancia de investigación XXVI fue desarrollar un aplicación web interactiva que brindara una mejor experiencia e información más detallada sobre las diferentes actividades, festividades, entre otros, sobre los pueblos mágicos que se encuentran en el país.
METODOLOGÍA
La estancia inició con una capacitación enfocada al framework de PHP llamado Laravel, tecnología que nos ayudó durante el desarrollo del proyecto. Dicha capacitación fue esencial para lograr reconocer las diferentes funcionalidades para implementarlas en el proyecto.
Primeramente se inició con la parte del frontend, utilizando HTML5, hojas de estilo CSS y JavaScript del paquete de diseño Material Kit basado en Bootstrap. Estas herramientas nos ayudaron con la creación de las vistas inicio, sobre nosotros, pueblos y contacto, a las cuales podemos acceder desde la barra de navegación principal. Adicionalmente se crearon las vistas información de los participantes e información sobre los pueblos, siendo así un total de 6 vistas.
Vista Inicio: En esta vista se despliega un mensaje de bienvenida el cual nos brinda una breve descripción e imagen de ciertos pueblos mágicos aleatoriamente. Esta sección de la vista es un prediseño perteneciente al paquete Material Kit el cual hace uso de la función carrusel para la transición de imágenes.
La siguiente sección de la vista muestra nuestros pueblos sugeridos,el cual con ayuda de tarjetas prediseñadas en Material Kit, muestra información de tres pueblos mágicos los cuales son seleccionados con base en la proximidad de sus festividades.
Finalmente observamos una sección de comentarios, los cuales son enviados por visitantes de la página contándonos su experiencia en el sitio web.
Vista Sobre Nosotros: Así como en la vista Inicio, en Sobre Nosotros también hacemos uso de tarjetas que despliegan información sobre el programa federal de pueblos mágicos, misión y visión del programa federal y la información sobre los participantes. Por otra parte, en la vista Contacto se despliega un formulario que permitirá a los visitantes de la página enviar comentarios, sugerencias o reclamaciones que tengan para la mejora del sitio.
La vista Información de los Participantes contará con información breve sobre nosotros, mientras que la vista Pueblos será la entrada para desplegar la información completa de los pueblos mágicos. Esta página muestra un filtro el cual seccionará a los pueblos mágicos dependiendo de a qué estado pertenecen.
Al momento de seleccionar alguno de los 32 estados del país, aparecerán los pueblos mágicos que se encuentren dentro de él, esto gracias a la realización de una consulta por medio de la conexión con una base de datos MySQL mediante la API de Laravel. Dicha consulta devolverá los pueblos de ese estado en formato de tarjeta, las cuales contarán con una imagen de previsualización del pueblo. Al dar click sobre la carta de nuestra preferencia nos redirigirá a la vista del pueblo correspondiente.
Vista Información de Pueblos: Como se mencionó anteriormente, seremos redirigidos a la vista de la información del pueblo sobre el que se hizo click. En esta vista se mostrará dinámicamente la información detallada del pueblo que se haya elegido, compuesta por una breve descripción, atractivos, festividades, actividades, servicios y números de emergencia.
Se realizó la conexión con una base de datos MySQL mediante la API de Laravel.
CONCLUSIONES
Reconocer las funcionalidades del framework Laravel para el desarrollo de soluciones, aplicar otras herramientas de diseño y programación e implementar formatos prediseñados en los paquetes cómo Material Kit y adecuarlos a las necesidades o demandas del proyecto.
En retrospectiva nos sentimos satisfechos con nuestro desempeño durante la estancia de verano pues logramos el desarrollo del template del sitio, así como el módulo de turistas, sobre el cual se podrá seguir trabajando en el futuro.
Camacaro Peña Maria Alejandra, Corporación Universitaria Minuto de Dios
Asesor:Mg. Carlos Alberto Rojas Trejos, Universidad del Valle
MODELO DE TOMA DE DECISIONES PARA LA LOCALIZACIÓN DE ALBERGUES TEMPORALES: CASO DE ESTUDIO: COLOMBIA
MODELO DE TOMA DE DECISIONES PARA LA LOCALIZACIÓN DE ALBERGUES TEMPORALES: CASO DE ESTUDIO: COLOMBIA
Camacaro Peña Maria Alejandra, Corporación Universitaria Minuto de Dios. Oceguera Castillo Valeria Jaqueline, Universidad de Guadalajara. Asesor: Mg. Carlos Alberto Rojas Trejos, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, aproximadamente el 36% del territorio colombiano se encuentra en situación de amenaza sísmica alta, el 28% en alto potencial de inundación y el 8% en amenaza alta por movimientos en masa. (Campos G et al., 2012). Un factor determinante es la ubicación geográfica del país, que trae consigo una diversidad geológica, hidrológica, climática y geomorfológica, acompañados de las acciones humanas, el crecimiento poblacional y concentración de ciudades en zonas de alto riesgo, que hacen propenso al territorio nacional a fenómenos catastróficos (Pérez Hernández & Rincón Amado, 2010). Cuando sucede un desastre, las repercusiones sociales y económicas son grandes, ya que hay daños en la infraestructura e integridad de las personas afectadas (La República, 2020). Por tal motivo, es importante brindar atención eficiente y oportuna en todas las etapas del desastre, las cuales son: mitigación, preparación, respuesta y recuperación. Las etapas anteriormente mencionadas están enmarcadas en dos momentos: antes de la ocurrencia del desastre (pre-desastre) y después de la ocurrencia del desastre (post-desastre). El primer momento es fundamental para la reducción del riesgo, la cual comprende actividades enmarcadas en la generación de planes de respuesta. El segundo momento es esencial es necesario el diseño de una red logística, con la cual se tenga una eficiente operación, permitiendo una reducción del impacto del desastre y la reactivación de la zona afectada. (Reyes Rubiano, 2015).
El problema de ubicación de instalaciones se ubica en la fase de respuesta a las afectaciones generadas por el desastre, puesto que es una función esencial de la logística humanitaria (LH) ofrecer rápidamente socorro (alimentos de emergencia, agua, medicamentos, refugio y suministros) a las zonas afectadas (Pérez Salazar, 2020).
Los problemas que se presentan en la toma de decisiones con respecto a la LH corresponden a la determinación de la cantidad de productos a distribuir, disponibilidad de centros de acopio, atención de zonas afectadas y su clasificación, así como el establecimiento de la cantidad de personas afectadas por el desastre. Por ende, es importante modelar este tipo de problemas, puesto a que contribuyen a buscar soluciones que permitan ante una situación de desastre una mejor planificación y control eficiente de estos recursos, flujo de productos y almacenamiento de materiales e información (Hernández Vega, 2019).
Con base en lo anterior, para contribuir en el alivio del sufrimiento de la población afectada es necesario establecer los lugares o sitios de refugio de las personas y familias damnificadas bajo unas condiciones mínimas de seguridad, accesibilidad, superficie, condiciones topográficas, estructurales y No estructurales durante las primeras 72 horas después que ocurre el evento disruptivo; por lo que constituye una problemática de atención importante en el marco de la logística humanitaria.
METODOLOGÍA
Se realiza una caracterización de la zona objeto de estudio mediante una revisión de fuentes secundarias. En diferentes bases de datos, como el repositorio de la Unidad Nacional de la Gestión del Riesgo y desastres, se busca información referente al Valle del Cauca y sus afectaciones por fenómenos naturales.
También, se identifican los factores que inciden en la localización de albergues temporales a partir de una revisión de la literatura. Partiendo de una recopilación de datos en Science Direct, Scopus y Google Académico, se reconocen los factores más importantes para la localización de albergues temporales en Colombia y otros países.
Además, se formula un modelo de toma de decisiones que considera los factores críticos identificados. Una vez recolectada la información, se formula el modelo matemático, en donde se tienen en cuenta las limitaciones de capacidad y cantidad de los albergues temporales, así como el número de personas damnificadas provenientes de cada zona afectada.
En el modelo se definen los supuestos, conjuntos, parámetros, función objetivo y las restricciones correspondientes. O anterior, se realiza con las herramientas de Excel y AMPL.
Por último, se lleva a cabo una validación del modelo de toma de decisiones a partir de un caso de estudio enmarcado en el contexto colombiano. Con la base de datos de UNGRD, se define el caso de estudio teniendo en cuenta la cantidad de personas afectadas, ocurrencia de desastres y afectaciones generadas.
La zona objeto de estudio es el departamento del Valle del Cauca, específicamente, el municipio de Roldanillo. Con la información recolectada, se generan los datos que satisfacen las limitaciones del modelo matemático y se valida su funcionalidad con la ayuda del solver Gurobi, disponible en la plataforma Neos Server for Optimization.
CONCLUSIONES
El Valle del Cauca es uno de los departamentos en los cuales se ha presentado más desastres naturales en el país, dejando una amplia cantidad de personas afectadas, fallecidas y viviendas destruidas y vías dañadas, lo que se traduce a pérdidas significativas tanto económicas como sociales. Por tal motivo se han estado incrementado los esfuerzos para mejorar la atención de respuesta ante desastres y su prevención y mitigación.
Los criterios que se deben tener en cuenta a la hora de la localización de albergues temporales son variados y depende de las condiciones de la zona y los requerimientos de la población, para que así se pueda ofrecer la ayuda oportunamente y que realmente se minimice el sufrimiento. Dentro de los criterios más comunes están: capacidad, servicios con los que cuenta, accesibilidad y exposición a riesgos.
Los resultados obtenidos con la solución del modelo planteado fueron, se logra la minimización de la demanda insatisfecha de ayuda humanitaria, al igual la distribución de las personas afectadas a los albergues manteniendo niveles adecuados de inventario en los centros de distribución y los albergues temporales para satisfacer las necesidades de las personas, logrando la ayuda oportuna.
Camacho Chacón Daniela, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
ROBOT HEXáPODO DE EXPLORACIóN EN ZONAS DE DESASTRE
ROBOT HEXáPODO DE EXPLORACIóN EN ZONAS DE DESASTRE
Camacho Chacón Daniela, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las investigaciones realizadas en el campo de la robótica han permitido grandes logros para la humanidad. Como ejemplo, podemos hablar de la construcción de robots modernos que son capaces de llevar a cabo tareas que resultan complejas para las personas.
Hoy en día, los robots son utilizados como apoyo para situaciones de exploración en zonas de desastre, como lo son terremotos, derrumbes de construcciones, etcétera. Dichos eventos suceden alrededor del mundo todos los días, sin previo aviso y tomando desprevenidos a cualquiera. Es aquí donde los robots trabajan en conjunto con el personal de rescate, siendo un apoyo para encontrar el camino o un entorno más adecuado para el rescatista, y así éste pueda llegar o atender a las personas perjudicadas por los eventos.
En este proyecto se propone el diseño de un robot hexápodo que sea capaz de transitar por espacios irregulares y, de igual manera, proporcionar datos valiosos de zonas de desastre para rescatistas, como la humedad y la temperatura del entorno, si algún tipo de gas o humo se encuentra en el ambiente.
METODOLOGÍA
Para el diseño del robot se trabajó en el software SolidWorks. Como su nombre lo dice, cuenta con seis extensiones para moverse en el espacio. Cada pierna cuenta con tres micro servomotores, utilizando un total de 18 Micro Servo SG90. Se eligió dicho motor ya que puede rotar de 0° a 180°, además de contar con un tamaño ideal para el diseño del hexápodo. Con los tres servomotores en cada pata se cumple el movimiento en las tres dimensiones. Cada pierna está unida a una base, conformada por dos placas que forman una especie de caja, en donde se ubicará las baterías a utilizar y otros elementos electrónicos. El robot hexápodo tiene las siguientes dimensiones: 18 centímetros de altura, 12.5 centímetros de ancho y 30 centímetros de largo. Se buscó la manera en la que el robot fuera lo más compacto posible, para que sea capaz de moverse en espacios angostos.
Con el fin de obtener información de importancia a los rescatistas en zona de desastre, se utilizaron el sensor DHT11, y el sensor de humo y gas tipo MQ-2. El primero tiene la función de entregar mediciones de temperatura y humedad cada dos segundos. El rango de medición de temperatura que posee es de 0 a 50°C, y de humedad es de 20% a 90% RH. Para utilizarlo, basta con conectar el pin VCC de alimentación a 3-5 Volts, el pin tierra GND y el pin de datos a un pin digital del microcontrolador a utilizar. En el caso del sensor tipo MQ-2, permite detectar en el ambiente gas metano, butano y LPG, así como humo. Cuenta con una respuesta rápida y lecturas precisas. Ambos sensores fueron elegidos por la precisión de los datos entregados, el tiempo en que se tardan en mandar la información y el tamaño de cada uno. Asimismo, se considera que nos entregan datos de vital importancia y que deben considerarse en zonas de desastre. El inhalar cualquier tipo de gas o el humo en el ambiente puede ser perjudicial para las personas encargadas del rescate.
Para la programación de los sensores, se trabajó con la placa de desarrollo NodeMCU, el cual trabaja con ESP8266. Se eligió dicha placa ya que tiene incorporado un módulo de WiFi, el cual permite crear proyectos del IoT (Internet de las cosas). Se trabajó en el IDE de Arduino, y en el programa se leen los datos y se envían por el puerto serial; asimismo, estos datos son recibidos y se separan por variables.
CONCLUSIONES
Con la estancia de verano se aplicaron conocimientos teóricos ya adquiridos y fueron puestos en práctica con la metodología desarrollada. Como mejoras, se plantea en el futuro realizar una interfaz en la que sea capaz de visualizarse los datos que los sensores entregan, lo cual no será difícil teniendo en cuenta la placa de desarrollo utilizada. Asimismo, se buscaría la manera de que el diseño del robot fuera aún más compacto. Por otro lado, se podría incorporar más sensores que entreguen datos importantes para las tareas de rescate.
Camacho Denogean Sofia Guadalupe, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ESTUDIO DE VARIABLES DE REFLECTANCIA
ESTUDIO DE VARIABLES DE REFLECTANCIA
Camacho Denogean Sofia Guadalupe, Universidad de Sonora. Campa Haro Miguel Angel, Universidad de Sonora. Laprada Mancinaz Ana Paula, Universidad de Sonora. Tautimez Rivera Oscar Uriel, Universidad de Sonora. Tirado Luna Rubén Alejandro, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los espejos utilizados en los heliostatos, se encuentran expuestos a diferentes variables que pueden interferir en la eficacia de estos, tales como, transmitancia, reflectancia y absortancia. Esta investigación se enfocará en la reflectancia de estos.
La problemática a tratar es conocer si la reflectancia de los espejos disminuye o incrementa al aumentar el grosor de éstos, ya que al ser un camino óptico mayor el que tiene que recorrer la luz solar a través del vidrio, se espera que se pierda una pequeña cantidad de radiación solar.
METODOLOGÍA
Los espejos utilizados tienen una capa de 3mm y 5mm respectivamente, ambos vidrios están formados de arena de sílice, carbonato de sodio y caliza, además de una capa delgada de plata, que es lo que le da su propiedad reflectiva.
El estudio se realizó el día 26 de julio del 2021, entre las 10:56 AM y las 11:42 AM en la Plataforma Solar de Hermosillo, ubicada en la ciudad de Hermosillo, Sonora (29.0275795,-111.1456932). Las medidas se realizaron durante días despejados debido a que las condiciones medioambientales también pueden afectar los resultados obtenidos. Es importante considerar la limpieza de la superficie de los espejos, ya que la suciedad (provocada por polvo, lluvias, etc) afecta en gran manera la reflectancia de estos.
El dispositivo que se usó para las pruebas fue un pirheliómetro con seguimiento solar. El funcionamiento de este dispositivo comienza al momento que entra luz solar por medio de una ventana, donde al llegar la radiación, por medio de termopilas, esa cantidad de energía proveniente de los rayos del sol, las transforma en señales eléctricas que van hacia un dispositivo electrónico capaz de interpretarlas, que en esta ocasión el dispositivo que se usó fue un multímetro convencional.
La experimentación para llevar a cabo las mediciones fue la siguiente; primeramente, se calculó la radiación solar que llegaba al pirheliómetro directamente, se guardaban los datos, y proseguimos a calcular la radiación reflejada de los espejos de 3 y 5 milímetros con el pirheliómetro, en donde se trató de colocar los espejos lo más normal al sol para evitar errores por factor coseno, que son las pérdidas proporcionales al coseno del ángulo que se forma entre la normal a la superficie reflectiva con la dirección que tiene la incidencia de la radiación directa. Estos pasos se repitieron 5 veces por cada espejo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos sobre el uso de helióstatos, sus diversas aplicaciones y tipos. Estudiamos cualitativamente y cuantitativamente los beneficios que nos brindan este tipo de tecnologías para así lograr analizar qué tan sustentables son este tipo de proyectos tomando en cuenta las pérdidas de energía que se dan durante la transformación debidas a diversos factores tales como las características reflectivas de los espejos.
Según los resultados obtenidos, tiene una mayor eficiencia un espejo delgado con respecto a uno de mayor grosor, esto se cumple para los espejos con vidrios de igual transmitancia. Esta diferencia de 2mm logró mejorar la eficiencia hasta un 9%, también es importante tomar en cuenta que entre más delgado sea el vidrio más frágil será, y tendrá que tener un mayor cuidado a la hora de su instalación.
Consideramos importante invertir en espejos que tengan gran resistencia a los factores ambientales que pueden afectar su calidad, que soporten altas y bajas temperaturas, tormentas de arena, aire, lluvia, etc.
Camacho Ochoa Carlos de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
Camacho Ochoa Carlos de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Interiano Muñoz Mildred Montserrat, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Moreno María Fernanda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la globalización y el creciente intercambio de economías, ha ocasionado la apertura de mercados y con ello el incremento de actividades de exportación, incremento de sus dimensiones y de su interdependencia; lo cual, ha sido provocado por la reducción de las distancias económicas entre los países. Esta apertura de mercados, ha generado condiciones no favorables para las mipymes del sector metalmecánico de la región caribe colombiana que se ven amenazadas por la competencia externa. En este sentido, las mipymes son altamente vulnerables ante el ingreso de productos de competencias externas, en las cuales se ve comprometida la productividad y competitividad en el mercado.
Esta problemática obliga a las mipymes a plantearse nuevos retos e impulsa la adopción de estrategias colectivas de cooperación y asociación que le permitan enfrentar desde lo local, la competencia internacional a través del desarrollo de procesos administrativos asertivos; los cuales, permiten aumentar las ventajas competitivas. Por lo que, durante el verano de investigación se estudiaron las bases teóricas de un modelo de asociatividad empresarial para los procesos administrativos en el ámbito práctico del sector metalmecánico en la región caribe colombiana.
METODOLOGÍA
Se realizó una revisión y análisis bibliográfica exploratoria a través de fuentes de información secundaria, donde el objeto de investigación fueron 60 artículos científicos sobre asociatividad empresarial, mipymes, procesos administrativos, sector metalmecánico, competitividad y productividad. Esto con la finalidad de poder entender explicar y analizar el contexto del sector y las palabras claves del proyecto a realizar.
Para la recolección de la información, se diseñó una matriz de revisión bibliográfica que tiene como elementos de selección: Título, datos bibliográficos, ideas principales y resumen. Dichos artículos se tomaron de bases de datos y portales bibliográficos que cuentan con respaldo académico, los cuales sirvieron para la revisión y construcción del marco teórico de la investigación.
Posteriormente, se procedió a la aplicación de los instrumentos para la recolección de la información, dicho instrumento fue una encuesta realizada a 46 responsables de procesos administrativos. Es menester indicar que el presente proyecto es de tipo no experimental, así mismo la investigación es de tipo transversal, puesto que los datos obtenidos se obtuvieron en un único momento, es decir, cuando se realizó la encuesta y no en instantes diferentes con la intención de comparar, cabe mencionar que es una investigación explicativa, por cuanto determinará las relaciones entre las variables, estableciendo los factores que pueden explicar los fenómenos que se estudian. En el caso del proyecto las relaciones explicativas a analizar son la asociatividad empresarial y los procesos administrativos.
Una vez recopiladas las respuestas, se realizó el procesamiento de la información a través de la tabulación de los resultados obtenidos de nuestro instrumento de recolección de datos, esta representación de los resultados se hizo a través de tablas, gráficos de barra y de pastel en excel, con los porcentajes equivalentes a cada resultado de las encuestas realizadas respectivamente.
Con la información recopilada se procedió al análisis estadístico de los datos obtenidos para interpretar la información con respecto a los indicadores de estudio los cuáles fueron: tipos de asociatividad empresarial, competencias esenciales de asociatividad empresarial, desempeño de los miembros del equipo gerencial y docente para los procesos administrativos, roles del equipo gerencial empresarial en la asociatividad empresarial de los 46 responsables de procesos administrativos.
Por último, se realizó una revisión general de la información obtenida tanto en las fuentes primarias como en las secundarias, se redactaron las conclusiones generales del tema de investigación, así como también el aporte a la agenda 2030 de los objetivos de desarrollo sostenible de la investigación realizada en esta estancia de verano de investigación 2021.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la asociatividad empresarial, así como también estudiar los tipos de asociatividad aplicables a los procesos administrativos;El modelo de asociatividad empresarial para los procesos administrativos tiene enfoque en objetivos comunes, tareas definidas, relaciones interpersonales, social y mental así como también grados de interdependencia.En este orden de ideas, se concibe la asociatividad empresarial como una alianza estratégica que tiene por objetivo mejorar la gestión, la productividad y la competitividad de quienes la integran, permite la unión de fortalezas y capacidades de las asociaciones para que éstas puedan complementarse y potencializarse de manera colectiva e individual.
Finalmente, se concluye que este proyecto aporta al objetivo de desarrollo sostenible 8 ya que fomenta el crecimiento económico sostenido en el sector metalmecánico y en la región caribe colombiana, es inclusivo y sostenible, además, fomenta el empleo pleno y el trabajo decente para todos. La configuración de un modelo de asociatividad empresarial evidencia el incremento de la productividad y competitividad, desarrollo del sector productivo en la región, apertura de mercados y mayor poder de negociación. El modelo asociativo planteado deriva en la construcción de ventajas competitivas en el sector metalmecánico, al conjugar esfuerzos entre las mipymes con los actores locales, para crear valor agregado de sus productos.
Se destaca que los resultados de este estudio pueden ser aplicables a mipymes, establecidas en otras regiones, en virtud de las características similares que presenta este sector y de la dinámica del comportamiento empresarial que se establece en el nivel regional, nacional e internacional.
Camacho Tirado Hannia Guadalupe, Universidad Politécnica de Sinaloa
Asesor:M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa
SISTEMA DE ALERTAS TEMPRANAS
SISTEMA DE ALERTAS TEMPRANAS
Camacho Tirado Hannia Guadalupe, Universidad Politécnica de Sinaloa. Asesor: M.C. Alejandro Pérez Pasten Borja, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Las inundaciones son desastres naturales causados por el desbordamiento de ríos, launas, torrentes, presas, entre otros, gracias a las lluvias torrenciales.
En el municipio de Mazatlán, Sinaloa una de los problemas las comunes son las inundaciones provocadas por la lluvia en zonas propensas, ubicadas cerca de ríos y lagos. El Sistema de alertas tempranas, pretende predecir cuándo hay probabilidad de que una zona en específico se inunde y enviar un aviso a las personas propensas a este tipo de desastres para que evacuen la zona o bien, estén preparadas.
METODOLOGÍA
Una vez planteado el problema, se recurrió a buscar una solución fiable, que cumpliera con las necesidades requeridas por la comunidad del municipio de Mazatlán, Sinaloa. Se optó por un sistema que comprende de 3 principales subsistemas, los cuales son: sistema electrónico, sistema de inteligencia artificial y sistema web. A lo largo de la estancia en delfín se abordó el desarrollo de un sistema electrónico, capaz de cumplir con las necesidades que requieren los sistemas posteriores a este.
Materiales utilizados
Arduino Mega. Establece la conexión entre los componentes electrónicos y el sistema de inteligencia artificial.
Circuito integrado ULN2803. Utilizados para medir los niveles de agua.
Protoboard. Placa en donde se armó el circuito.
Jumpers macho-macho. Utilizados para crear la conexión entre los componentes.
Resistencias 330 Ohms. Se usaron con la finalidad de proteger de grandes cargas de voltajes a componentes sensibles.
Leds. Usados como indicadores.
Módulo GSM SIM900. Ocupado para enviar los mensajes de textos requeridos.
Explicación del sistema
Se utilizaron circuitos integrados del modelo ULN2803, los cuales actúan como un sensor de nivel de agua. Se utilizaron un total de 2 circuitos integrados, todos conectados al positivo y negativo de la protoboard, la cual es alimentada por la fuente de poder de 5 voltios que contiene el Arduino Mega. Los circuitos ULN2083 tienen la capacidad de soportar altas tensiones y voltajes, por lo cual resulta perfecto para la implementación de un sensor de nivel de agua.
Al activarse una entrada, el ULN2803 se conecta a una tensión positiva de 5 voltios, por lo tanto, los transistores internos que este posee quedan eléctricamente conectados, los leds indicadores se encenderán cuando estos se encuentren polarizados. Por el contrario, al dejar de pasar tensión positiva por la entrada, los transistores se desconectan y por ende dejan de conducir, lo cual hace que los leds se apaguen. Cuando los leds se enciendan enviarán una señal digital hacia las entradas del Arduino.
El led indicador actúa como entrada digital para el Arduino mega, el algoritmo consiste en que el Arduino al recibir una señal de este envía un mensaje por medio del Módulo SIM900 a un número celular previamente seleccionado, este mensaje contendrá un número entre el 1 y el 10, indicando así en qué nivel se encuentra actualmente el agua del río/lago, siendo 1 el de menor riesgo y 10 el de mayor riesgo de inundación.
CONCLUSIONES
Durante la estancia realizada con el M.C. Alejandro Pastén, pude poner a prueba mis habilidades y conocimientos adquiridos hasta este momento. Además, logré adquirir nuevos conocimientos en el área de la electrónica y el procesamiento de información analógica y digital asimismo poner estos en práctica gracias al desarrollo del sensor de nivel de agua. Se espera que el desarrollo del Sistema de Alertas Tempranas logre evitar pérdidas materiales e incluso humanas en las zonas propensas de Mazatlán, Sinaloa.
Camacho Vargas Valeria Itzel, Instituto Politécnico Nacional
Asesor:Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
SIMULACIóN DE SISTEMAS ACOPLADOS
SIMULACIóN DE SISTEMAS ACOPLADOS
Camacho Vargas Valeria Itzel, Instituto Politécnico Nacional. Ojeda Moreno Oscar David, Instituto Tecnológico de La Piedad. Pozos Patraca Alberto, Universidad Veracruzana. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
El flujo de un fluido puede ejercer presión y/o cargas dinámicas sobre los elementos estructurales. Estas cargas pueden causar una deformación estructural lo suficientemente significativa como para alterar el flujo del fluido en sí. Los efectos no deseados en una estructura pueden aumentar a medida que aumenta el nivel de interacción fluido-estructura. Con la simulación ANSYS puede obtener una comprensión más profunda de los fenómenos que ocurren para garantizar la seguridad, la fiabilidad y la longevidad.
Para los problemas de interacción fluido-estructura, se pueden utilizar simulaciones FSI (Fluid Structure Interaction) acopladas. Las simulaciones de fluido y estructurales se configuran y resuelven al mismo tiempo. Un ejemplo de esto sería calcular el flujo alrededor de un ala de un avión y transferir las cargas de presión para resolver la deformación estructural. La deformación estructural sería transferida nuevamente a la simulación CFD (Computational Fluid Dinamics) para calcular nuevamente el flujo, y este proceso se repetiría.
METODOLOGÍA
Para la simulación de un problema acoplado fluido-estructura fue necesario el empleo de herramientas computacionales, empleando el método de Elementos Finitos para la parte estructural y el método de Volumen Finito para el caso del fluido, para ello se utilizó en Software ANSYS versión Student.
Para comprender el funcionamiento del software fue necesario realizar diversas pruebas utilizando sistemas más sencillos, comenzando con las herramientas CAD, métodos de mallado, simulación Estática y dinámica Estructural, simulación Estable y Transiente para el caso de fluidos y finalmente pruebas para el acoplamiento de ambos sistemas.
CONCLUSIONES
Las herramientas de diseño y simulación utilizadas en la industria permiten la estimar con un alto grado de precisión el funcionamiento de un elemento o dispositivo bajo diferentes condiciones de carga incluso antes de realizar la fabricación del mismo. En el sector educativo, estas herramientas permiten una mejor comprensión de los conceptos de ingeniería, especialmente el diseño mecánico y el flujo de fluidos. Sin embargo, una de las desventajas, es la necesidad de contar con equipos de cómputo potentes, que puedan ejecutar los cálculos necesarios para cada tipo de modelo.
Campa Haro Miguel Angel, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ESTUDIO DE VARIABLES DE REFLECTANCIA
ESTUDIO DE VARIABLES DE REFLECTANCIA
Camacho Denogean Sofia Guadalupe, Universidad de Sonora. Campa Haro Miguel Angel, Universidad de Sonora. Laprada Mancinaz Ana Paula, Universidad de Sonora. Tautimez Rivera Oscar Uriel, Universidad de Sonora. Tirado Luna Rubén Alejandro, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los espejos utilizados en los heliostatos, se encuentran expuestos a diferentes variables que pueden interferir en la eficacia de estos, tales como, transmitancia, reflectancia y absortancia. Esta investigación se enfocará en la reflectancia de estos.
La problemática a tratar es conocer si la reflectancia de los espejos disminuye o incrementa al aumentar el grosor de éstos, ya que al ser un camino óptico mayor el que tiene que recorrer la luz solar a través del vidrio, se espera que se pierda una pequeña cantidad de radiación solar.
METODOLOGÍA
Los espejos utilizados tienen una capa de 3mm y 5mm respectivamente, ambos vidrios están formados de arena de sílice, carbonato de sodio y caliza, además de una capa delgada de plata, que es lo que le da su propiedad reflectiva.
El estudio se realizó el día 26 de julio del 2021, entre las 10:56 AM y las 11:42 AM en la Plataforma Solar de Hermosillo, ubicada en la ciudad de Hermosillo, Sonora (29.0275795,-111.1456932). Las medidas se realizaron durante días despejados debido a que las condiciones medioambientales también pueden afectar los resultados obtenidos. Es importante considerar la limpieza de la superficie de los espejos, ya que la suciedad (provocada por polvo, lluvias, etc) afecta en gran manera la reflectancia de estos.
El dispositivo que se usó para las pruebas fue un pirheliómetro con seguimiento solar. El funcionamiento de este dispositivo comienza al momento que entra luz solar por medio de una ventana, donde al llegar la radiación, por medio de termopilas, esa cantidad de energía proveniente de los rayos del sol, las transforma en señales eléctricas que van hacia un dispositivo electrónico capaz de interpretarlas, que en esta ocasión el dispositivo que se usó fue un multímetro convencional.
La experimentación para llevar a cabo las mediciones fue la siguiente; primeramente, se calculó la radiación solar que llegaba al pirheliómetro directamente, se guardaban los datos, y proseguimos a calcular la radiación reflejada de los espejos de 3 y 5 milímetros con el pirheliómetro, en donde se trató de colocar los espejos lo más normal al sol para evitar errores por factor coseno, que son las pérdidas proporcionales al coseno del ángulo que se forma entre la normal a la superficie reflectiva con la dirección que tiene la incidencia de la radiación directa. Estos pasos se repitieron 5 veces por cada espejo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos sobre el uso de helióstatos, sus diversas aplicaciones y tipos. Estudiamos cualitativamente y cuantitativamente los beneficios que nos brindan este tipo de tecnologías para así lograr analizar qué tan sustentables son este tipo de proyectos tomando en cuenta las pérdidas de energía que se dan durante la transformación debidas a diversos factores tales como las características reflectivas de los espejos.
Según los resultados obtenidos, tiene una mayor eficiencia un espejo delgado con respecto a uno de mayor grosor, esto se cumple para los espejos con vidrios de igual transmitancia. Esta diferencia de 2mm logró mejorar la eficiencia hasta un 9%, también es importante tomar en cuenta que entre más delgado sea el vidrio más frágil será, y tendrá que tener un mayor cuidado a la hora de su instalación.
Consideramos importante invertir en espejos que tengan gran resistencia a los factores ambientales que pueden afectar su calidad, que soporten altas y bajas temperaturas, tormentas de arena, aire, lluvia, etc.
Campo Daniela, Universidad Autónoma de Occidente
Asesor:Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui
ANÁLISIS DE LA TRAZABILIDAD METROLÓGICA Y ESTIMACIÓN DE INCERTIDUMBRE EN LAS MEDICIONES DE BIOIMPEDANCIA
ANÁLISIS DE LA TRAZABILIDAD METROLÓGICA Y ESTIMACIÓN DE INCERTIDUMBRE EN LAS MEDICIONES DE BIOIMPEDANCIA
Campo Daniela, Universidad Autónoma de Occidente. Asesor: Dr. Aarón Rodríguez López, Universidad Politécnica de Santa Rosa Jáuregui
PLANTEAMIENTO DEL PROBLEMA
La bioimpedancia hace referencia a la oposición de los tejidos biológicos al paso de corriente. Esta técnica se basa en el principio de que los tejidos presentan diferentes propiedades conductoras y resistivas a diferentes frecuencias, las cuales están atribuidas al desplazamiento de iones entre el medio extracelular e intracelular, así como a las características de la membrana. Como tal es una técnica no invasiva y de bajo costo que consiste en aplicar una corriente alterna de magnitud controlada y frecuencia variable al tejido biológico, midiendo el potencial eléctrico generado en respuesta a la perturbación. Se han identificado diversos factores que pueden influir en las mediciones, sin embargo, no hay una referencia cuando se trata de la incertidumbre de las mediciones, por lo que no es posible garantizar la fiabilidad de las mismas. En ese sentido se ha propuesto como objetivo de la investigación realizar un análisis sobre la trazabilidad metrológica y una propuesta de estimación de incertidumbre en las mediciones de bioimpedancia.
METODOLOGÍA
En primer lugar, se realizó una revisión bibliográfica para el conocimiento de la técnica, a partir de la cual se identificaron los diversos factores que pueden afectar las mediciones de bioimpedancia, así como aquellos de interés para el estudio (movimiento corporal y flujo sanguíneo). Con base en dichos factores se estableció un diseño experimental 2k y se realizaron pruebas con el Potenciostato/Galvanostato Gamry reference 3000, empleando una configuración tripolar de los electrodos y siguiendo un protocolo de medición estandarizado en el que se le solicitaba al usuario realizar movimientos de abducción y aducción o se ocluía la arteria braquial con ayuda de un esfigmomanómetro. El procesamiento de los datos se llevó a cabo en el software Zview, tomando como referencia un modelo de circuito equivalente para la impedancia del tejido biológico, el cual está compuesto por dos resistencias relacionadas con el medio intra y extracelular, así como un elemento de fase constante asociado al comportamiento capacitivo de la membrana.
CONCLUSIONES
Los factores que pueden afectar la medición fueron condensados en diagramas de Ishikawa. Se estimó la incertidumbre combinada, expandida y relativa para cada elemento del circuito equivalente, considerando el aporte de las mediciones realizadas y aspectos propios del equipo como resolución y calibración. Asimismo, se obtuvo la media, desviación estándar y coeficiente de variación de cada elemento en cada caso de estudio propuesto, observando que el parámetro con mayores variaciones es la capacitancia, siendo afectada principalmente por el movimiento; este parámetro también presenta los valores más grandes de incertidumbre a causa de la resolución del equipo. Por otro lado, no fue posible garantizar la trazabilidad de las mediciones debido a la carencia de un certificado de calibración del equipo.
Los resultados obtenidos son propios de un sistema biológico, sin embargo, la prueba experimental es insuficiente para realizar una correlación directa entre los datos y los efectos fisiológicos de interés, por lo que se propone realizar simulaciones con elementos finitos que permitan determinar tanto la mejor ubicación de los electrodos como la magnitud de corriente más apropiada para captar los efectos mencionados. De igual forma, el trabajo realizado corresponde a una primera propuesta encaminada a garantizar la fiabilidad de este tipo de mediciones que es ampliamente utilizada en el campo de la salud pero no hay un referente cuando se trata de incertidumbres o trazabilidad. Se espera continuar con la propuesta, indagando sobre aspectos propios del equipo y realizando más pruebas que aporten a la confiabilidad de los resultados.
Campos Mendoza Luis Adrian, Instituto Tecnológico de Ciudad Juárez
Asesor:Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
DESARROLLO DE FUNCIONALIDAD DE RECETAS PARA SISTEMAS DE DEPóSITO DE PELíCULAS DELGADAS PARA EL ESTUDIO DE MATERIALES SEMICONDUCTORES.
DESARROLLO DE FUNCIONALIDAD DE RECETAS PARA SISTEMAS DE DEPóSITO DE PELíCULAS DELGADAS PARA EL ESTUDIO DE MATERIALES SEMICONDUCTORES.
Campos Mendoza Luis Adrian, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La programación del microcontrolador PIC 16F887 para la realización de secuencias (recetas), presenta limitantes en base a la cantidad de información que puede ser almacenada dentro del mismo, lo que ocasiona una reducción de pasos y simplifica la receta a seguir.
El microcontrolador presenta una 256 Bytes de memoria EEPROM, los cuales se dividen en la cantidad de recetas que se quieran a utilizar, por lo que mas complejas, menos cantidad se pueden grabar. A su vez, el microcontrolador presenta su memoria RAM que también puede ser utilizada para el grabado de secuencias, sin embargo, esta memoria se elimina al momento de des energizar el controlador.
Las mayores problemáticas que se presentan en el uso de este microcontrolador son primeramente que el proyecto a elaborar debe ser a un nivel escalado y no industrial en base que la cantidad de pasos a utilizar se ve limitada por la cantidad de bytes disponibles para el guardado de recetas. También, existe la negativa que cada byte puede ser sobrescrito en 100’000 ocasiones, donde si se pasa de esa cantidad empieza a perjudicar el funcionamiento y guardado de recetas del programa.
METODOLOGÍA
Se realizó un prototipo en colaboración con el Departamento de Ingeniería de Proyectos de la Universidad de Guadalajara. El prototipo consistía en un tronillo sin fin que sería el responsable de sumergir en las soluciones de sustrato de vidrio para crear las películas delgadas.
Se decidió utilizar únicamente 6 soluciones postradas en una mesa giratoria en base a las limitantes del microcontrolador, donde la programación de este nos permitió elegir la solución a utilizar, el tiempo de ciclo y la cantidad de veces, con un máximo de 6 repeticiones dentro de estas 6 soluciones.
Una vez identificadas las limitantes del microcontrolador y el ajuste del prototipo de acuerdo a estas, se decidió que la memoria EEPROM del microcontrolador seria dividida en 4 partes para el guardado de un máximo de 4 recetas dentro del mismo, se dividieron los bytes del dispositivo para la receta 1 del 1 al 62, para la 2 del 63 al 124, para la 3 del 125 al 186 y la cuarta del byte 187 al 256. El guardado de recetas en la memoria EEPROM podría ser llevada a cabo de diferentes maneras; la primera, directamente haciendo el cambio del programa dentro de la programación del dispositivo, la segunda, a partir de crear una receta temporal guardada en la memoria RAM donde puede sobrescribir alguna guardada en la memoria EEPROM en el caso de ser requerida para poder volver a ser utilizada en un futuro y que no se borre al momento de quitar la energía del dispositivo.
Para empezar la creación de una receta en la memoria RAM para luego poder guardarla en la memoria EEPROM se requiere primeramente poner en paro el sistema con un interruptor agregado a una entrada que envía una señal para la creación de una nueva receta.
La programación del dispositivo se realiza en un programa CCS de lenguaje C. El programa se genera a partir de un código de verificación de cada receta el cual fue asignado con un teclado matricial con un valor numérico, a partir de allí se selecciona de acuerdo a cada byte asignado la secuencia de los recipientes en que se sumergirá en nuestra solución, cantidad de veces que se repetirá la receta, tiempos de ciclo dentro y fuera de los recipientes, etcétera.
El microcontrolador funciona a una velocidad de 4 MHz y un tiempo de instrucción de 1 microsegundo. Con esto se realizan los cálculos de velocidad y desplazamiento de los recipientes con los sustratos de vidrio para asegurar un funcionamiento rápido y eficiente.
El funcionamiento del prototipo es basado a partir de la guía GEMMA donde especifica la secuencialidad de cada parte del proyecto para poder ser elaborado con un orden y a su vez una vez en funcionamiento, permite el correcto funcionamiento del mismo evitando fallas simples y contratiempos.
CONCLUSIONES
Durante la estancia del verano se adquirieron distintos conocimientos tanto en áreas metodológicas como productivas como lo es la programación, donde a partir de la investigación se abrió un nuevo panorama a la aplicación de las técnicas de instrumentación para llevar a cabo un proyecto estructural y correcto.
Esta investigación nos puede resolver de distintas problemáticas ya que el programa es fácil mente aplicable a otro tipo de proyecto donde el mismo consuma menos recursos y genere una eficiencia en un sistema de producción.
Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
Canchola Vega María del Carmen, Instituto Tecnológico de Matamoros
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
Canchola Vega María del Carmen, Instituto Tecnológico de Matamoros. Lopez Rodriguez Destiny Priscila, Instituto Tecnológico de Matamoros. Resendez Martínez America Daniela, Instituto Tecnológico de Matamoros. Valenzuela Rodríguez Andrea Guadalupe, Instituto Tecnológico de Matamoros. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La industria maquiladora en la zona fronteriza del norte de México ha representado un eslabón importante en la economía de esta área desde los años ochenta y noventa. El efecto de esta actividad sobre el medio ambiente ha sido poco estudiado sin embargo se ha observado más contaminación por hidrocarburos en suelos debido a la maquila. Así, este trabajo permitirá mostrar que la fitorremediación puede lograr grandes cambios, ya que al ser esta una tecnología de diversos compuestos de procesos bioquímicos por medio de plantas y microorganismos tenemos la oportunidad de demostrar como la planta Helianthus Annuus L., puede hacer un cambio en el sitio, así como las diferentes herramientas para eliminar los hidrocarburos.
METODOLOGÍA
Para la observación del crecimiento de Helianthus Annuus L. (girasol) en suelo contaminado, se empezó por pesar 100g de suelo, en los cuales se sembraron dos semillas por maceta para elevar la probabilidad de germinación correcta. Posteriormente, se contaminó la tierra con aceite quemado de acuerdo a diferentes porcentajes de acuerdo a la NOM-138-SEMARNAT/SS-2003. Por lo tanto, se hicieron 5 muestras teniendo, 0% de contaminante, 2%, 3%, 4%, y 5% respectivamente.
Se utilizaron diferentes parámetros para medir el crecimiento de la planta. Estos fueron: porcentaje de humedad, pH, y densidad relativa del suelo.
CONCLUSIONES
Se llegó a la conclusión de que la Helianthus annuus L. es una buena opción para la fitorremediación de suelos contaminados por aceites, ya que entre más porcentaje de contaminación hubo un crecimiento más notorio. Esto, como mencionamos anteriormente, puede ser de mucha ayuda para la remediación de suelos contaminados en la zona fronteriza. Asimismo, a pesar de las inclemencias del clima, la planta que se utilizó fue muy resiliente ante los cambios de temperatura, lo cual lo hace un proyecto más viable a manera futura.
Caravantes Reynoso Carlos Eduardo, Instituto Politécnico Nacional
Asesor:Dr. Vincent André Lionel Boyer, Universidad Autónoma de Nuevo León
ÁREAS DE OPORTUNIDAD ENTRE LA TEORíA DEL CONTROL Y LA INVESTIGACIóN DE OPERACIONES PARA TRABAJOS FUTUROS
ÁREAS DE OPORTUNIDAD ENTRE LA TEORíA DEL CONTROL Y LA INVESTIGACIóN DE OPERACIONES PARA TRABAJOS FUTUROS
Caravantes Reynoso Carlos Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Vincent André Lionel Boyer, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Uno de los principales desafíos de las empresas modernas para mantener su capacidad de permanecer aptos en el entorno del mercado altamente competitivo de hoy desde el punto de vista operacional es poder identificar y analizar el modelo dinámico de todas sus cadenas de suministro. Los sistemas de producción y de logística actuales, las mismas cadenas de suministro e incluso las redes de la industria 4.0 en los procesos de digitalización empresarial e industrial tienen ciertos problemas intrínsecos relacionados con los altos grados de incertidumbre y riesgos. Modelar una cadena de suministro es una tarea imperativa en la toma de decisiones, la planificación y las formulaciones financieras dentro de las corporaciones.
La teoría del control es una propuesta muy útil que puede brindar muchas herramientas para el análisis y la identificación de los modelos de administración de las cadenas de suministro en términos de robustez, estabilidad, controlabilidad y resiliencia. En este sentido, y en vista del acelerado crecimiento en la implementación de tecnologías informáticas y digitales, se han desarrollado investigaciones avanzadas en el campo de la investigación de operaciones y la aplicabilidad de la teoría del control en la toma de decisiones corporativa.
La investigación de operaciones es un conjunto de métodos que permiten encontrar las relaciones óptimas que operen un sistema según un objetivo particular. En este sentido, la mayor problemática que se presenta es integrar la forma en que se tratan los modelos de naturaleza estocástica, lo que brinda oportunidades de emplear la visión y el tratamiento que posee la teoría del control de la teoría de sistemas.
METODOLOGÍA
El trabajo realizado tuvo como base una metodología de la investigación orientada al entendimiento de los fundamentos de ambas áreas: tanto de la teoría del control, como de la investigación de operaciones, primero generando un resumen histórico de ambas áreas y un análisis de la evolución de su relación a través del tiempo y por medio del estudio de bibliografía recomendada y calificada; segundo, obteniendo un entendimiento profundo del estado del arte entre ambas disciplinas de manera que se puedan identificar áreas de oportunidad para la investigación e implementación en trabajos futuros; y tercero, obteniendo conclusiones que permiten al alumno interesado especializarse en los temas que más le generen curiosidad y deseo intelectual de contribuir en su desarrollo.
Este proceso se llevó a cabo semanalmente, en el que al final de cada semana se elaboraba una presentación ejecutiva que se presentó con el equipo del doctor asesor, permitiendo así tener retroalimentación del mismo asesor y de las personas que colaboran con él.
Las primeras dos presentaciones se enfocaron en generar una idea general del campo de la investigación de operaciones y sus temas introductorios tales como la programación lineal y la programación entera, de los cuales también se debían presentar ejemplos de aplicación y solución de los mismos.
La semana siguiente se enfocó en identificar el proceso de solución de los problemas de la investigación de operaciones, esto es, identificar la función objetivo, identificar las variables de decisión e identificar los tipos de restricciones de acuerdo a la naturaleza del problema en cuestión.
En la cuarta semana se presentaron análisis de algunos ejemplos de trabajos de investigación actuales y su respectiva discusión.
Finalmente, las últimas semanas se dedicaron a identificar las áreas de oportunidad en las que la teoría de control podía mejorar los procesos de solución propios de la investigación de operaciones y aquellas ventanas en las que podrían relacionarse de manera más estrecha, encontrando aplicaciones incluso a la inversa, es decir, aplicaciones de la investigación de operaciones en la teoría del control.
CONCLUSIONES
Durante la estancia virtual de verano se lograron identificar las áreas de oportunidad entre los campos de la teoría del control y la investigación de operaciones, encontrando las siguientes aplicaciones:
Sistemas ciber-físicos
Administración y gestión de sistemas de control en la generación energética
Planeación de mantenimiento correctivo y preventivo
Planificación en fábricas inteligentes
Ruteo de información en sistemas con múltiples robots
Ruteo y planificación de redes de manufactura en la industria 4.0 y en la nube.
Siendo las principales herramientas de la teoría del control empleadas las siguientes:
Control por retroalimentación lineal
Control predictivo (en especial el Model Predictive Control)
Control óptimo determinista y estocástico
Y cuyas áreas de oportunidad más relevantes para el estudiante fueron las siguientes tres:
Planificación de la producción mediante el empleo de sistemas cyber-físicos.
Planificación del control de inventarios y generación de políticas empresariales.
Aplicaciones del control óptimo y predictivo en la industria 4.0 y manufactura en la nube por medio del empleo de modelos data-driven y el uso de IA.
Así, el hecho de que los procesos de planificación y planeación se puedan analizar y plantear como problemas de la teoría del control es una ventaja crucial, ya que permite generar un análisis muy concreto y preciso de los modelos dinámicos.
El enfoque multidisciplinario de la teoría del control en conjunto con la investigación de operaciones, la dinámica de sistemas y la inteligencia artificial puede mejorar exponencialmente las posibilidades de generar soluciones prácticas y óptimas a problemas cada vez más complejos que la modernidad impone.
Carbajal Armenta Adriana, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE ANALITOS DE INTERéS AMBIENTAL Y BIOLóGICO.
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE ANALITOS DE INTERéS AMBIENTAL Y BIOLóGICO.
Carbajal Armenta Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es una de las técnicas analíticas más utilizadas para la detección y cuantificación de compuestos de interés en una amplia gama de áreas. Consiste en la separación de los componentes de una muestra que son arrastrados a través de un material poroso por medio de una fase móvil.
Los métodos cromatográficos son uno de los métodos más ampliamente utilizados para separación y análisis. De acuerdo con el fenómeno fisicoquímico que fundamenta la separación, se clasifican en:
Cromatografía de adsorción: se basa en el fenómeno de adsorción, que es un proceso fisicoquímico en el cual los átomos, iones y moléculas se concentran en la superficie de una fase estacionaria por interacción de la misma con los componentes de la muestra, eluyendo a distintos tiempos debido a la afinidad relativa que tengan por cada una de las fases. Este fenómeno es aprovechado en la separación de la cromatografía líquido-sólido y gas-sólido.
Cromatografía de Reparto: se basa en la distribución de un soluto, entre las fases de dos solventes inmiscibles.
Cromatografía de Exclusión: la separación ocurre en función del tamaño y forma de la molécula,
Cromatografía de intercambio iónico: los componentes iónicos se separan por el intercambio selectivo de los contraiones de la fase estacionaria
El uso de la cromatografía de adsorción como herramienta para el análisis de contaminantes ambientales de uso agrícola resulta de importancia, puesto que los mismos representan un problema de interés ambiental y de salud pública debido a su uso indiscriminado, así como al mal manejo de residuos.
Los compuestos organofosforados son derivados del ácido fosfórico que representan uno de los grupos de compuestos más ampliamente utilizados para el control de plagas. El modo de acción de estos compuestos se debe a una inhibición competitiva de la enzima acetilcolinesterasa, encargada de la hidrólisis de la acetilcolina (neurotransmisor mediador de la actividad sinaṕtica) que provoca la interrupción de la transmisión del impulso nervioso; al inhibir la enzima, ocurre la acumulación de la acetilcolina produciendo el mantenimiento del estímulo y diversas condiciones, en insectos, se traduce en una parálisis, con un modo de acción similar que lleva a la muerte del insecto. La importancia de la detección de este tipo de compuestos en el suelo, agua y alimentos radica entonces en su alta toxicidad, baja propensión a la degradación y su carácter bioacumulativo. Por tanto, es de especial interés el desarrollo de métodos de determinación de este tipo de compuestos en diversas muestras.
La cromatografía de gases representa uno de los métodos más utilizados para la detección de este tipo de compuestos, sin embargo, la identificación y cuantificación de los mismos representa un reto dado el gran número de compuestos presentes en las muestras de suelo, agua y alimentos, y las bajas concentraciones de los mismos.
METODOLOGÍA
Las metodologías más utilizadas para la cuantificación y determinación de insecticidas organofosforados en diversas muestras se basan en la cromatografía de gases, acopladas a diversos tipos de detectores, principalmente detectores en UV-Vis.
El resultado de un análisis cromatogŕafico se denomina cromatograma, que es la señal gráfica dada por la señal del detector contra el tiempo, y sirve para describir el proceso de separación que ocurre en el cromatógrafo, sea de gases o de líquidos. Los parámetros cromatográficos son modelos matemáticos que nos permiten describir los procesos moleculares que ocurren en el curso de la separación, e incluyen:
Tiempo de retención: es el tiempo transcurrido desde la inyección de la muestra hasta la detección máxima del número de moléculas de cada analito, por tanto, es característico de cada analito bajo las mismas condiciones de un método cromatográfico y representa el pico más alto del pico cromatográfico.
Factor de capacidad (k): representa la medida de la fuerza con la que la fase estacionaria retiene al analito, y por tanto, si es mayor, el analito se retiene más tiempo.
Selectividad (α): representa la relación de la retención relativa de dos compuestos que eluyen uno a continuación del otro, es decir, de dos picos contiguos, entre mayor es este parámetro entre 2 picos contiguos, mayor es la separación.
Eficiencia de la columna (número de platos teóricos, N): es un parámetro utilizado para comparar separaciones cromatográficas bajo distintas condiciones, a mayor número de platos teóricos, mayor eficiencia en la separación.
Resolución: que refiere a la capacidad de la columna de separar los analitos.
Los parámetros cromatográfico permiten validar un método cromatográfico para la detección y cuantificación de cualquier compuesto de interés. La validación de cualquier método entonces, nos permite definir las características de desempeño del proceso analítico y las limitaciones del mismo.
CONCLUSIONES
Es de especial importancia, el desarrollo de métodos de validación para la detección de de analitos de interés ambiental que sean precisos, exactos y selectivos para el compuesto de interés.
Durante la estancia, se adquirieron los conocimientos básicos para el análisis cromatográfico, así como la elección de los parámetros de operación: tipo de disolventes a utilizar en CL o gas acarreador en CG; la presión de la bomba, selección de la columna; selección de las longitudes de onda de detección, así como el análisis de datos. La cromatografía representa una importante herramienta analítica en una gran variedad de áreas, por lo que resulta de gran importancia conocer el fundamento de la misma.
Carballo Gutiérrez José Adolfo, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
Carballo Gutiérrez José Adolfo, Instituto Tecnológico Superior de Huauchinango. Cruz Romero Maricarmen, Instituto Tecnológico Superior de Huauchinango. Riveros Ponce Josselin, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Dar a conocer la historia de una forma divertida y dinámica es un tema difícil así que este proyecto se enfoca en enseñar un poco de la historia, centrándonos en nuestro propio municipio y haciéndolo por medio de una forma poco peculiar y pensamos en los juegos virtuales, dado que es un tema de interés en las nuevas generaciones.
La Realidad Virtual (RV) es un entorno de escenas y objetos de apariencia real generado mediante tecnología informática que crea en el usuario la sensación de estar inmerso en él, uno de los softwares en el que se pueden crear estas escenas y objetos es Blender este es un programa informático multiplataforma, dedicado especialmente al modelado, iluminación, renderizado, la animación y creación de gráficos tridimensionales.
Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás. Nosotros queremos mostrarle un poco lo que es Huauchinango al mundo, es por ello que estamos diseñando en el programa Blender, la iglesia de Huauchinango, así como la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro).
METODOLOGÍA
Para hacer el personaje del danzante se investigaron referencia de todos los ángulos posibles para poder empezar a hacer un modelo boceto, este consta de esculpir con la herramienta metabolas. Una vez teniendo un molde se le dio más delineado en detalles como ojos, orejas, dedos, y músculos, una vez teniendo el modelo deseado, se empezó a hacer el diseño de ropa; para ello se utilizó la herramienta de capas, o caras, para poder hacer un objeto sólido a partir del modelo, como se hizo varias capas fue necesaria aplicar un solidificador y así pudiera tener una textura más cercana a tela. Para hacer la parte de faldas y penacho junto con las cintas se hicieron objetos formadas por mallas para no deformar al diseño. Una vez terminada la parte del diseño, se pasó a hacer la animación unidad con los huesos con cada extremidad del cuerpo humano.
Para el diseño de la iglesia de nuestra señora de la asunción, primero se llevó a cabo una investigación sobre las medidas de esta en cuanto a su estructura, pero no se obtuvieron muchos datos ya que no existen muchos registros sobre las medidas, pero se logró encontrar medidas de la cúpula, así como se hizo uso de la página de Google Maps para tener ligeras referencias sobre las medidas de la iglesia, entonces, una vez que se tenía una idea de como eran estas medidas se procedió al diseño en el programa Blender.
El primer paso para el diseño 3D fue el diseño de la estructura principal de la iglesia, que tiene una forma circular y que al elevarse reduce su tamaño como un cono, para esto se usó un plano circular que se extruyó y que se redujo su área mientras este se elevaba.
Luego se usó el mismo principio para el diseño de la cúpula de la Iglesia, solamente que para esta parte de la Iglesia al final no se hizo una superficie plana, sino que se siguió extruyendo y reduciendo el tamaño hasta que al final que tenía una superficie circular que emulaba la cúpula de la Iglesia. Después de esto se realizó la cruz que tiene en la parte superior de la cúpula. Esto se realizó con un cubo que se editó para que tuviera una forma más alargada después de esto se dividió para que pudiera extruirse solamente una zona de sus lados esto para hacer los brazos de la cruz.
Las últimas 2 zonas que se diseñaron fueron la estructura donde se encuentra la Virgen María que a su vez es el lugar donde los sacerdotes ofician la misa, también se diseñó la entrada haciendo uso de planos rectangulares que se modificaron a una forma mas parecida a un rombo.
Por último se agregaron texturas y color a la iglesia para que tuviera su color verde, así como sus vitrales característicos.
CONCLUSIONES
En este verano de investigación, se adquirieron una gran variedad de conocimientos en torno a el manejo de softwares multiplataforma de diseño y de animación. Algunos de estos conocimientos o habilidades adquiridas son el modelado de objetos 3D, así como la articulación de cuerpos y su animación para el movimiento de estos en animaciones 3D, desarrollando a su vez la capacidad de trabajo en equipo y la enseñanza desde un nuevo enfoque de la materia de historia, en este caso de la historia y las costumbres de Huauchinango, Puebla.
Cárdenas Carrera Julio Yael, Instituto Tecnológico Superior de Xalapa
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
DISEñO DE ROBOT BIOMIMéTICO PARA LA EXPLORACIóN DE ARRECIFES.
DISEñO DE ROBOT BIOMIMéTICO PARA LA EXPLORACIóN DE ARRECIFES.
Cárdenas Carrera Julio Yael, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La comunidad marina de agua poco profundas cercanas a la costa denominada por los arrecifes, ubicados entre el trópico de Cáncer y el trópico de Capricornio. Son estructuras conformadas por corales, biomineralizadas que protegen comunidades costeras, actuando como barreras protectoras antes siniestros naturales como huracanes y tsunamis. Es el lugar en donde una gran diversidad de algas, invertebrados y peces habitan creando un ecosistema con gran importancia en la vida mariana, ya que diferentes especies, al llegar a una etapa adulta, se reproducen y liberan sus huevecillos en los arrecifes. Según la ICRI (Iniciativa internacional de Arrecifes de Coral), aproximadamente el 10% de los arrecifes de todo el mundo se encuentran deteriorados, esto por las altas temperaturas, contaminación, entre otros. Los arrecifes son uno de los ecosistemas más valiosos y biológicamente diversos en el planeta, se han calculado que el 25% de toda la vida marina, que incluyen más de 4,000 especies de peces dependen de los arrecifes en algún punto de su vida, su constante estudio y manejo es muy importante para poder mantener estas zonas, analizando e investigando el área de una forma no invasiva para los animales que habiten en él, es por eso que se ha propuesto el diseño de un robot biomimético basado en la morfología de los tiburones, con la habilidad de nadar e explorar los arrecifes.
METODOLOGÍA
Se analizó y estudió el funcionamiento de los tipos aletas y el movimiento de los peces con propulsión BCF (Body and/or Caudal Fin), en especial la clase Chondrichthyes por el uso principal de aletas dorsales, anal y caudal, que les permite nadar con un menor esfuerzo y generar mayor fuerza de propulsión. Usan la mitad de su cuerpo con un mínimo movimiento ondulatorio en su cuerpo de locomoción carangiforme y con la implementación de una aleta caudal de tipo homocerca, la fuerza de empuje a través del fluido incrementa. Se analizaron estos datos con el propósito de diseñar un robot biomimético con la apariencia de un tiburón, por su forma hidrodinámica, para su uso en la investigación de los arrecifes y animales que habiten en el mismo.Para la cola, se realizó una descripción de la cinemática directa para representar el movimiento en coordenadas cartesianas con el fin de programar los ángulos de las articulaciones controlado por motores, teniendo la aleta caudal como referencia de punto de posición. Esto descrito con la implementación de los algoritmos de Denavit-Hartenberg, en donde se propuso un sistema de movimiento de 3 grados de libertad, considerándolo una cola artificial planar por sus movimientos en los ejes X e Y. Las aletas pectorales de los peces con propulsión BCF, se puede comparar con las alas de un avión, ya que tienen un propósito similar. Las alas de un avión tienen como función darle la fuerza de sustentación necesaria para poder elevarse o descender durante su vuelo variando su ángulo de ataque, esto gracias al principio de Bernoulli, el cual describe a la velocidad y a la presión como inversamente proporcionales. Por tal motivo, se consideró un perfil alar siguiendo la nomenclatura NACA (National Advisory Committee for Aeronautics) usando el ejemplar 0012, por ser un perfil simétrico con uso en el vuelo subsónico con un excelente coeficiente de sustentación (CL) con respecto al ángulo de ataque (α) con una forma hidrodinámica suave. Al considerar una forma hidrodinámica suave, se hace referencia al flujo laminar y turbulento, en donde el borde de ataque se enfrenta a un fluido en movimiento y se generará un vacío llamada capa límite, el cual, al tener velocidades bajas, se presenta un flujo de tipo laminar, mientras que, al considerar altas velocidades, se generara un flujo turbulento más grande que el laminar, produciendo mayor resistencia por causa de grandes cantidades de ondas de choque acumuladas en los extradós, aumentando también la baja estabilidad, la manera en la que se puede cancelar la resistencia y ondas de choque son las alas en flecha; sin embargo, solo son útiles en velocidades altas, ya que su área disminuye, por lo tanto el coeficiente de sustentación es menor en comparación a unas alas rectas. Al nadar por arrecifes, el robot se expone a fuerzas de empuje por las mareas y algunas corrientes marinas, las cuales podrían estropear las aletas pectorales por causa de una gran acumulación de ondas de choque, resistencias parasitas y flujos turbulentos, por tales motivos, se optó por un diseño de aletas variables, en donde el robot cambiara el estado de las aletas variando el ángulo de las alas con respecto al cuerpo o fuselaje del robot dependiendo de la velocidad en la que desplace. De igual forma, se agregó un mecanismo de sustentación y cambio de dirección con el uso de flaps integrados en las aletas pectorales, los cuales, además de que les dará mayor sustentabilidad en cualquiera de los modos de ángulo variable, serán útiles para el cambio de navegación, dándole la habilidad de girar con respecto al eje central de una de las aletas pectorales.La estabilidad giroscópica del robot es fundamental, el equilibrio en el sistema es muy importante para la sustentación y orientación. Con el objetivo de tener un centro de gravedad cerca de las aletas pectorales, se agregaron aletas dorsales para mejor maniobrabilidad en giros y aletas pélvicas para mantener el equilibrio en el robot.
CONCLUSIONES
Se logró diseñar un robot teórico de un pez con características de la clase Chondrichthyes, por su forma hidrodinámica y su propulsión BCF. Se implementó una locomoción controlada por 3 grados de libertad para una mejor movilidad con la implementación de una aleta caudal heterocerca que le dará mayor movilidad y empuje. La mejor forma para lograr una fuerza de sustentación adecuada al tamaño y peso del robot, será el uso de aletas pectorales de 2 estados. El estado recto será activado cuando se encuentre en velocidades bajas, mientras que el estado en flecha será activado al navegar a velocidades altas para la protección y estabilidad de orientación del robot. Fueron agregadas unas flaps las cuales le darán un ángulo de ataque a las aletas en cualquiera de los 2 estados, dándole sustentabilidad según sean sus necesidades y una manera de cambiar la dirección de nado, junto una aleta dorsal y 2 pélvicas buscando la mejor estabilidad en el robot.
Cardona Trejos Nathalia, Universidad Tecnológica de Pereira
Asesor:Dr. Juan Miguel González López, Universidad de Colima
MICRO-REDES: LA NUEVA ALTERNATIVA DE DISTRIBUCIÓN DE ENERGÍA ELÉCTRICA IMPLEMENTANDO ENERGÍAS RENOVABLES
MICRO-REDES: LA NUEVA ALTERNATIVA DE DISTRIBUCIÓN DE ENERGÍA ELÉCTRICA IMPLEMENTANDO ENERGÍAS RENOVABLES
Cardona Trejos Nathalia, Universidad Tecnológica de Pereira. Asesor: Dr. Juan Miguel González López, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
La energía eléctrica es una necesidad humana básica, por lo cual es de vital importancia su acceso, sin embargo, actualmente, millones de personas carecen de este servicio básico. El presente trabajo de investigación se enfoca en esta necesidad, donde busca resaltar y dar a conocer una innovadora alternativa de los sistemas de distribución de energía como lo son las micro-redes, profundizando en los avances que se han hecho en esta área, con el fin de implementar en un futuro estos sistemas de distribución, para abastecer a zonas remotas que carecen o no tienen fácilidad de acceso a este recurso. Considerando el impacto ambiental, se busca que el abastecimiento de energía de estas redes se haga a través de energías renovables como energía solar, eólica o hidráulica entre otras alternativas. Sin embargo, dado que la obtención de energía a través de estos recursos naturales es limitada ya que dependen de las condiciones ambientales las cuales varían contantemente, se da la necesidad de emplear generadores como medio de respaldo.
METODOLOGÍA
Búsqueda bibliográfica de artículos relacionados con el funcionamiento, principio básico, aplicaciones, mejora, estudio e implementación en otros países de las microrredes, para analizar el funcionamiento y capacidad eléctrica que ofrece este sistema alternativo.
Emplear softwares para la simulación de microrredes a través de herramientas como Simulink del programa Matlab con diferentes fuentes de alimentación, conexiones básicas para el funcionamiento de microrredes
Explicar los parámetros principales a tener en cuenta al instalar una microrred en el hogar.
Diseñar una microrred básica que pueda ser recreada fácilmente en el hogar.
CONCLUSIONES
De esta investigación se espera dar a conocer que son las micorredes y como se pueden implementar fácilmente en el hogar para aportar y suplir necesidades básicas como la energía eléctrica, también busca proveer de electricidad a zonas remotas que carecen de este recurso y a redes primarias; ya que actualmente existe una creciente preocupación debido la escases de energía de combustible fósil, pues es una fuente de energía que contribuye a la contaminación ambiental la cual es cada vez mayor. Por lo cual las energías renovables son una excelente alternativa de cambio ya que proporcionan energía eléctrica sin contaminar en el proceso surgiendo así la necesidad de implementar energías renovables lo que a su vez ha potenciado los sistemas de distribución de energía como las micro-redes, que es un sistema de distribución fiable, sostenible y económico.
Cariño Cuevas Andres, Instituto Tecnológico de Tláhuac
Asesor:M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
DISEñO DE INSTALACIóN DE PANELES FOTOVOLTAICOS PARA UNA VIVIENDA DE COMUNIDAD AISLADA EN TúXPAM, VERACRUZ
DISEñO DE INSTALACIóN DE PANELES FOTOVOLTAICOS PARA UNA VIVIENDA DE COMUNIDAD AISLADA EN TúXPAM, VERACRUZ
Cariño Cuevas Andres, Instituto Tecnológico de Tláhuac. Asesor: M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
PLANTEAMIENTO DEL PROBLEMA
Actualmente la energía eléctrica es una de las mas utilizadas a nivel mundial y la que menos contaminación produce si se trata de energía renovable, el propósito del reporte es proporcionar una solución a la generación de energía eléctrica de manera solar, se diseñará un sistema fotovoltaico el cual cubrirá la necesidad de energía eléctrica de una vivienda ubicada en Túxpam, Veracruz; se realizará un levantamiento eléctrico con el fin de conocer el consumo de todas las cargas criticas de la vivienda; con el uso de formulas establecidas se podrá conocer cuales son los componentes que conforman el sistema fotovoltaico, finalmente se realizará la distribución eléctrica de la vivienda así como el diseño de la instalación física en un software de diseño; dentro de los problemas a resolver se encontraron los siguientes:
1-.Resolver y solventar la necesidad de energía eléctrica de una vivienda en una comunidad aislada.
2-.Mejorar las condiciones actuales que propicien mayor facilidad para realizar actividades diarias.
3-.Diseñar una instalación eléctrica con la posibilidad de llegar a ser un sistema híbrido, pensando que en un futuro lleguen los servicios a la comunidad.
METODOLOGÍA
Durante el transcurso de la estancia de investigación se llevo a cabo el estudio de la ubicación geografía de la vivienda; partiendo de la ubicación geografíca se reconoció cual era la latitud, la cual es de 20.897307°, y la longitud de -97.393478°, con base a estas magnitudes se puede determinar que los paneles deben tener una inclinación de 0° a 13° de inclinación y deben estar orientados hacia el sur.
El siguiente paso del diseño de una instalación fotovoltaica es el levantamiento eléctrico, que consiste en recopilar el consumo de todas las cargas criticas que tiene la vivienda, los resultados del levantamiento eléctrico se plasman en una tabla; la cual tiene el nombre del dispositivo, su potencia, la cantidad de dispositivos y las horas de uso; para concluir el levantamiento eléctrico se suma el consumo de los componentes dando como resultado un consumo de 3784.4 W/H; con el resultado del levantamiento eléctrico y haciendo uso de formulas establecidas, las cuales se adquirieron de un curso de la fundación Slim; gracias el cálculo se puede constatar cuales son los componentes óptimos:
-4 paneles solares de 330w conectados en paralelo
-Un regulador de carga que soporte 35A
-8 baterias de ciclo profundo de 12V conectadas en 2 ramificaciones paralelas y con 4 baterias en serie cada una.
-Un inversor de 6KW con entrada de 48 V
Con estos componentes se pueden cubrir los requerimientos energéticos de la vivienda con un margen de 30% de seguridad.
Finalmente se realiza la distribución eléctrica en el software de Smartdraw y para el diseño del cuarto de control se destinó un cuarto de 2x3m el cual albergará a todos los componentes de la instalación; se agrega la estructura la cual sostendrá a los paneles solares y se realiza un ensamblaje final en el software de SolidWorks.
CONCLUSIONES
Para el diseño del sistema fotovoltaico se realizaron los cálculos pertinentes, iniciando con el levantamiento eléctrico con el fin de conocer el consumo diario de la vivienda, lo siguiente fue la obtención del número de baterías necesarias, el arreglo de estas y la selección del inversor y el regulador de carga que se adecuen a las necesidades del proyecto.
Se realizó una distribución de cargas de acuerdo con la distribución de las habitaciones, así como la distribución de luminarias en todo el terreno de la vivienda. Además, se diseñó la distribución y orientación de los paneles solares con ayuda del software SolidWorks, en el plano del terreno y su distribución.
Cabe mencionar que la distribución de cargas y el diagrama del cableado contempla la posibilidad de sustituir algunas cargas críticas, con el fin de que en algunos años el servicio de red eléctrica publica llegue a esa comunidad.
Se contemplan varias acciones para trabajo futuro, una de ellas es documentar apropiadamente la viabilidad económica del proyecto ya que sin dudarlo, el mejorar la calidad de vida de una persona es un aporte incuantificable, comprobar que la eficiencia de los paneles está acorde a la incidencia de los rayos solares, el diseño de una base que pueda reorientar a los paneles y quizá el uso y cálculo de tensores para soportar la base.
Carmona Álvarez Alondra Guadalupe, Instituto Tecnológico de Pachuca
Asesor:Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez
ANáLISIS MULTI-CRITERIO PARA LA TOMA DE DECISIONES APLICADO AL PROYECTO TREN MAYA
ANáLISIS MULTI-CRITERIO PARA LA TOMA DE DECISIONES APLICADO AL PROYECTO TREN MAYA
Carmona Álvarez Alondra Guadalupe, Instituto Tecnológico de Pachuca. Asesor: Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Generalmente, los proyectos propuestos por el gobierno de cada país tienen como principal objetivo satisfacer necesidades o resolver problemas, promoviendo el desarrollo social, económico y turístico de la nación, sin embargo, no todos los proyectos cumplen con las soluciones y metas propuestas, pues al menos en los últimos 15 años hay mínimo 10 proyectos que su operación no fue la esperada, superaron el presupuesto inicial o no fueron culminadas en el tiempo estimado. De esta forma, para toda implementación de un proyecto es necesario realizar un análisis de viabilidad que permita conocer los alcances del proyecto para su conclusión de manera satisfactoria y de esta manera servir como guía para la toma de decisiones desde la observación integrada de cada parámetro del proyecto y los factores de riesgo.
Por otra parte, el gobierno actual de México lleva a cabo un proyecto de interés nacional nombrado Tren Maya, el cual ha generado polémica en la sociedad por factores ambientales, económicos y turísticos. El inicio de este proyecto careció de análisis de viabilidad para la toma de decisiones en relación con su construcción, pues solo se realizó una consulta ciudadana en favor o en contra de dicha obra, pero no se llevó a cabo algún método que permitiera una toma de decisiones que garantizara la eficiencia, eficacia y competitividad del proyecto. Sin embargo, la falta de aplicación de métodos matemáticos para la toma de decisiones en proyectos a gran escala origina como problemática que se presenten fallas en la operación, no alcanzar las metas planteadas e incluso planes sin culminar. De esta manera durante el verano de investigación se realiza un análisis multi criterio para la toma de decisiones aplicado al Tren Maya.
METODOLOGÍA
Los métodos multi-criterio para la toma de decisiones (MCDM) tienen por objetivo seleccionar una alternativa favorable, clasificar alternativas en categorías o en orden de preferencia. El método multi-criterio utilizado es el método TOPSIS Technique for Order Performance by Similarity to Ideal Solution, desarrollado por Hwang y Yoon en 91811, este método establece un orden de alternativas utilizando el principio de distancia a la alternativa ideal y a la alternativa anti-ideal.
Se inicia con una búsqueda de información de los principales trenes turísticos de México y del mundo, caracterizados por su velocidad, capacidad, precio, servicios y panorama. Con la información obtenida se elabora una matriz de clasificación, considerando criterios como: ubicación, distancia recorrida, velocidad, clasificación de los vagones, servicios, medidas sanitarias ante el COVID-19, capacidad, precio, duración del viaje; con el fin de servir como base para la definición de la matriz de decisión.
El primer paso del método TOPSIS es la definición de la matriz de decisión consiste en representar el valor de cada alternativa según el criterio de quien realiza el cálculo, una vez definida la matriz de decisión, se ejecuta la normalización de la matriz de decisión utilizando la fórmula propuesta del método TOPSIS, posteriormente se elabora la construcción de la matriz de decisión ponderada donde se calcula mediante la ecuación establecida por el método considerando el peso correspondiente a cada criterio, el siguiente paso consiste en la obtención de la solución ideal positiva y la solución ideal negativa mediante cada una de sus ecuaciones, contemplando los criterios de beneficios y costos. Obtenida la solución ideal positiva y negativa se procede al cálculo de la distancia que tiene cada alternativa a las soluciones, para continuar con la estimación de la proximidad relativa a la solución ideal, donde cuanto el valor del radio sea más próximo a 1 indica una mayor preferencia de la alternativa; finalmente se realiza una lista de las preferencias de las alternativas en sentido decreciente, iniciando con la que se aproxime a la solución ideal.
1 C. L. Hwang and K. Yoon, Multiple Attribute Decision Methods and Applications, Springer, Berlin Heidelberg ed 1982
CONCLUSIONES
Durante la estancia del verano de investigación se logró adquirir conocimientos teóricos de los distintos métodos multi-criterio para la toma de decisiones y aplicar uno de ellos en el proyecto de interés nacional Tren Maya, mediante el cual se pudo analizar sus fortalezas y deficiencias de este proyecto comparado con trenes turísticos del mundo. De este modo, se puede visualizar que el uso de métodos de multicriterio representa una forma oportuna y potencial para analizar problemas de una manera sistemática. Actualmente según la literatura se indica que los métodos multicriterio han tomado relevancia para la solución de problemas en el campo de la ingeniería Industrial. Adicionalmente, basado en los resultados obtenidos se puede decir que el método TOPSIS es una herramienta potente para analizar el proyecto del Tren Maya. Como trabajo futuro se plantea explorar otros métodos multicriterio para realizar comparaciones con los resultados obtenidos.
Carranza Rodríguez Carlos Miguel, Instituto Tecnológico Superior de Tacámbaro
Asesor:Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro
ETAPA DE PLANEACIóN Y OPERATIVIDAD PARA REALIZAR UNA CAMPAñA DE PUBLICIDAD Y POSICIONAMIENTO
ETAPA DE PLANEACIóN Y OPERATIVIDAD PARA REALIZAR UNA CAMPAñA DE PUBLICIDAD Y POSICIONAMIENTO
Carranza Rodríguez Carlos Miguel, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
La publicidad de una organización es un elemento básico para el posicionamiento de hoy en día, la forma en que esta se hace va evolucionando y en la región de Tacámbaro aún no se aplica completamente lo que es el marketing digital , esta actividad se ha comenzado a realizar, sin embargo tiene mucho de donde experimentar, pero las personas aún no la ven como una gran ayuda.
Año con año el uso de las redes sociales va en aumento, y cada vez son menos las personas que ven la televisión o escuchan la radio, esto nos da a entender que la manera en que las personas se dan cuenta de la información va cambiando y las organizaciones deben de adaptarse.
En el ITST hace años se realizaba una campaña de promoción en la cual se realizaban actividades de forma presencial con alumnos de niveles educativos de nivel básico, medio y medio superior, con ello se lograba dar a conocer lo que se hacía en las ingenierías del tecnológico, como resultado la escuela se daba a conocer, el problema comenzó hace un par de años cuando estas actividades se dejaron de hacer.
METODOLOGÍA
Se realizará un plan de promoción y posicionamiento para el tecnológico durante el ciclo 2021 - 2022, dicho plan contará con un esquema que permita a los estudiantes prospectos conocer lo que hace un ingeniero en administración, cuales son las ventajas de la carrera y el objetivo será que ya conociendo más a fondo convencerlos de estudiar esta carrera en esta institución.
La operatividad.
El plan se realiza con la finalidad de tener un control sobre lo que se espera con la campaña publicitaria, para ello se designan otras dos áreas indispensables como lo es el área comercial, esta área se enfocará en crear un plan estratégico que permita llegar a los posibles próximos estudiantes, el área técnica, encargada de crear contenido adecuado para usar en redes sociales y acercarnos de igual manera a los prospectos. Se cuenta con el plan para que los alumnos que ya se encuentran estudiando se mantengan, esto a base de conocimientos extras a la escuela, con el objetivo de brindar de igual manera más herramientas que permitan al estudiante salir más preparado.
Proceso
Diagnostico. Inicialmente se realizó un análisis en donde se mostraba que la matrícula de la carrera era cada vez menor, además considerando que en el último año y la afectación por Covid - 19 empeoró la situación, las causas que más se destacaron en el análisis fue que la matrícula de alumnos mayor en generaciones anteriores debido a que se realizaban actividades que fomentaban el acercamiento de jóvenes a la institución, dicha actividad se dejó de realizar hace un par de años, por otro lado como ya se mencionó anteriormente la llegada de la pandemia.
Al momento. Durante los meses de mayo y junio de 2021 se estuvieron realizando los primeros experimentos en redes sociales donde se realizaba contenido en forma de valor, que permitiese a las personas conocer la información principal de la carrera, además de visitar diversas instituciones donde en acuerdo con maestros se presentaba a sus alumnos información sobre la carrera, (todo esto con las medidas de higiene debidas) debido a esto se notó un incremento en el interés de las personas, aunque aún no hay cifras exactas se puede destacar que la posible matricula de este año se duplico respecto a la del año pasado.
A realizar. Durante el ciclo 2021-2022 se llevara a cabo el siguiente plan, con el objetivo principal de generar un mayor interés sobre la carrera por medio de los prospectos.
Realizar un análisis por medio del plan comercial, el cual ayudara a conocer cuáles son las características de nuestro público esperado.
Conociendo cuales son las características de nuestros prospectos, realizar contenido en las plataformas que les sea útil en lo cotidiano, pero que con ello se cree un interés para adentrarse en la administración.
Aprovechar las diversas redes sociales que permitan llegar a más público.
Realizar acuerdos con instituciones de nivel medio superior de la región, con el fin de presentar conferencias que sean útiles para los jóvenes pero que al mismo tiempo se enfoquen en el interés por la carrera de administración.
Al mismo tiempo se realizaran actividades dentro de la escuela, para los estudiantes que cursan actualmente la carrera de administración, para así tener presente la permanecía de la matrícula.
Durante el ciclo y las diversas actividades dentro del plan comercial se realizará una base de datos que permita crear una comunicación más completa con aquellas personas que se interesen en la carrera.
De igual manera se realizarán diagnósticos frecuentes, para saber que nuevas estrategias se pueden implementar, así como aumentar la eficacia de las actividades en proceso.
Realizar acercamientos con alumnos potenciales, que les permita conocer desde la institución, los beneficios, así como casos de éxito.
Realizar análisis previos y posteriores a las fechas de captación para el ciclo 2022-2023.
CONCLUSIONES
Esta estancia de verano permite adquirir más y nuevos conocimientos, los cuales ayudan más que como conocimiento llevarlo a una práctica que en lo próximo se observara si tiene más y mejores resultados o si por el contrario no se implementó de la mejor manera.
Cabe destacar que esta estancia fue más sobre indagar sobre los planes y estrategias que permiten conocer cuál es nuestro posible cliente, así como el hecho de que una vez conociendo cual es el cliente ideal, como llegar a más del mismo para obtener mejores resultado en futuras captaciones de matrícula.
Este plan aunque ya se comenzó a realizar, se seguirá llevando a cabo durante el ciclo 2021-2022, en base a resultados se analizará si las estrategias implementadas son buenas para seguirlas aplicando en años próximos, por lo cual en esta estancia aún no se tienen los datos para realizar una comparativa del funcionamiento de este plan.
Carrasco Ortega Maritza Aline, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora
FACTORES QUE PROVOCAN UNA DEFICIENTE GESTIóN DENTRO DE LOS ALMACENES DE MATERIA PRIMA
FACTORES QUE PROVOCAN UNA DEFICIENTE GESTIóN DENTRO DE LOS ALMACENES DE MATERIA PRIMA
Carrasco Ortega Maritza Aline, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Vera García Susana, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
El almacén de materia prima siempre se encuentra enfrentándose a la mala gestión dentro del mismo, y eso causa los retrasos en los envíos a los clientes, la pérdida o extravío de las mercancías y que los costos sean elevados al hacer los pedidos a los proveedores.
Los almacenes trabajan bajo políticas administrativas como de control para cumplir con la demanda interna del cliente inmediato que son las áreas de producción y surtimiento, así como mantener ciertos niveles de inventario; cuando no se cumplen lo objetivos como los antes mencionados, de abastecer las áreas de producción y surtimiento, la consecuencia es el paro en la línea de producción del cliente lo cual provoca sanciones económicas para la organización. Sin embargo, a pesar que en algunas ocasiones no se han cumplido los objetivos, la organización ha optado por seguir operando bajo los mismos lineamientos. Aunado a esto se generan los famosos cuellos de botella debido a la falla en algún área de la gestión, igual mencionamos la entrega a destiempo de los productos finales, las fallas en algunas máquinas de producción, que el despacho no sea seguro o principalmente que se provoque algún accidente dentro del almacén debido al mal gestionamiento de tiempo de entrega.
Lo que esto nos lleva a hacernos la pregunta ¿El mal funcionamiento de la gestión de un almacén de materia prima genera también cuellos de botella, productos terminados en mal estado, entregas a destiempo y rechazo de clientes finales?
METODOLOGÍA
El tipo de investigación que se realizó en este estudio fue documental, en el cual se revisaron 25 artículos de investigación científica obtenidos de diferentes bases de datos Redalyc, Scielo, Google Académico, Latindex, y Ebsco.
Se seleccionaron las investigaciones que cumplieron con los siguientes requisitos o criterios: 1) que en su contenido expresaran las palabras claves del estudio, 2) que expusieran características generales, 3) que manifestaran las características metodológicas de los mismos, es decir: tipo de estudio, fuente de obtención de la información, población o de la muestra y técnicas de análisis de la información y 4) que mencionaran los factores que Factores que provocan una deficiente gestión dentro de los almacenes de materia prima.
CONCLUSIONES
Las investigaciones en relación con la gestión en los almacenes exponen que los factores que más inciden en su mal funcionamiento son: No se conocen las ubicaciones de donde tiene que ir colocado el producto y eso repercute directamente los tiempos de ejecución, No se dispone de suficiente espacio; los pasillos no se respetan y puede tener consecuencias graves, Falta de organización en el almacén puede ocasionar la pérdida de control, ocasionando retraso, falta de respuesta, rotura de stock y no se contara con más información para tomar decisiones, Trazabilidad interna y externa del producto las pérdidas de las mercancías pueden dejar de será algo esporádico para convertirse en una carga diaria, Errores de picking, esto no solo se trata de tener un stock fiable, sino del nivel de insatisfacción del cliente, Falta de información en tiempo real, Caducidad u obsolescencia, Recursos humanos poco optimizados. Así también se hacen referencias aquellos factores que intervienen para una excelente gestión en el almacén y son los siguientes: El sistema de almacenaje donde se debe tener en cuenta el espacio y las características principales del almacén para así hacer uso máximo de la infraestructura, La recepción donde se debe comprobar que tanto el destinatario como el contenido son correctos, que el embalaje está perfecto y que no tiene signos de manipulación, El coste de almacenamiento donde dependerá de los salarios del departamento de gestión de almacenes, maquinaria de transporte, suministros, alquiler del local, etcétera, El inventario este trata de realizar un conteo físico de los materiales que hay almacenados para cotejar los registros que se tienen, Clasificación este consiste en agrupar u ordenar los artículos en función de su peso, tipo, dimensión o forma, Tipos de productos almacenados como no todos los productos tienen la misma rotación o el mismo valor, es necesario establecer un sistema eficaz con el que priorizarlos y por ultimo Planificación corresponde a un proceso táctico y de estrategia, ya que ha de brindar las soluciones en materia de recursos y debe estar alineado con los objetivos generales de la empresa y su política.
Carrillo Garcia Francisco Manuel, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
DISEñO Y DESARROLLO DE APLICACIóN MóVIL BASADO EN ANDROID PARA CONTROL DE MOVIMIENTOS Y TRAYECTORIAS DE ROBOT HEXáPODO CON 18° DE LIBERTAD CON UTILIZACIóN DE PLATAFORMA ARDUINO
DISEñO Y DESARROLLO DE APLICACIóN MóVIL BASADO EN ANDROID PARA CONTROL DE MOVIMIENTOS Y TRAYECTORIAS DE ROBOT HEXáPODO CON 18° DE LIBERTAD CON UTILIZACIóN DE PLATAFORMA ARDUINO
Carrillo Garcia Francisco Manuel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
En la actualidad existen software de control de servomotores los cuales permiten manejar una cantidad muy limitada de estos, por lo cual no son aptos para controlar de forma eficaz un robot hexápodo, además el control de estos servomotores, debe controlar sincrónicamente los movimientos de las seis extremidades, como lo hace una arácnido en la vida real, es por ello que basado en la complejidad del control sistemático, se desea tener que se desarrolle una comunicación y programación del robot para control de sus movimientos, ya que esto se podrá utilizar de manera didáctica, y que con el tiempo y la interacción de los usuarios, pueda mejorarse su funcionalidad, sus procesos, calibración y desarrollo del mismo.
METODOLOGÍA
Metodologia Iterativa
Análisis de control de movimiento de un robot con seis extremidades y 18 Gdl e investigación documental.
En esta fase se realizará investigación documental sobre los patrones de movimiento de una araña e información de proyectos relacionados con este tema.
Control de una extremidad a través de un algoritmo de control.
diseño experimental o prototipo de movimiento a través de un algoritmo el cual solo controle una sola extremidad, y realice un funcionamiento correcto de la misma en base a la investigación documental de la fase anterior.
Integración de las seis extremidades y pruebas de locomoción.
en esta fase se realizará la unión de los algoritmos correspondientes a cada extremidad y se realizaran test de sincronización y modificaciones de la misma
Generación del diagrama de conectividad con la shield y Arduino del sistema de locomoción.
En esta fase se diseñará el diagrama de conexión de la tarjeta shield con la placa Arduino para el control de los servomotores del robot
Diseño y desarrollo de la aplicación para el control de la locomoción del robot hexápodo a través de la Plataforma Android studio.
Fase preparación
Fase Definición
Fase prototipado iterativo
CONCLUSIONES
Para el desarrollo de este proyecto se realizó una investigación de campo sobre el movimiento de un ser viviente como lo es un arácnido que contiene seis extremidades, para analizar sus patrones de movimiento y en base a ello obtener el algoritmo de movimiento programado o integrado al chip Arduino el cual actúa como cerebro de control, dentro del algoritmo se concluyo que el patrón a seguir al momento de caminar el robot se debe tener en cuenta que de las seis extremidades, tres deben ser de soporte para formar tres puntos de fijación tipo delta, mientras las otras tres se desplazan esto servirá para el sistema de locomoción adelante o hacia atrás u cualquier otro movimiento lateral izquierdo o derecho u rotación sobre su propio eje; se dividió el robot o sus extremidades en dos bloques el primero compuesto por las extremidades 1,4 y 5 y el otro por 2,3 y 6 , la configuración visto desde frente están ordenados de izquierda a derecha 1,2 que conforman las extremidades frontales, seguido de las extremidades centrales 3 y 4 y para finalizar las extremidades traseras 5 y 6, se dedujo a través de pruebas, ya que se debe mantener una sincronía para generar ritmo al caminar y mantener todo el sistema en equilibrio durante el movimiento, además se obtuvieron los datos para la sincronización y velocidades optimas de la configuración de los servomotores, la aplicación desarrollada en Android studio, hace uso a través del bluetooth de todas estas subrutinas que incluyen los algoritmos almacenados en el Arduino a través de una interfaz de control simple e intuitiva diseñada con el fin de facilitar el uso además de poder incluir mejoras y corrección de errores posteriores a través de actualización del software, haciendo de esto una plataforma con posibilidades potenciales de mejora tanto en cuanto al software de control con la adición posterior de control por voz e inteligencia artificial, como mejorar las funcionalidades, rutinas y sensores, o algún otro accesorio que se acoplen al uso dado por el usuario.
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Andrea Palomino Salcedo, Universidad del Valle
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Palomino Salcedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Los bancos de alimentos son una estrategia para minimizar el desperdicio de alimentos y aumentar la seguridad alimentaria en poblaciones vulnerables. Sin embargo, la decisión de destinar alimentos a quienes soliciten su apoyo es una situación problemática. Esta decisión debe considerar varios criterios que aseguren que los alimentos se dirijan a las organizaciones o poblaciones que más lo necesitan. (Henao, López, Chud-Pantoja & Osorio, 2020, párr. 1)
El desperdicio de alimentos ha aumentado en todo el mundo, siendo una cifra casi aterradora: en el año 2019, hubo 931 millones de toneladas de alimentos desperdiciados (Paúl, 2021). En Colombia, se desperdician alrededor de 9.76 millones de toneladas cada año (Anónimo, 2019).
También hay una gran población que no come adecuadamente y puede aprovechar estos alimentos. Si nos adentramos en algunos de los municipios de Colombia, en este caso, de Cali, las cifras que se desperdiciaron en el 2018 fueron de 319.305 toneladas de comida únicamente en los hogares caleños, y según las proyecciones realizadas, este año se generaría un total de 330.169 toneladas de comida en las basuras de las zonas residenciales (Anónimo, 2014).
Si bien fenómenos como la desnutrición crónica y la relación de esta con la mortalidad infantil están asociados a la inseguridad alimentaria, de acuerdo con la Unicef la desnutrición crónica, que se diagnostica cuando la talla y el peso no corresponden a la edad de la persona, está asociada a situaciones de pobreza, y tiene un enorme impacto en el desarrollo (Aguirre, 2014).
METODOLOGÍA
Para la elaboración de este proyecto se utilizará la metodología de acción (investigación) tecnológica, ya que logra determinar un saber hacer técnico que recibe el nombre de Know how, que en general está ligada a un campo de aplicación y se caracteriza por un lenguaje propio, especializado y utilitario (Anasagasti, 2011).
Básicamente podemos definir esta metodología de investigación-acción como una forma de indagación introspectiva colectiva emprendida por participantes en situaciones sociales con objeto de mejorar la racionalidad y la justicia de sus prácticas sociales o educativas, así como su comprensión de esas prácticas y de las situaciones en que éstas tienen lugar (Maciel, C., 2003).
Con respecto al ciclo de vida del software, se implementará una metodología ágil, la cual representa el enfoque de desarrollo ágil, que ha sido implementando en diferentes organizaciones para la gestión y administración, enfoque con el que se pretende aumentar las probabilidades de éxito en la puesta en marcha de los proyectos. Esta metodología se encuentra orientada al desarrollo de proyectos complejos donde no se cuenta de manera completa con toda la información necesaria al iniciar el proyecto y, por lo tanto, no es factible planificarlos en detalle. En esta metodología es importante la colaboración y participación (Calderón, O., 2020).
Para el desarrollo del software utilizaremos la Metodología ágil SCRUM, que corresponde a una metodología ágil y flexible para gestionar el desarrollo de un proyecto de software. Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación (Softeng, 2021).
Con la metodología SCRUM el cliente se entusiasma y se compromete con el proyecto dado que lo ve crecer iteración a iteración. Asimismo, le permite en cualquier momento realinear el software con los objetivos de negocio de su empresa, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema (Softeng, 2021).
SCRUM es un marco de trabajo iterativo e incremental para el desarrollo de proyectos y se estructura en ciclos de trabajo llamados Sprints. Éstos son iteraciones de 1 a 4 semanas, y se suceden una detrás de otra. Al comienzo de cada Sprint, el equipo multi-funcional selecciona los elementos (requisitos del cliente) de una lista priorizada. Se comprometen a terminar los elementos al final del Sprint. Durante el Sprint no se pueden cambiar los elementos elegidos. Al final del Sprint, el equipo lo revisa con los interesados en el proyecto, y les enseña lo que han construido. El equipo obtiene comentarios y observaciones que se puede incorporar al siguiente Sprint. SCRUM pone el énfasis en productos que funcionen al final del Sprint, es decir que estén realizados (P. Deemer, G. Benefield, C. Larman & B. Vodde., 2009).
CONCLUSIONES
Con el desarrollo de este proyecto de investigación se lograron conocer los procesos referentes a la gestión de la información ocurrida a partir de las donaciones, los procesos de gestión del producto dentro del banco de alimentos y la distribución de los alimentos para los bancos de alimentos del suroccidente de Colombia.
La información que se obtuvo mediante la entrevista con el director del banco de alimentos de Manizales fue de gran apoyo para conocer su funcionamiento, desde la preservación y distribución de los donativos hasta el proceso administrativo y de control que se lleva a cabo al revisarlos.
Se cumplieron con las expectativas para este proyecto, realizando así el análisis y diseño de un sistema para el apoyo a la cadena de abastecimiento en los bancos de alimentos del suroccidente colombiano. Además de llevar a cabo exitosamente la metodología de desarrollo ágil SCRUM y con la que se realizaron los objetivos planteados en esta investigación.
La experiencia de redactar y construir el proyecto fue muy gratificante, aprendimos las técnicas y los procedimientos necesarios para realizar una investigación formal, así como aplicamos los conocimientos que hemos adquirido a lo largo del tiempo durante nuestra formación académica.
Carrillo Perez Danissa, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor:M.C. Antonia Villarreal Alvarez, Instituto Tecnológico Superior de Las Choapas
ELABORACION DE INSTRUMENTO PARA RECOLECTAR INFORMACION RELACIONADA A LA COMERCIALIZACION DE LA CADENA AGROALIMENTARIA QUESO
ELABORACION DE INSTRUMENTO PARA RECOLECTAR INFORMACION RELACIONADA A LA COMERCIALIZACION DE LA CADENA AGROALIMENTARIA QUESO
Carrillo Perez Danissa, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: M.C. Antonia Villarreal Alvarez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Debido a la naturaleza de esta investigación que pertenece a un trabajo mayor en el cual se analizaran cinco eslabones de la cadena agroalimentaria queso en el municipio de las Choapas, se requiere tener de un instrumento que proporcione la información básica para realizar un análisis detallado de cada eslabón de la cadena en este caso del eslabón comercialización.
METODOLOGÍA
Los métodos cuantitativos para la recolección de datos se utilizan para contabilizar atributos, actitudes, comportamientos y otras variables definidas con el fin de respaldar u oponerse a la hipótesis de un fenómeno específico mediante la contextualización de los datos obtenidos a través de encuestas o entrevistas.
La investigación cuantitativa se ocupa de números, lógica y una posición objetiva. Además, se centra en recolectar datos numéricos y de la generación de una variedad de ideas sobre un problema de investigación de manera espontánea.
Las características principales de los métodos cuantitativos son:
Los datos generalmente se recopilan utilizando instrumentos de investigación estructurados.
En el método cuantitativo el tamaño de la muestra es mayor.
El estudio de investigación generalmente se puede replicar o repetir, dada su alta confiabilidad.
La pregunta que se aplica está claramente establecida y lista para registrar respuestas objetivas.
Todos los aspectos del estudio están cuidadosamente diseñados antes de la recolección de datos.
Los datos están en forma de números y estadísticas, a menudo organizados en tablas, cuadros, figuras u otras formas no textuales.
El proyecto se puede utilizar para generalizar conceptos más ampliamente, predecir resultados futuros o investigar relaciones causales.
El investigador utiliza herramientas, como cuestionarios o software de computadora, para recopilar datos numéricos.
El objetivo general de un estudio de investigación cuantitativa es clasificar las características, contarlas y construir modelos estadísticos en un intento de explicar lo que se observa.
CONCLUSIONES
Desarollar herramienta para recopilar información en campo. los cuales están encaminados a obtener información para las variables a evaluar en el eslabón de comercialización en la cadena agroalimentaria queso en el municipio de Las Choapas.
Carrillo Ramirez Luis Daniel, Universidad Tecnológica de Nayarit
Asesor:Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
Caloch Campos Edgar, Instituto Politécnico Nacional. Carrillo Ramirez Luis Daniel, Universidad Tecnológica de Nayarit. Gonzalez Acosta Luis Carlos, Universidad Nacional Abierta y a Distancia. Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad se cuentan con páginas de información turística sobre los pueblos mágicos de México, sin embargo, nos encontramos con una cuestión referente a la navegabilidad en sitios web turísticos, específicamente a su deficiencia de estilo e intuitividad para el usuario a la hora de consultar información, además de los datos pocos relevantes que se visualizan.
Por esto mismo, nuestro objetivo durante la estancia de investigación XXVI fue desarrollar un aplicación web interactiva que brindara una mejor experiencia e información más detallada sobre las diferentes actividades, festividades, entre otros, sobre los pueblos mágicos que se encuentran en el país.
METODOLOGÍA
La estancia inició con una capacitación enfocada al framework de PHP llamado Laravel, tecnología que nos ayudó durante el desarrollo del proyecto. Dicha capacitación fue esencial para lograr reconocer las diferentes funcionalidades para implementarlas en el proyecto.
Primeramente se inició con la parte del frontend, utilizando HTML5, hojas de estilo CSS y JavaScript del paquete de diseño Material Kit basado en Bootstrap. Estas herramientas nos ayudaron con la creación de las vistas inicio, sobre nosotros, pueblos y contacto, a las cuales podemos acceder desde la barra de navegación principal. Adicionalmente se crearon las vistas información de los participantes e información sobre los pueblos, siendo así un total de 6 vistas.
Vista Inicio: En esta vista se despliega un mensaje de bienvenida el cual nos brinda una breve descripción e imagen de ciertos pueblos mágicos aleatoriamente. Esta sección de la vista es un prediseño perteneciente al paquete Material Kit el cual hace uso de la función carrusel para la transición de imágenes.
La siguiente sección de la vista muestra nuestros pueblos sugeridos,el cual con ayuda de tarjetas prediseñadas en Material Kit, muestra información de tres pueblos mágicos los cuales son seleccionados con base en la proximidad de sus festividades.
Finalmente observamos una sección de comentarios, los cuales son enviados por visitantes de la página contándonos su experiencia en el sitio web.
Vista Sobre Nosotros: Así como en la vista Inicio, en Sobre Nosotros también hacemos uso de tarjetas que despliegan información sobre el programa federal de pueblos mágicos, misión y visión del programa federal y la información sobre los participantes. Por otra parte, en la vista Contacto se despliega un formulario que permitirá a los visitantes de la página enviar comentarios, sugerencias o reclamaciones que tengan para la mejora del sitio.
La vista Información de los Participantes contará con información breve sobre nosotros, mientras que la vista Pueblos será la entrada para desplegar la información completa de los pueblos mágicos. Esta página muestra un filtro el cual seccionará a los pueblos mágicos dependiendo de a qué estado pertenecen.
Al momento de seleccionar alguno de los 32 estados del país, aparecerán los pueblos mágicos que se encuentren dentro de él, esto gracias a la realización de una consulta por medio de la conexión con una base de datos MySQL mediante la API de Laravel. Dicha consulta devolverá los pueblos de ese estado en formato de tarjeta, las cuales contarán con una imagen de previsualización del pueblo. Al dar click sobre la carta de nuestra preferencia nos redirigirá a la vista del pueblo correspondiente.
Vista Información de Pueblos: Como se mencionó anteriormente, seremos redirigidos a la vista de la información del pueblo sobre el que se hizo click. En esta vista se mostrará dinámicamente la información detallada del pueblo que se haya elegido, compuesta por una breve descripción, atractivos, festividades, actividades, servicios y números de emergencia.
Se realizó la conexión con una base de datos MySQL mediante la API de Laravel.
CONCLUSIONES
Reconocer las funcionalidades del framework Laravel para el desarrollo de soluciones, aplicar otras herramientas de diseño y programación e implementar formatos prediseñados en los paquetes cómo Material Kit y adecuarlos a las necesidades o demandas del proyecto.
En retrospectiva nos sentimos satisfechos con nuestro desempeño durante la estancia de verano pues logramos el desarrollo del template del sitio, así como el módulo de turistas, sobre el cual se podrá seguir trabajando en el futuro.
Casares Melendez Maribel, Instituto Tecnológico de Ciudad Juárez
Asesor:Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez
PROCESO DE FABRICACIÓN DE JABÓN POR MEDIO DE SAPONIFICACIÓN EN CALIENTE.
PROCESO DE FABRICACIÓN DE JABÓN POR MEDIO DE SAPONIFICACIÓN EN CALIENTE.
Casares Melendez Maribel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La saponificación es un proceso o reacción química resultado de mezclar grasa/aceite con un álcali (sosa cáustica) y agua como resultado obtendremos jabón (Puig, 2019); es decir el peso que se desea corresponder al porcentaje de ingredientes como lo son las grasas, agua, aceites y la sosa caustica en un orden especificado, controlando a su vez la temperatura y adicionando cada ingrediente para obtener la mezcla homogénea que se espera obtener. En esta parte del proceso no se podrá lograr una mezcla deseada y se tiene pérdidas de tiempo a que no se cuenta con un diagnóstico de fallas.
La empresa utiliza el método en frío y melt and pour y desea comparar el método en calor y ver cuál es el mejor en términos de productividad, calidad y costos; y ya con ello ver cuál es mejor para la empresa.
Como sabemos hoy en día se encuentran variedades de jabones en el mercado de todo tipo de jabón corporal, que se utilizan cotidianamente. A su vez también hay jabones artesanales tanto neutros como para acné u otro tipo de jabón, que ayudan a muchas cosas de limpieza, como el acné, enrojecimiento, entre otros problemas, estos a su vez conteniendo sustancias de fácil conseguir. A lo que con lleva, al consumidor adquirir uno o más productos ya sean jabones artesanales neutros o de otro tipo dependiendo de la necesidad del consumidor.
METODOLOGÍA
Para el desarrollo de la investigación, se han utilizado varias herramientas y técnicas de análisis de datos que forman parte de la gestión de proyectos; la razón de la aplicación es cumplir con los objetivos y/o metas planteadas. Además, como se sabe que la rama de la ingeniería dispone de metodologías, algunas sencillas y otras complicadas; pero que en el desarrollo de la investigación son un apoyo en la búsqueda de soluciones a los problemas y/o inconvenientes que puedan cambiar en el proceso de elaboración del jabón a base de aceite oliva.
El proceso de fabricación de jabón se lleva a cabo gracias a una reacción química llamada saponificación. La saponificación es la hidrólisis con catálisis básica de grasas y aceites para producir jabón. Los aceites vegetales y las grasas animales son triglicéridos (esteres de glicerina con ácidos grasos), y al ser tratados con una base fuerte como (NaOH) o (KOH) se saponifican, es decir se produce el jabón (sal del ácido graso) y la glicerina (glicerol).
La saponificación consta de dos etapas, la descomposición de los ingredientes en sus partes útiles y la reacción de estas para producir el jabón.
Las grasas y los aceites se componen de triglicéridos, pero no se puede hacer jabón a partir de ellos; es necesario que se descomponga en ácidos grasos y glicerol. Los ácidos grasos son un elemento primordial en el proceso de elaboración de jabón, en cambio el glicerol, aunque es útil no es fundamental. La desintegración de un triglicérido en sus componentes se denomina hidrólisis. En contacto con el agua todo los esteres, incluidos los glicéridos se descomponen en sus componentes, glicerina y un ácido graso.
En el proceso de fabricación de jabón, el agua hace llegar el hidróxido de sodio a todos los rincones del recipiente, permitiendo así que se produzca la hidrólisis. Cuando el agua y las grasas se mezclan, tan solo una pequeña parte del aceite se disuelve en el agua. Es decir, el agua corriente tan solo descompone ligeramente las grasas y los aceites, por esto debemos añadir hidróxido de sodio al agua. Durante la hidrólisis, los iones de (NaOH) atacan el átomo de carbono que se encuentra en el extremo carboxilo de los ácidos grasos liberándolos del triglicérido. Una vez separados los ácidos reaccionan con un ion de sodio y forman el jabón. A continuación, tres iones de hidróxido reaccionan con el glicerol y dan lugar a la glicerina.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proceso de fabricación de jabón por medio de saponificación en caliente y ponerlos en práctica con las técnicas de análisis como el diagnóstico inicial, diagramas, cuadros, resultados dados por medio de Excel para su respectivo análisis, sin embargo, al ser un trabajo y a su vez un proyecto algo extenso, se sigue trazando un análisis para encontrar las posibles fallas y tener las mejores posibles en el área a tratar, se han podido mostrar unos resultados pero aún falta más desarrollo del mismo; se espera que se tenga las mejoras, para que el proceso de saponificación en caliente en el proceso de jabón será un proceso mucho más rápido y mejor que otros procesos.
Castañeda Cruz Maria Jose, Universidad Politécnica de Sinaloa
Asesor:M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa
ANáLISIS PRELIMINAR DEL OBJETIVO 11.- CIUDADES Y COMUNIDADES SOSTENIBLES DE LOS ODS DE LA ONU INCLUIDOS EN LA AGENDA 2030, UNA PERSPECTIVA SOCIAL, CASO: MAZATLáN SINALOA
ANáLISIS PRELIMINAR DEL OBJETIVO 11.- CIUDADES Y COMUNIDADES SOSTENIBLES DE LOS ODS DE LA ONU INCLUIDOS EN LA AGENDA 2030, UNA PERSPECTIVA SOCIAL, CASO: MAZATLáN SINALOA
Castañeda Cruz Maria Jose, Universidad Politécnica de Sinaloa. Sanchez Castro Damaris Fernanda, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Derivado del desarrollo económico de la región del Estado de Sinaloa, la cual pone a prueba la conciencia ambiental de las actividades del sector logístico y transporte, pues si bien las cadenas de suministro son indispensables, sí necesitan ser sostenibles y con un enfoque sustentable, con una atención principal en las empresas navieras, ferrocarriles, autotransporte y aeronáutica, así también las industrias de transformación y servicios turísticos, nos vemos en la necesidad de identificar los elementos esenciales del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un índice de conocimiento de las actividades que nos ayudaran a ser parte del cambio y contribuir a la Agenda 2030, derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad.
METODOLOGÍA
La metodología empleada fue cualitativa, mediante entrevista estructurada digital, con una guía de entrevista estandarizada, su objetivo de estudio es caracterizado y consiste en proporcionar un número fijo de preguntas predeterminadas en su formulación y secuencia, lo que permite administrar y analizar por ser más objetiva, es más técnica que arte, se tiene un modelo intermedio entre cualitativa y cuantitativa.
CONCLUSIONES
Se presentan los resultados de las preguntas del instrumento y sus porcentajes de percepción que va del ¨Muy bueno, Bueno, Moderado, Malo, Muy malo¨ , siguiendo ese orden por pregunta.
Sensibiliza sobre la quema de combustible de tu ciudad y las formas de mejorarla.
3.3
3.3
50
40
3.3
Se defiende y se apoya el desarrollo de espacios deportivos y recreativos contribuyendo a crear comunidades más robustas, más saludables, más felices y más seguras.
13.3
43.3
33.3
6.7
3.3
Se promueve un sistema para compartir coche en la oficina o en zonas sin acceso a transporte fiable
13.3
16.7
33.3
13.3
23.3
Se investiga, fomenta y se sensibiliza para lograr una mayor transparencia de la información dentro de tu comunidad
13.3
10
13.3
40
23
Se utiliza el transporte público, las bicicletas urbanas y otros medios de transporte ecológicos.
13.3
36.7
33.3
0
16.7
Se llega hasta las zonas desfavorecidas e integra a personas de diferentes clases y orígenes étnicos e involúcralas en los procesos de toma de decisiones que les afecten, como sus condiciones de vida, la contaminación, etc.
3.3
20
40
30
6.7
Estas informado sobre el patrimonio cultural y natural de tu zona. Visitas lugares del patrimonio y tienes una perspectiva positiva de ellos.
36.7
33.3
20
10
0
Se instauran tarifas reducidas del transporte público en las por problemas de congestión.
3.3
10
23.3
30
33.3
Existen pequeños grupos comunitarios para reflexionar y buscar maneras de garantizar espacios públicos seguros y accesibles, especialmente para mujeres, niños, personas mayores y personas con discapacidades
6.7
40
33.3
20
0
Las empresas ofrecen tarifas reducidas para el alquiler de bicicletas municipales.
10
10
30
23.3
26.7
Promedio por nivel de percepción general del Objetivo 11
11.6
22.3
30.9
21.3
13.6
Con base a los resultados y un análisis preliminar se detecta una Perspectiva Social moderada del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU incluidos en la agenda 2030, una perspectiva social, caso: Mazatlán Sinaloa.
Castaño Martínez Maria Camila, Universidad Tecnológica de Pereira
Asesor:Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
IMPLEMENTACIóN EFICIENTE DE ALGORITMOS PARA EL ALINEAMIENTO MúLTIPLE DE SECUENCIAS DE ADN Y PROTEíNAS
IMPLEMENTACIóN EFICIENTE DE ALGORITMOS PARA EL ALINEAMIENTO MúLTIPLE DE SECUENCIAS DE ADN Y PROTEíNAS
Castaño Martínez Maria Camila, Universidad Tecnológica de Pereira. López Grande Jehiel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El Análisis de secuencias de ADN y proteínas permite conocer la estructura molecular de los seres vivos, es por esto que, en el contexto actual resulta relevante el estudio de similitudes entre secuencias de distintos organismos, este conocimiento tiene importantes aplicaciones, incluyendo estimación de árboles filogenéticos.
La comparación entre secuencias de proteínas consiste en reconocer qué partes de estas secuencias son similares y cuáles distintas, el método más común para conseguir este reconocimiento consiste en la subdivisión de las cadenas a comparar en pequeñas subsecuencias, insertando espacios en blanco en una y otra, de tal manera en que las subsecuencias similares se encuentren exactamente en las mismas posiciones en ambas secuencias a este proceso se le conoce como alineamiento por pares, cuando se comparan más de dos secuencias se conoce como alineamiento múltiple.
Este último proceso constituye un reto debido a la complejidad computacional que conlleva, esto provoca que muchas veces el proceso de alinear múltiples secuencias con una longitud biológicamente relevante tome un gran tiempo de ejecución.
Este proyecto tiene como objetivo la implementación de un algoritmo que produzca alineamientos múltiples de secuencias con tiempos de ejecución reducidos.
METODOLOGÍA
Antes de haber comenzado con la estancia, el asesor le envió a los estudiantes un curso de 5 semanas (Coursera) sobre Bioinformática básica para que pudieran tener un acercamiento al tema principal de la investigación (Finding Hidden Messages in DNA (Bioinformatics I)) sobre como poder leer y entender el significado de las secuencias de ADN, implementar conocimientos y problemas de biología básica a la programación, y aprender a realizar algoritmos que puedan encontrar ciertas diferencias entre diferentes especies a partir de su genética.
Luego de haber completado el curso, se discutieron los conocimientos para poder seguir adelante con la estancia; uno de los principales artículos, que fue con el cual se basaron los estudiantes para la implementación principal fue MUSCLE: multiple sequence alignment with high accuracy and high throughput; con este documento, los estudiantes pudieron planear un paso a paso de lo que sería el programa principal para trabajar.
La planeación del paso a paso de esta programación se basó en el documento anteriormente mencionado, obteniendo lo siguiente:
Utilización de C + + como lenguaje para la realización del programa.
Cálculo de matriz de distancia a partir de distancia de k-meros por pares.
Comprobación y optimización de etapa de distancia de k-meros.
Estudio del método UPGMA.
Implementación del método UPGMA para agrupar la matriz de distancias produciendo un árbol filogenético.
Múltiples iteraciones con el método UPGMA.
Implementación del alineamiento progresivo siguiendo el orden de ramificación del árbol producido por UPGMA en la espata anterior.
Debe tenerse en cuenta que para este algoritmo se introdujeron distintos sets de datos con longitud y número de secuencias variables, descritos a continuación.
100 secuencias con longitud promedio de 647
500 secuencias con longitud promedio de 677
1000 secuencias con longitud promedio de 644
2000 secuencias con longitud promedio de 638
3000 secuencias con longitud promedio de 628
4000 secuencias con longitud promedio de 626
5000 secuencias con longitud promedio de 614
6000 secuencias con longitud promedio de 610
7000 secuencias con longitud promedio de 609
8000 secuencias con longitud promedio de 619
9000 secuencias con longitud promedio de 622
10000 secuencias con longitud promedio de 622
De esta forma fue posible evaluar la eficacia y velocidad de la solución, así como la medición del tiempo de ejecución.
A partir de la primera ejecución del programa, el asesor fue brindando a los estudiantes ciertas correcciones para la obtención de resultados más exactos.
CONCLUSIONES
Durante y fuera de la estancia de investigación se adquirieron conocimientos teóricos en dos campos principales: biología, genética molecular, biotecnología y programación. Así como el uso e implementación de algoritmos para poder ponerlos en práctica a la hora de la realizar un programa especializado para el alineamiento múltiple de secuencias de ADN. Además, se implementó el método conocido como UPGMA (Unweighted Pair Group Method using Arithmetic averages) y así poder obtener un árbol filogenético que permita encontrar las similitudes y diferencias entre ciertas especies, en este caso con las plantas Brassica Rapa subespecie Oleifera, Rhizoctonia solani, Colletotrichum capsici, Liriomyza sativae isolate, entre otras; sin embargo, al tener un inconveniente con el tiempo y la extensión del trabajo, no se pudo completar la parte de la inclusión de programación paralela que permitiría la ejecución de múltiples instrucciones en una unidad de tiempo, por este motivo, se cubrió parcialmente con la entrega de resultados globales. Se espera obtener más adelante la comparación del tiempo en segundos entre la implementación inicial y la inclusión de programación paralela con aplicación en bioinformática.
Castillo Avila Marti Galdino, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Manuel Gonzalez Calleros, Benemérita Universidad Autónoma de Puebla
DETECCIóN DE LA POSE HUMANA Y RECONOCIMIENTO DE GESTOS A TRAVéS DE INTELIGENCIA ARTIFICIAL
DETECCIóN DE LA POSE HUMANA Y RECONOCIMIENTO DE GESTOS A TRAVéS DE INTELIGENCIA ARTIFICIAL
Castillo Avila Marti Galdino, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Manuel Gonzalez Calleros, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, el uso de la tecnología es fundamental en las actividades que realizamos cotidianamente pues ésta nos ayuda a desenvolvernos e interactuar de mejor manera con nuestro entorno, lo que implica que el número de usuarios que utilizan al menos un dispositivo (llámese computadora, smartphone, etcétera) incremente día con día. Por esta razón, en los últimos años los desarrolladores se han enfocado en la experiencia de usuario al desarrollar sus productos, y, aunque éstos satisfacen cada día más el nivel de experiencia que esperan los usuarios, aún existen varios sectores de la población que no gozan de tal privilegio. Un ejemplo pueden ser las personas con problemas en las extremidades del cuerpo, quienes en algunos casos no pueden interactuar con un teclado o una pantalla táctil con las manos y realizan sus actividades con mayor dificultad que una persona común, o bien, necesitan a alguien que lo haga por ellos.
Por lo expresado anteriormente, durante el verano de investigación se estudiará la detección de la pose humana y el reconocimiento de gestos a través de inteligencia artificial a fin de contribuir a la elaboración de una aplicación que sustituya la utilización de teclados y ratones como principal medio de interacción con una computadora, con la detección de los gestos de una persona desde la cámara web de su dispositivo.
METODOLOGÍA
Inicialmente, se realizó una investigación acerca del estado del arte con respecto a la detección de la pose humana por medio de inteligencia artificial; específicamente, a través de redes neuronales convolucionales, analizando así arquitecturas que fueron diseñadas con propósitos similares a los de este proyecto, como lo es ResNet-50.
Tras esto, se inició el modelado de una red neuronal convolucional para la detección de puntos clave del cuerpo a través imágenes de una cámara web. Cabe destacar que, aunque en un inicio se planteó desarrollar y entrenar la red para detectar puntos en el cuerpo humano completo, finalmente se decidió detectar únicamente puntos faciales, pues resulta más practico para los fines sobre los que se desarrolla este proyecto. Se listaron 67 puntos bajo los que será entrenada la red. Cada punto clave está conformado por coordenadas X y Y que señalan la posición del punto buscado dentro de una imagen.
Dado que se desea poder implementar esta red en la detección de video en tiempo real, es necesario cuidar el poder de procesamiento que ésta requerirá para su ejecución. Por esta razón, se definió que la red recibirá una imagen redimensionada a 256x192 píxeles como parámetro de entrada, mientras que devolverá un total de 67 mapas con dimensiones 64x48 píxeles, los cuales representarán la posición de cada uno de los puntos buscados. En este caso, utilizar parámetros con una resolución baja disminuirá notablemente el poder de procesamiento que la red requiere para su ejecución sin afectar demasiado a la precisión de esta. Aunado a ello, se seleccionaron los datasets y las anotaciones faciales proporcionadas por iBUG (en su web) para entrenar a la red neuronal.
Una vez que se ha definido la arquitectura de la red junto con los datos que serán utilizados para el entrenamiento, se procede plasmar esto en la computadora. En este caso se utilizó el lenguaje de programación Python junto con la librería Pytorch para programar tanto la red neuronal convolucional como el dataloader que proporcionará los datos a la red.
Con el fin de observar el desempeño y la desviación de las predicciones de la red durante el entrenamiento, se programan funciones para evaluar la precisión y la pérdida entre el resultado deseado y el devuelto por la red. En este caso fue utilizado el error cuadrático medio como función de pérdida, y el porcentaje de puntos clave correctos (PCK) como métricas para evaluar el desempeño de la red.
Finalmente, se programa el ciclo de entrenamiento y se comienza con éste. La red elaborada durante la estancia alcanzó un nivel de eficacia de alrededor del 75% bajo las métricas elegidas. Tras esto, es necesario realizar pruebas para confirmar que el desempeño en las predicciones de la red es el esperado, verificando que los puntos clave encontrados por la red sean correctos y, en caso contrario, se continúa entrenando la red o se opta por alterar su estructura y reiniciar el entrenamiento.
Una vez que la red neuronal presenta un nivel de rendimiento adecuado, se procede a realizar la detección de los gestos a través de los puntos clave devueltos por ésta. Esto se realiza de diferentes maneras, dependiendo del gesto que se desee detectar (calculando la distancia entre puntos clave, analizando su geometría, etcétera). En este caso, uno de los gestos que se desean detectar es guiñar el ojo izquierdo. Para ello, podemos verificar si los puntos detectados en el párpado superior se encuentran en una coordenada muy cercada a los del párpado inferior (en el eje Y) para definir si efectivamente se está guiñando dicho ojo, en cuyo caso se desencadena una acción predefinida (según la aplicación desarrollada).
CONCLUSIONES
Durante esta estancia se adquirieron nuevos conocimientos correspondientes al área de Inteligencia Artificial, específicamente sobre Redes Neuronales, Deep Learning y Transfer Learning. A su vez, dichos conocimientos fueron puestos en práctica en un proyecto que, dada su naturaleza, brinda una nueva perspectiva sobre conciencia social con respecto a determinados grupos y sectores de la población y a su experiencia de usuario utilizando dispositivos electrónicos como lo son las computadoras. Se consiguió implementar exitosamente una red neuronal capaz de reconocer puntos clave del rostro humano y reconocer algunos gestos faciales. Si bien al momento de escribir este resumen el proyecto aún se encuentra en una fase temprana de su desarrollo, pues no fue posible implementar en su totalidad todo lo planeado en un inicio, éste cuenta con un gran nivel de escalabilidad y se espera poder implementarlo en su totalidad a mediano plazo.
Castillo Gómez Diego Martin, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
MEDICIóN DE DEFORMACIONES DE CRáNEO DE BEBéS
MEDICIóN DE DEFORMACIONES DE CRáNEO DE BEBéS
Castillo Gómez Diego Martin, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La deformidad craneal es una alteración en el crecimiento de la cabeza del bebé que ocurren dentro del útero o durante los primeros meses de vida del infante. La deformación craneal en bebés ocurre debido a presiones externas y a huesos craneales blandos con crecimiento no uniforme. La deformación craneal en bebés es tratable cuando se detecta a tiempo. Sin embargo, este padecimiento avanza a etapas críticas con una frecuencia alarmante debido a la inexistencia de un protocolo definido de diagnóstico y prevención. Por lo tanto, es importante encontrar alternativas eficientes para diagnosticar a tiempo este problema con el fin de evitar complicaciones graves en el desarrollo del bebé.
En la actualidad, el diagnóstico de deformación craneal hace uso de diversas herramientas tecnológicas como imágenes de tomografía computarizada, resonancia magnética, y escáner laser. esto permite obtener una imagen 3D del cráneo del bebé y así ayudar al doctor en el diagnóstico de alguna deformidad. Sin embargo, el equipo necesario para el diagnóstico de deformación craneal es altamente costoso y requiere capacitación especializada. La principal contribución de este proyecto es dar una alternativa confiable al médico para el diagnóstico de las deformaciones, así como disminuir el costo de los estudios que suelen ser necesarios para la detección de esta enfermedad, con el fin de apoyar a los padres que no cuentan con el recurso necesario para realizar estos estudios.
METODOLOGÍA
El primer paso para realizar una medición óptica de objetos 3D es comprender los fundamentos teóricos elementales para implementar los algoritmos de procesamiento de datos necesarios. El primer paso consiste en la calibración del sistema, donde se requiere un patrón de calibración para el proyector en color cian, y para la cámara en color amarillo. Se realizan 30 tomas diferentes de los patrones de calibración superpuestos con la cámara para poder calibrar los dispositivos. También, se captura una fotografía adicional donde el proyector y la cámara se mantienen en una posición fija de donde no se podrán mover para evitar errores en la digitalización.
Posteriormente con ayuda la aplicación Manual Checkerboard Detector, en Matlab, se obtienen los puntos de calibración para los patrones en dos canales diferentes el rojo y el azul. Posteriormente se obtiene una matriz de datos que es utilizada en unos programas implementados en Matlab de donde se obtienen los valores de calibración tanto de la cámara como del proyector. Para verificar los resultados de la calibración, se obtienen las distancias a las que se encuentra la cámara y el proyector con referencia al patrón de calibración amarillo que está fijo en el plano de referencia. De la calibración se estimó que la cámara y el proyector se encontraban a (-24.7,-15.2,1140.3) y (98.6,-190.6,1138) mm mientras que las medidas físicas fueron (-25,-14,1141) y (100,-193,1141.1) mm. Con lo que se concluye que la calibración fue exitosa.
Posteriormente se realiza la proyección de franjas con el proyector. Se debe tener precaución con el ancho de las franjas negras y blancas para que éstas sean iguales. En caso contrario, se debe ajustar el valor gamma en la generación de las rejillas proyectadas. Para este proceso se realiza un programa que nos genera los diferentes patrones de franja y se modula el ancho de las franjas, cabe resaltar que se proyectan diferentes patrones con la finalidad de obtener un mejor resultado en la digitalización, para el proyecto se emplearon 4 diferentes patrones verticales y 4 patrones horizontales de los cuales se obtienen 6 fotografías con diferentes corrimientos de fase. En total se generan 48 imágenes que nos permitirán digitalizar el objeto bajo estudio.
Finalmente, una vez que se tienen las imágenes con los patrones de franjas se realiza la triangulación correspondiente que nos permitirá obtener la digitalización 3D que en este caso fue utilizada para medir deformaciones de cráneo en bebés pero que sin duda puede ser usado para diferentes aplicaciones.
CONCLUSIONES
Durante el verano de investigación, se adquirieron todos los conocimientos necesarios para realizar la digitalización de objetos 3D, desde el planteamiento del problema hasta la implementación de cada una de las funciones necesarias para lograr el objetivo planteado al inicio de la estancia. Los resultados que se obtuvieron de las digitalizaciones de la cabeza del maniquí y la cabeza de la muñeca fueron satisfactorias con las condiciones y el equipo disponible. Una limitante del sistema de escáner 3D desarrollado es que solo se abarca una parte del objeto (la que es visible tanto para la cámara como para el proyector). Sin embargo, es posible digitalizar el objeto completo realizando más de una digitalización del objeto y unir los resultados de cada medición.
A futuro se puede realizar un sistema con varios proyectores y varias cámaras que nos permita obtener un modelo directo sin la necesidad de hacer varias digitalizaciones. Sin duda hay muchas aplicaciones para este proyecto, ya que al digitalizar el cráneo de un bebé también se podría realizar digitalizaciones de cráneos de adultos con la finalidad de realizar diversos estudios que ayuden el diagnostico de tumores o enfermedades. Este proyecto ofrece un beneficio importante a la sociedad en favor de mejorar las condiciones de salud infantil poniendo a disposición alternativas tecnológicas asequibles para evaluación, diagnóstico y seguimiento médico.
Castillo Solórzano Andrea, Instituto Tecnológico Superior de Los Reyes
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DESARROLLO DE LA METODOLOGÍA DE ESTUDIO DE TRABAJO PARA EL PROCESO DE RESINACIÓN DE PINO.
DESARROLLO DE LA METODOLOGÍA DE ESTUDIO DE TRABAJO PARA EL PROCESO DE RESINACIÓN DE PINO.
Castillo Solórzano Andrea, Instituto Tecnológico Superior de Los Reyes. Velazquez Hinojoza Rocio, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
La resina es una sustancia pastosa o sólida que se obtiene de manera natural a partir de una secreción orgánica de los pinos tropicales. Gracias a sus propiedades químicas, las resinas se utilizan para la elaboración de productos de limpieza, perfumes, adhesivos, barnices y aditivos alimenticios, entre otros productos. Una vez preparado el árbol, comienza la tarea de realizar la pica, es decir, quitar una tira de la corteza del pino y aplicarle un estimulante que dilate los vasos resiníferos de los árboles de pino, y haga fluir la resina, a través de: sistema de cosecha de resina y cosecha por el método americano.
Por tanto, nace la necesidad de conocer la razón por la cual se tiene baja eficiencia en la productividad de la extracción de resina y así mismo establecer la información adecuada del rendimiento, un análisis de la confiabilidad, de igual manera realizar un análisis de operaciones para determinar la utilidad de las herramientas, la medición de tiempos y movimientos.
Permitiendo que la información aporte múltiples beneficios a la empresa UUMBAL AGROFORESTAL principalmente, además que permitirá al equipo investigador crecer como profesionales, dando la oportunidad de lograr cambios significativos en la empresa a corto y largo plazo para el aumento de la productividad de la extracción de resina. Los principales factores involucrados son el aspecto económico, social y ambiental, asi como el uso del estudio del trabajo, en donde se estipularán de igual forma los resultados obtenidos mediante una recolección de datos de campo.
METODOLOGÍA
En el presente proyecto de investigación, se evaluaron los factores influyentes del bajo rendimiento y eficiencia en el proceso de extracción de la resina, mediante distintas herramientas de Estudio del Trabajo y Lean Seis Sigma, permitiendo tener un mayor panorama con la ayuda de un análisis de confiabilidad y un análisis de operaciones que consintió en determinar la utilidad y rendimiento de las herramientas, la medición de tiempos y movimientos, con el objetivo de incrementar la productividad en cuanto a rendimiento y eficiencia en la producción de resina.
Para recopilación de datos sobre la extracción de resina se involucran distintos factores los cuales repercuten de manera directa al rendimiento de los colaboradores, que a su ves impactan en la producción, siendo este el factor principal a tratar en el estudio de la investigación, por lo que se recurre al uso de las herramientas en razón de que se pretende indagar, analizar, describir, explicar, experimentar con distintas variables e interpretar los resultados en un determinado lapso de tiempo, asi mismo siguiendo los pasos del proyecto, de planeación y ejecución.
Las principales herramientas utilizadas durante el proceso de investigación son, diagramas de proceso, análisis de las operaciones productivas al personal seleccionado (muestreo del trabajo), estudio de tiempos y movimientos, calculo de tiempos, balanceo de operaciones de acuerdo al rendimiento establecido por el tiempo estándar, diseño de formatos acorde a la naturaleza de los datos, para su análisis y evaluación en comparación al rendimiento establecido de la empresa UUMBAL AGROFORESTAL.
Nos sirve de apoyo para visualizar el rendimiento individual y colectivo de la plantilla laboral seleccionada de acuerdo al muestreo de trabajo.
CONCLUSIONES
Durante la estancia del verano se ha logrado adquirir distintos conocimientos teóricos y prácticos acerca del estudio del trabajo, asi como la misma aplicación de la metodología de Lean Six Sigma, ya que se nos permitió observar y analizar el proceso de resinación llevado acabo en la empresa UMMBAL AGROFORESTAL, el cual ha sido aplicado en una actividad demasiado extensa, razón por la cual no se pueden mostrar resultados concretos obtenidos.
La empresa cuenta con una extensión de cuatro fincas, mismas que se encuentran distribuidas en distintas locaciones al sur de Veracruz; dentro de las cuales se desarrollan las mismas actividades, en distinto orden, sin embargo en el estudio realizado se percató de las distintas deficiencias que se tienen, lo cual de manera directa repercuten con la producción final de la extracción de resina, se espera un incremento de eficiencia, rendimiento y productividad dentro de la empresa en general, también otorgar a los trabajadores las condiciones optimas para su mayor desempeño en las distintas actividades realizadas.
Por citar un ejemplo de las deficiencias observadas es la falta de planeación de actividades y comunicación entre los distintos departamentos, puesto que esto repercute directamente a la productividad y rendimiento de la empresa. En función de las herramientas aplicadas se logró concluir que el rendimientos de los colaboradores se ve estrechamente relacionado con factores determinantes como la topografía, ergonomía, condiciones climatológicas, horario laboral y la comunicación con los líderes. Debido a los distintos puntos observados y viendo que se prestan para ser mejorados a largo plazo se le dará continuidad al estudio.
Castorena Vazquez Ibsen Yael, Instituto Tecnológico de Chilpancingo
Asesor:Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo
DESARROLLO DE SOFTWARE EDUCATIVO
DESARROLLO DE SOFTWARE EDUCATIVO
Castorena Vazquez Ibsen Yael, Instituto Tecnológico de Chilpancingo. Asesor: Dra. Karina Mariela Figueroa Mora, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Con el constante avance tecnológico, se requiere que las instituciones educativas se mantengan a la vanguardia para el fomento y un mejor desarrollo de la educación. En este trabajo se abordaron 2 problemas: uno sobre la información de la oferta educativa en el área de computación; y el segundo respecto a la actualización de un software educativo llamado Clicker.
El primero de los trabajos realizados, corresponde a tratar de ofrecer una solución a un problema actual: conocer la oferta educativa. Actualmente existe una gran variedad de oferta de posgrados en el área de computación, sin embargo, dicha información no estaba centralizada y de fácil acceso.
Es decir, los alumnos próximos a egresar del nivel medio superior, superior o maestría con interés por conocer la oferta educativa en Computación para su siguiente paso en su preparación. Durante este periodo de trabajo del programa Delfín se trabajó en un sitio web que muestra la oferta educativa del país en el área de computación.
Otro trabajo abordado en este periodo fue la reconstrucción de un software educativo llamado Clicker [1]. Este software ha sido utilizado para involucrar a los estudiantes en la clase a manera de juego conocido como gamificación [2]. En este periodo se reconstruyó Clicker para utilizar tecnología actual y aumentarle mejoras sustanciales al software actual.
METODOLOGÍA
La metodología seguida en este trabajo se desarrolló en cuatro fases: en la primera fase, se analizó la tecnología a utilizar, con el propósito de implementar mejoras y actualizar los sistemas de interés. El primero se tituló ‘Panorama nacional de carreras relacionadas con Ciencias de la Computación’, y el segundo titulado ‘Clicker’. De ahí que, se concluyera que el entorno de trabajo que favorece las mejoras y actualización que se requiere es AngularJs para FrontEnd y LoopBack y MySQL para el servidor en BackEnd.
A su vez, se determinó a MySQL como el Sistema Gestor de Bases de Datos (SGBD) a utilizar, puesto que las consultas que proporciona ayudan en gran manera a obtener datos de forma ordenada y simple, además, cabe mencionar que el SGBD seleccionado para actualizar ambos sistemas trabaja con bases de datos relacionales, lo cual es conveniente por el tiempo y la aceptación generalizada de los desarrolladores que ha permitido crear gran cantidad de información y herramientas en torno a ellas y de esta manera optimizar las aplicaciones web.
Posteriormente, en la fase dos, se realizó el diseño de los prototipos para determinar la estructura a desarrollar de la interfaz de usuario en ambos sistemas. Además se estudiaron y analizaron de manera detallada los datos que se manejan para modelar los diagramas Entidad Relación, que fueron utilizados en el diseño de los sistemas con el fin de obtener una base de datos acorde a las necesidades. También, se estudió LoopBack, un framework que ayuda a configurar la parte del servidor que nos permite establecer la conexión entre la base de datos y la interfaz de usuario.
En tanto que, en la tercera fase se realizó la implementación de procesos, con el objetivo de desarrollar las interfaces de usuario; la programación de botones, filtros de búsqueda, navegación entre pantallas; el manejo de los datos y la presentación al usuario; autenticación de usuarios; selección de información a mostrar para usuarios registrados y no registrados; optimización de interfaz que permite: concisión, coherencia, y flexibilidad. Además, se configuró el servicio para realizar peticiones a la base de datos, se construyó la base de datos con sus respectivas relaciones y llaves foráneas, se realizaron las pruebas pertinentes en busca de posibles errores para corregirlos de manera inmediata, se efectuaron pruebas de conexión, así como de peticiones a la base de datos, se implementaron nuevas funciones y, con base en los avances establecidos se propusieron mejoras y correcciones. Finalmente en la cuarta fase se lanzan las aplicaciones web para su uso.
CONCLUSIONES
Durante la estancia del verano se obtuvieron conocimientos sobre nuevas tecnologías como lo son Angular para el desarrollo web en FrontEnd y LoopBack en el manejo de servidores en la parte del BackEnd, esto genera un alto beneficio puesto que la informática crece en todo momento y los programadores deben actualizarse constantemente para trabajar con las tecnologías que hoy en día están en demanda. Sin embargo, la documentación sobre las tecnologías utilizadas para el desarrollo de estos dos proyectos web, redujo los tiempos establecidos, por lo cual, el proyecto ‘clicker’ aún no se puede lanzar a producción, debido a que le faltan mejoras al diseño e interacciones. Se espera poder poner en producción el proyecto al término de la implementación de mejoras y correcciones.
Castrejon Perea Abril Nallely, Universidad Autónoma de Ciudad Juárez
Asesor:Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
ESTUDIO DE DELAMINACIóN DE MATERIAL COMPUESTO EN 3D A TRAVéS DE TELEMETRíA
ESTUDIO DE DELAMINACIóN DE MATERIAL COMPUESTO EN 3D A TRAVéS DE TELEMETRíA
Castrejon Perea Abril Nallely, Universidad Autónoma de Ciudad Juárez. Matus Gutiérrez Mónica Nagiby, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Con el paso del tiempo, la industria ha requerido materiales más rígidos, resistentes y ligeros a la vez, a partir de esta necesidad se implementó la composición de materiales, combinando sus distintas propiedades y logrando satisfacer los requerimientos ya mencionados surgiendo así el concepto de material compuesto o composite.
Los materiales compuestos iniciaron como una composición de laminados bidimensionales, los esfuerzos de las fibras actúan a lo largo (eje x) y a lo ancho (eje y), sin embargo, aunque es un material bastante utilizado, siguen existiendo aplicaciones que sufren esfuerzos fuera del plano, es decir, un esfuerzo en una tercera dimensión que logra producir una falla conocida como delaminación.
Un tejido tridimensional en materiales compuestos cubre no solamente el largo y ancho, sino también el grosor, logrando aumentar la tenacidad del material y de esta manera abarcar más aplicaciones en las cuales se tienen esfuerzos en más de dos dimensiones, reduciendo el riesgo de la delaminación, además, reduce el tiempo de producción y con ello, costos operativos y de fabricación.
Este verano de investigación tuvo como objetivo determinar la tenacidad a la fractura interlaminar a partir de la longitud de ruptura medida por telemetría. Esto se llevó a cabo gracias a la investigación sobre herramientas de la librería OpenCV en Python, para posteriormente seleccionar los tejidos a estudiar y una vez recabados los datos de longitud de ruptura, realizar los cálculos correspondientes para obtener la tenacidad a la fractura interlaminar.
METODOLOGÍA
Para este proyecto se comenzó con una revisión de lectura, específicamente a las tesis: Análisis de delaminación de material compuesto con tejido en 3D de nylon para aplicaciones aeronáuticas Por María del Refugio García Jáquez y Análisis de delaminación de material compuesto con tejido en 3D de fibra de carbono para aplicaciones aeronáuticas por Vanesa Peña Adame, ambas asesoradas por el Maestro Manuel Alejandro Lira Martínez quien también trabaja con materiales compuestos y quien en conjunto de ambas estudiantes, diseño las probetas y llevó a cabo la realización de las pruebas mecánicas de delaminación estudiadas en el presente trabajo.
Para la producción de los tejidos en 3D, el diseño de su patrón es de suma importancia, por lo que aquí se analizaran dos tejidos con diferentes patrones con el objetivo de ver cual cuenta con más resistencia.
Las probetas puestas a prueba están conformadas por E-Glass Saertex 380 g/m^2 Biaxial (+/- 45°), y una resina de poliéster para infusión Stypol 8086 CCP por infusión al vacío. Además de contar con un reforzamiento de hilo de fibra de carbono HexTowl IM10 12k.
Como se mencionó anteriormente, se debe crear un programa capaz de medir la fractura interlaminar en centímetros por medio de los videos tomados en cada prueba realizada. Existen diferentes métodos para crear un programa que realice lo ya mencionado, sin embrago nosotras optamos por llevar a cabo los siguientes pasos.
El primer paso es la separación del video en imágenes, se separarón los videos entre 14 y 15 imágenes, esto no es obligatorio, se decidió este número por el tiempo de duración de cada video. Una vez capturadas las imágenes procedemos al segundo paso donde manualmente añadimos dos puntos verdes por imagen, un punto al inicio de la ruptura y un punto al final de esta. Un punto se encuentra parcialmente estático (punto de inicio de ruptura) mientras el otro cada vez se va alejando más de este (punto al final de la ruptura). Cabe mencionar que para facilitar que el programa detecte dichos puntos fue necesario convertir las imágenes en una escala de grises, de no hacer esto, el programa se puede confundir, tomar otras referencias y no detectar específicamente lo que necesitamos. En el tercer paso se empieza a programar. Todas las imágenes se introducen a un código de Python, este código se encarga de unirlas y crea un video nuevo que ya está listo para la medición. Dicho video se mete a otro código que junto con las librerías imutils, numpy y cv2 hace posible la medición de longitud entre dichos puntos. ¿Como funciona? El código está hecho para que detecte el color verde, esto quiere decir que detectara los puntos, a su vez se crearan contornos sobre ellos y el código proveerá la distancia horizontal en cm que existe entre los contornos. Dentro del código se realiza una equivalencia que definirá la distancia real, esta se obtendrá mediante la conversión de pixeles a cm en dimensiones reales del video. Como paso final simplemente es añadirle al código la descarga del video final con los resultados finales.
Al contar con las longitudes de la ruptura, se nos es posible, calcular la tenacidad a la fractura interlaminar por medio de la siguiente formula, según las indicaciones de la norma D5528 - 13:
Fractura interlaminar = (3Pδ)/(2ba)
donde:
P = Carga
δ = Dezplazamiento de punto de carga
b= Ancho de la probeta
a= Largo de delaminación
CONCLUSIONES
El tejido B2 presento una resistencia a la delaminación más alta, dado que la longitud de ruptura máxima durante la prueba fue de 49 mm lo que nos lleva a una tenacidad a la fractura de 0.5379 MPa√m.. Por otra parte, el tejido Z1 presento una longitud de ruptura de 111.3 mm, lo que nos demuestra que este tejido fue por mucho más susceptible a la delaminación arrojando una tenacidad de 0.149 MPa√m.
Dado que el presente trabajo fue más enfocado a la investigación de la telemetría o la medición de dimensiones por medio del procesamiento de imágenes, podemos concluir que esta herramienta resulta ser bastante efectiva en casos de proyectos a larga distancia. En estos tiempos de pandemia, en el ámbito académico muchos estudiantes han detenido proyectos por la imposibilidad de viajar a otras escuelas o simplemente ingresar a laboratorios, el recurrir a este tipo de estudios es de mucha ayuda ya que, con ello es posible obtener resultados reales a través de una imagen.
Castro Arias Bibiana, Instituto Tecnológico Superior de Huauchinango
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
Castro Arias Bibiana, Instituto Tecnológico Superior de Huauchinango. Coronell Gonzalez Nikolls Andrea, Corporación Universitaria Reformada. García Calvo Sofía Isabel, Corporación Universitaria Reformada. Ruiz González Diego, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
El avance tecnológico ha sido de gran impacto en la sociedad, ya que se ha implementado en distintas áreas como salud, ingeniería, artefactos electrónicos y mecánicos, entre otros. Sin embargo, hay muchas personas que no pueden gozar de estos avances por distintas situaciones como es la carencia económica, ceguera y algunas otras discapacidades.
El objetivo de desarrollar este proyecto es aplicar una reingeniería en el diseño para disminuir tiempos de impresión y costos por gastos de material. Para lograr esto, en el diseño original del prototipo se realizan los cambios necesarios tanto en dimensiones, como en el diseño de las piezas.
Este dispositivo tiflotécnico tiene como fin de ayudar en la educación introduciéndolo a temprana edad para aquellos que quieran aprender y quienes lo necesiten.
METODOLOGÍA
Este evento se desarrolló en diferentes etapas, iniciando con la recopilación de datos acerca del sistema de lectoescritura y como funciona, luego de ello, los materias que suelen ser más agradables al tacto de las manos ya que estas tienen que ser entrenadas para poder desarrollar la sensibilidad que se necesita para leer el braille. Seguida de esto se hizo uso de la información en cuanto al tamaño de los dedos y manos de los niños para que el disposotivo tiflotécnico pueda adaptarse a las manos de niños de diferentes edades.
CONCLUSIONES
Al pasar este dispositivo por las manos de un niño ciego, verificó el funcionamiento y la comodidad de dicho artefacto, mostró que cosas del dispositivo lo hacian sentir incomodo y que sugerencias daba para mejorar el prototipo.
Castro Clavijo Leyton Jean Piere, Universidad Nacional Abierta y a Distancia
Asesor:Dr. Julián David Echeverry Correa, Universidad Tecnológica de Pereira
IDENTIFICACIóN DE FACTORES DE RIESGO ASOCIADOS AL SUICIDIO PARA EL EJE CAFETERO UTILIZANDO ALGORITMOS DE MACHINE LEARNING EN PYTHON.
IDENTIFICACIóN DE FACTORES DE RIESGO ASOCIADOS AL SUICIDIO PARA EL EJE CAFETERO UTILIZANDO ALGORITMOS DE MACHINE LEARNING EN PYTHON.
Castro Clavijo Leyton Jean Piere, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Julián David Echeverry Correa, Universidad Tecnológica de Pereira
PLANTEAMIENTO DEL PROBLEMA
En Colombia, la tasa de suicidio ha aumentado un 5,1 % cada año. Aunque para el año 2020 se observó una disminución de esta tasa, sigue siendo un problema de salud pública en donde se ha evidenciado la falta de programas de salud pública destinados a atender las principales problemáticas que enmarcaran este problema. En el presente estudio, se busca determinar factores relevantes que enmarcan al suicidio y cómo los modelos de aprendizaje automático (Machine Learning) pueden postularse como herramientas adecuadas para la investigación de casos de suicidio.
La utilización de algortimos de aprendizaje automático (Machine Learning - ML) ha permitido identificar información relevante en problematicas sociales y culturales. La utilización de estos algoritmos ha permitido la identificación de comportamientos en los datos almacenados en centrales de información mostrando correlaciones entre variables poco relevantes en estudios anteriores; como es el caso de analisis de texto en redes sociales o el procesamiento de imágenes pixel a pixel.
El suicidio, entonces, como una problemática social latente del siglo XXI tanto en Colombia como en el mundo ha presentado un verdadero reto para las instituciones que buscan frenar el aumento anual de estos indices a partir de la identificación de la población o invidiuos vulnerables por lo que, en el rpesente estudio, se buscará abordar datos abiertos y cerrados proporcionados por la Fiscalia General de la Nacion para los departamentos del Eje Cafetero con miras a, en un primer momento, identificar el comportamiento de los datos presentados y en segundo momento, generar modelos de aprendizaje automático que permitan a la isntitución identificar población en riesgo y caracterizar los casos de suicidio consumado que actualmente lleva en investigación la institución.
METODOLOGÍA
Primeramente, se realizará una caracterización de fuentes de Información. Principalmente se resaltarán los datos anuales proporcionados por la Fiscalía General de la Nación y data de cada departamento documentada en la página web nacional Datos.gov. Esta primera parte constituye un análisis exploratorio general de la situación actual del suicidio en el país.
Para la presente investigación, se contará con información relacionada a tamizajes que realiza el ente gubernamental al momento de realizar el levantamiento de los cuerpos y la posterior investigación. Entendiéndose que se cuenta con diferentes fuentes de información oficial, se realiza la organización de la información en un único archivo separado por cosas CSV (denominado también dataset) mediante el uso de Python y la librería Pandas que permite la manipulación de este tipo de archivos.
Para la primera parte de la investigación, se realiza el análisis estadístico de variables encontradas en las fuentes de información. Para cada conjunto de datos nacionales para los años 2018 y 2019 se realiza el análisis de correlación, coeficiente de Chi cuadrado y entropía. Se construyen conjunto de pares de datos a partir de etiquetas presente en la información, esto es, clasificación de cada caso de suicidio consumado en el país por edad, grupo de edad, nivel educativo, motivo documentado de suicidio, sexo y raza. Para cada conjunto de par de etiquetas se realiza el análisis estadístico con motivo de describir el panorama del suicidio y realizar la selección de variables target para el entrenamiento de los modelos de machine Learning.
Después del análisis exploratorio, se realiza la codificación de los diferentes features presentes en el dataset. La codificación se realiza con motivo de mejorar el entrenamiento de los modelos a partir de la conversación de etiquetas de tipo texto a etiquetas de tipo numérico. El proceso de codificación se realiza a partir de la frecuencia de cada etiqueta en el conjunto de datos con el motivo de brindarle un mayor peso a la etiqueta más presente en cada feature pero que la misma codificación no tenga un valor nominal que confunda al modelo en su entrenamiento. Para los features que describen sexo, departamento y municipio de cada caso, si se utilizan valores numéricos nominales.
Posterior a la codificación, se realiza nuevamente un breve análisis estadístico exploratorio de la relevancia de cada feature en el dataset. Por último, se realiza la construcción de modelos de ML relacionados a los features relevantes. Se parte de un modelo base de prueba (denominado modelo de Benchmark) de árbol de decisión y ensamble; se construye un modelo de SVM para la detección de mecanismos fisiopatológicos de muerte y un modelo de red neural de 3 capas y 21 neuronas para determinar la presencia de alcohol a partir de pruebas rápidas tomadas al cuerpo.
Una vez se tengan los modelos construidos y se realiza la optimización de sus hiperparámetros, se realiza el entrenamiento de cada uno a partir de una parte del dataset denominado conjunto Train y se evalúa el rendimiento y precisión del modelo a partir de un conjunto de datos de prueba - Test.
CONCLUSIONES
La aplicación de la ciencia de datos y modelos de aprendizaje automático (Machine Learning) pueden ayudar a entes investigadores en la determinación y resolución de casos de suicidio en situaciones donde el acceso a pruebas sea una dificultad; además de facilitar la creación de propuestas de salud pública mediante la identificación de sectores vulnerables de forma eficiente y eficaz. Para los modelos de SVM se logra una precisión de más del 50 % en la identificación del mecanismo fisiopatológico de muerte a partir de pruebas rápidas de presencia de alcohol, sustancias volátiles, psicofármacos, y variables relacionadas a la edad, sexo, raza y departamento. Para el caso de la red neuronal, se logra una precisión de más del 80 % en las predicciones de rastro de alcohol en el cuerpo a partir de pruebas rápidas y variables relacionadas a la edad, sexo, raza y departamento de procedencia obteniéndose dos modelos de alta precisión considerando el alcance limitado de la información para entrenamiento.
Castro Martínez David Moisés, Instituto Tecnológico de Matamoros
Asesor:M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa
DISEÑO DE UN SISTEMA DIGITAL PARA LA MEDICIÓN DE LA VELOCIDAD DEL VIENTO
DISEÑO DE UN SISTEMA DIGITAL PARA LA MEDICIÓN DE LA VELOCIDAD DEL VIENTO
Castro Martínez David Moisés, Instituto Tecnológico de Matamoros. Asesor: M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa
PLANTEAMIENTO DEL PROBLEMA
La ingeniería mecatrónica unifica diferentes ramas con el propósito de diseñar sistemas mecánicos y eléctricos, dentro de estas ramas se encuentra una que se orienta a la adquisición de datos e instrumentación virtual, la cual se puede aplicar en varios fenómenos físicos y de la ingeniería como lo son las energías renovables, específicamente hablamos sobre la ingeniería de la energía eólica.
Al analizar la viabilidad de la producción de energía con la cinética del viento, es imprescindible conocer las características del mismo. El proceso para conocerlas se conforma de la siguiente manera:
Adquisición de datos
Técnicas de medición
Tratamiento estadístico de los datos
En el contexto de la energía eólica, se presenta a continuación el desarrollo de un sistema compuesto por un instrumento de medición virtual para la adquisición de datos del viento como fenómeno físico contando las revoluciones por minuto en un concepto con estilo PWM, empleando las técnicas de medición para después con un programa de software emplear un tratamiento estadístico a los datos.
METODOLOGÍA
El primer paso fue la realización de pruebas con diferentes sensores compatible con las Arduino para implementar un sistema de recepción de datos, el sensor seleccionado fue el Módulo KY-024 el cual es un sensor de efecto Hall. Las primeras pruebas que se hicieron fueron con la placa experimental Arduino Mega® y el módulo KY-024, que consistían en acercar un imán al sensor simulación que cada percepción del campo magnético era una revolución física que se realizaba.
Teniendo la conexión del sensor con la tarjeta experimental se procedió a crear un programa en el entorno de programación Simulink. Este programa se hizo en totalmente en lenguaje G y consiste por una entrada digital que esta conectada a la salida digital numero 13 de la tarjeta Arduino® para poder visualizar la detección del fenómeno físico, esta entrada digital nos proporciona un valor alto de voltaje que, con ayuda de un contador de Simulink®, representa una revolución realizada. Con la cantidad de revoluciones del contador se realiza una conversión a radianes por segundo. Para poder registrar cada revolución realizada se emplea el uso del Scope, que es una herramienta visual que muestra el comportamiento de la señal en el tiempo de prueba, este comportamiento se puede almacenar en un archivo de Microsoft Excel con ayuda de un comando y breve código de programación de Matlab®.
Para poder percibir la fuerza cinética del viento se construyó un dispositivo con materiales reciclados. El dispositivo consiste de un eje de 18 cm de largo obtenido de una varilla roscada en comienzo de oxidación; de un conector de mangueras de ½ pulgada con roscado a ambos extremos; por dos baleros sellados 6000ZZC3 que son la parte más importante del dispositivo; tuercas para evitar deslizamientos; una abrazadera puesta a una base de madera para fijar el dispositivo de giro; unas aspas plásticas de ventilador casero fijadas al eje; un pequeño imán sujetado al centro de las aspas del ventilador; y finalmente de una estructura de madera para darle altura y soporte al dispositivo. Con ayuda de pegamento y cuatro cubos de madera, se fijó una lámina de plástico acrílico para instalar el sensor magnético y la placa Arduino. Teniendo ahora el dispositivo construido, se midió el radio desde el eje al imán sujeto en las aspas, que es un valor de 0.0325 m, para agregarlo como constante al programa de Simulink® para multiplicarlo por el valor en radianes por segundo para obtener finalmente la velocidad de giro de las aspas (que es proporcional a la velocidad del viento) en metros por segundo.
Se puede revisar el desarrollo completo de la investigación en la siguiente dirección URL:
https://drive.google.com/drive/folders/1x27jS_rbwIU1JvGS1nr5qjlHgWMzqqFu?usp=sharing
CONCLUSIONES
En esta estancia de verano se obtuvo un conocimiento de manejo del software Matlab/Simulink® así como la instalación de carpetas Toolbox para diferentes aplicaciones como la conexión con hardware de Arduino, este conocimiento me ayudará en los semestres faltantes de mi carrera de Ingeniería Mecatrónica, puntualmente en las materias de Dinámica de Sistemas y Teoría de Control.
Con la realización de las pruebas en un entorno de condiciones controladas, se determinó el rango de apreciación del instrumento, obteniendo como mínima medida los 0.012 kilómetros por hora y como máxima medida 2.1 kilómetros por hora. Al sobrepasar el valor máximo se pudo notar en las graficas del comportamiento que se creaban espacios sin recepción de señal, esto quiere decir que las revoluciones eran tan rápidas que el sensor no lograba detectar el campo magnético del imán.
Teniendo el rango de apreciación del dispositivo, se realizaron cuatro pruebas en campo midiendo la velocidad del viento el día 30 de julio del 2021, en estas pruebas se logró apreciar en graficas que el viento no tiene una velocidad constante, durante unos segundos las revoluciones eran más lentas o más rápidas, y con algunas ráfagas de viento las revoluciones llegaban a sobrepasar el límite máximo del dispositivo. Como conclusión puedo decir que el dispositivo diseñado con el sensor KY-024 funciona de manera adecuada cuando la velocidad del viento es menor que los 2.1 kilómetros por hora, como recomendación para una lectura de velocidad mayor y mejorar el diseño será necesario cambiar el sensor por uno mas eficiente, en nuestro caso las limitaciones fueron los recursos económicos en conseguir otro tipo de sensor ya que solo se usaron los que estaban al alcance.
La siguiente etapa para este proyecto de investigación será la realización de lecturas periódicas de la velocidad del viento en la zona para darles un tratamiento estadístico y crear un historial de comportamiento, sin embargo, por el tiempo de la estancia de verano no se podrán mostrar los datos obtenidos, se espera que las velocidades sean menores comparadas a las mostradas en paginas de internet sobre meteorología, ya que nuestro sistema de medición esta ubicado en una zona urbana donde el flujo del viento se ve afectado.
Castro Solarte Yolimar, Universidad Autónoma de Occidente
Asesor:Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
Castro Solarte Yolimar, Universidad Autónoma de Occidente. Escobar Martínez Maximiliano, Universidad de Sonora. Federico Gutiérrez Sergio Octavio, Universidad de Sonora. Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Actualmente la contaminación ocasionada por el vertimiento de las aguas residuales domésticas hacia las aguas superficiales (principalmente ríos) en los países como México y Colombia, ha sido un tema que ha comenzado a afectar a muchas comunidades en los últimos años por la falta de saneamiento básico, ocasionada por las irregularidades en los vertimientos de aguas residuales, y la carencia en el análisis de los parámetros fisicoquímicos en las plantas de tratamiento de las aguas residuales, y la flexibilidad presente en algunos apartados de la normatividad.
El análisis de los parámetros fisicoquímicos aplicados en la inspección de calidad de aguas residuales domésticas después de su tratamiento constituye una herramienta fundamental para la evaluación de aguas superficiales, de la eficiencia de plantas de tratamiento de aguas residuales y el modelaje predictivo de la calidad de agua, que pueda llegar a perjudicar la vida acuática del cuerpo de agua receptor y del ecosistema en general.
Se considera de vital importancia sanitaria dar a conocer, de manera clara y concisa, los parámetros fisicoquímicos básicos para la evaluación del agua residual doméstica en su vertimiento hacia aguas superficiales, mostrando a la vez un análisis que muestre algunas relaciones entre ellos a lo largo del tiempo.
METODOLOGÍA
Se comenzó con exponer brevemente al lector el significado de las aguas residuales, así como su clasificación (domésticas e industriales), de tal modo que de acuerdo con las primeras investigaciones recopiladas, se buscó hacer un análisis de aguas residuales domésticas, no olvidando redactar y presentar los conceptos clave, como lo son los parámetros fisicoquímicos que determinan su calidad. Dichos parámetros nos ofrecen un mejor panorama de la naturaleza física y química del agua, por lo que existen una gran variedad de parámetros, sin embargo, hemos decidido considerar los siguientes para su desarrollo: Temperatura, turbidez, pH, fosfatos, ST (Sólidos Totales), SST (Sólidos Suspendidos Totales), SDT (Sólidos Disueltos Totales), NAT (Nitrógeno Amoniacal Total), DBO5 (Demanda Bioquímica de Oxígeno a los cinco días de incubación), DQO (Demanda Química de Oxígeno) y OD (Oxígeno Disuelto)
En cada uno de los parámetros señalados anteriormente se buscó definir: su significado, el significado de sus valores y la importancia que tienen en el análisis de aguas.
Adicionalmente, investigamos las técnicas de muestreo simple y compuesta, que son de las más utilizadas en la evaluación de dichos parámetros fisicoquímicos, de tal modo que cada una nos presenta ciertas ventajas, desventajas y usos distintos.
Por otro lado, se buscó complementar la información dirigida a los parámetros fisicoquímicos con su regularización dentro de la normativa mexicana y colombiana, en la cual se logró detectar los límites máximos permisibles presentes en el vertimiento puntual de aguas residuales domésticas hacia cuerpos de aguas superficiales a través de los sistemas de alcantarillado urbano o municipal:
En México, investigamos las Normas Oficiales Mexicanas (NOM) de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT) que se aplican a los casos de aguas residuales. En Colombia, revisamos las normas establecidas por el Ministerio de Ambiente y Desarrollo Sostenible dentro de la resolución 631 del 2015.
Además, se nos proporcionó una base de datos recolectada en un periodo de un año, los datos corresponden al afluente y efluente de una planta piloto de aguas residuales domésticas, la cual funcionaba por medio de un sistema biológico híbrido de crecimiento en suspensión y crecimiento adherido, ubicada en un sector de la ciudad de Cali, Colombia. A esta base de datos, aplicamos un análisis descriptivo a partir de la literatura consultada.
CONCLUSIONES
En el análisis descriptivo de la base de datos de la planta piloto de Colombia, el sistema de tratamiento arrojó una DQO promedio mensual de 36 mg/l, un máximo mensual de 62 mg/l y un mínimo mensual de 15.20 mg/l, reduciendo la materia orgánica presente en el efluente de la planta piloto, teniendo un porcentaje de remoción mayor a 52% de la DQO en función del objetivo de calidad que establece la resolución 631 del 2015 en Colombia para cargas menores o iguales a 625 kg DBO5 por día. A partir de datos de la DQO fue posible calcular la DBO5, la cual a la salida tiene un valor promedio mensual de 16.96 mg/l, un valor máximo mensual de 29,81 mg/l y un valor mínimo mensual de 7.31 mg/l, alcanzando una eficiencia mayor al 50% de remoción de acuerdo con el objetivo de calidad establecido en la resolución 631 del 2015 la DBO5 debe ser de 90 mg/l a la salida de la planta de tratamiento de aguas residuales.
Además, se estableció la relación de biodegradabilidad de la materia orgánica, donde DBO5/DQO obtuvo un valor de 0.5. Indicando que el 50% de la materia orgánica es biodegradable, por lo cual se valida la utilización del tratamiento biológico de agua residuales, utilizado en la planta piloto con tratamiento híbrido de crecimiento adherido y en suspensión.
Los resultados evidencian la reducción de la materia orgánica presente en el agua residual, sin embargo, el vertimiento se realiza con un grado aceptable de indicio de contaminación, por parte de los NO3 arrojó un promedio mensual de 8 mg/l, un máximo mensual de 13 mg/l y un mínimo mensual de 3 mg/l. Por lo tanto, se recomienda la recuperación de nutrientes para reusó agrícola, o la incorporación de un tratamiento más avanzado (terciario o cuaternario) que permita la degradación del contenido de nitrógeno presente en forma de nitratos.
Castulo Eligio Libni Salem, Universidad Tecnológica de Zinacantepec
Asesor:Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
APLICACIóN DE MATERIALES AVANZADOS PARA RECUBRIMIENTO EN LA INDUSTRIA AERONáUTICA
APLICACIóN DE MATERIALES AVANZADOS PARA RECUBRIMIENTO EN LA INDUSTRIA AERONáUTICA
Castulo Eligio Libni Salem, Universidad Tecnológica de Zinacantepec. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
Dentro de la rama de la Ciencia Moderna que es la Aeronáutica el decurso de los años ha traído consigo cambios estructurales y avances dentro de las materias utilizadas para la construcción de varios tipos de aeronaves, por lo que se ha abierto un gran campo de investigación con la finalidad de seguir mejorando y descubriendo materias con propiedades divergentes que en combinación con otro tipo de material o mediante un tratamiento puedan presentar nuevas propiedades tanto físicas como químicas de manera que beneficien a este campo.
Dentro de las problemáticas más evidentes se encuentra el uso de recubrimientos deficientes y poco avanzados que entorpecen las principales funciones de este tipo de máquinas como lo son rangos de vuelo y tiempo de vida de sus piezas estructurales, dentro de este periodo del verano de investigación, se recabo información referente a los tipos de materiales y metodologías utilizadas en aeronáutica, así como sus deficiencias y beneficios.
METODOLOGÍA
METODOLOGÍA
La metodología enunciada en seguida se basa en la investigación llevada a cabo previamente por Alumnos del Instituto Politécnico Nacional, a continuación solo se analizara su efectividad.
Síntesis de recubrimientos Cerámicos ORMOSIL
Este tipo de síntesis consiste en el uso de dos precursores tetraetilortosilicato (TEOS) y polidimetilsiloxano (PDMS) que conllevan a la producción de recubrimientos híbridos que buscan ser aplicados en el aluminio que forma parte del fuselaje de un avión. Como primer paso se lleva a cabo la prehidrólisis del TEOS (99%, Fluka) llevado a cabo a temperatura ambiente por un lapso de 24 hrs; empleando DBTL (grado reactivo Gelest) como catalizador y una reacción molar de TEOS: H2O de 1:4 para posteriormente agregar el PDMS-12 (Gelest) de acuerdo a la tabla 1. La mezcla de TEOS hidrolizado/PDMS-12/Catalizador se dejó agitando por 2 hrs antes de aplicarlo sobre el sustrato metálico. Se obtuvieron geles ORMOSIL en probetas cilíndricas de 1cm de diámetro y 5cm de largo.
La caracterización realizada por los investigadores se llevó a cabo por espectroscopía de Infrarrojo empleando la técnica de ATR (Atenuación Total de la Reflectancia) con ventana de diamante, usando un equipo Perkin Elmer Spectrum 100. Dando como resutado espectros en promedio de 32 scans, con resolución de y empleando una ventana espectral de .
Ensayo Metalográfico de Al
Es preciso llevar a cabo un ensayo metalográfico en el cual se debe cortar el aluminio para obtener muestras transversales de (50 x 100 mm), posteriormente el aluminio debe ser encapsulado en una probeta en resina fenólica para realizar el proceso de lijado y pulido.
Ensayos de Compresión y Tensión Para los cerámicos TEOS/PDMS se llevaron a cabo previamente por los investigadores pruebas de compresión empleando una velocidad de compresión de 0.5mm/min. Este ensayo se realizó para determinar el efecto de la Adición del PDMS (polidimetilsiloxano) sobre el módulo de elasticidad y en los valores de esfuerzo máximo en los cerámicos.
Para las probetas de Al los ensayos se realizaron utilizando una velocidad de 5 mm/min.
Aplicación de Recubrimientos ORMOSIL en probetas de Al Los recubrimientos fueron aplicaron sobre las dos caras de láminas de aluminio de 2x8 cm por el método de aspersión, mientras que el secado se llevó a cabo a condiciones ambiente inclinando las láminas a 45° por 4 días.
Ensayos de Corrosión Galvánica Para realizar los ensayos debe utilizarse como cátodo una lámina de Cu y en el ánodo láminas de Al sin y con recubrimiento para obtener los resultados esperados. El agente corrosivo empleado fue una solución de al 10% manteniendo una corriente constante de 5 A durante un lapso de 10 minutos. Para determinar la velocidad de corrosión se registró la pérdida de peso a diferentes tiempos con la ayuda de una balanza analítica.
Microscopía Óptica El espesor del recubrimiento depositado sobre la superficie del Aluminio para este tipo de recubrimientos debe ser medido empleando un microscopio electrónico de barrido. El efecto de la Corrosión sobre la superficie del aluminio y el recubrimiento se observó empleando un metalográfico.
CONCLUSIONES
CONCLUSIONES
Dentro del lapso que abarca el verano de investigación se analizaron las propiedades del recubrimiento cerámico ORMOSIL para su aplicación en la industria Aeronáutica considerando este un Material Avanzado, a partir del documento en el que está basada esta investigación se propuso usar este tipo de recubrimiento específicamente en el fuselaje de aviones puesto que se comprobó que brinda excelente protección a la corrosión, sin embargo aún no es un hecho que se use industrialmente esta técnica.
HISTORIAL DE REFERENCIAS
Guevara, J. A. & Hernández, A. H. (2016). DESARROLLO DE RECUBRIMIENTO ANTICORROSIVO TIPO CERÁMICOS PARA SU USO EN LA INDUSTRIA AERONÁUTICA, INTITUTO POLITECNICO NACIONAL, Tesina para la obtención de grado de Ingeniero en Aeronáutica. (Documento de Análisis)
Basaldúa Robledo, F. (2016). Fabricación de materiales compuestos reforzados con fibras naturales mediante el método de prensado en frío para aplicaciones aeronáuticas (Doctoral dissertation, Universidad Autónoma de Nuevo León).
POSADAS CARLOS, C. E. L. E. D. O. N. I. O. (2012). EFECTO DE LA CORROSIÓN SALINA EN EL COMPORTAMIENTO DE LA VIDA EN FATIGA DE UNA ALEACIÓN DE ALUMINIO 2024-T3 DE APLICACIÓN AERONÁUTICA (Doctoral dissertation).
Hernández, C. S., Hernández, M. S., González, E. E. P., Ríos, H. J., & Rodríguez, M. C. Recubrimiento anticorrosivo tipo ormosil empleando DBTL como catalizador de policondensación.
Sánchez, C. (29 de enero de 2020). Tablas. Normas APA (7ma edición). https://normas-apa.org/estructura/tablas
Ceballos Garza Casandra Ameyali, Universidad Politécnica de Tecámac
Asesor:M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
APLICACIÓN WEB PARA ADMINISTRAR LA INFORMACIÓN ADQUIRIDA DE UNA MÁQUINA DE ENVEJECIMIENTO DE MATERIALES METÁLICOS
APLICACIÓN WEB PARA ADMINISTRAR LA INFORMACIÓN ADQUIRIDA DE UNA MÁQUINA DE ENVEJECIMIENTO DE MATERIALES METÁLICOS
Ceballos Garza Casandra Ameyali, Universidad Politécnica de Tecámac. Valdez Silva Joana Esmeralda, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Una máquina de envejecimiento acelerado es capaz de someter a un material a pruebas de envejecimiento para predecir su comportamiento ante el paso del tiempo. Los daños sufridos por un material se pueden manifestar en forma de cambio de color, pérdida de brillo, pérdida de resistencia, agrietamiento, deslaminado, oxidación y desconche o rotura del producto. Entre las principales causas del envejecimiento se encuentran la luz solar (especialmente la ultravioleta), las altas temperaturas y la humedad; ya sea en forma de lluvia, rocío o altos valores de humedad. Actualmente el manejo y control de la máquina y de los datos que brinda se lleva a cabo de manera manual, por lo que lleva más tiempo del planeado usarla y además causa retraso en las actividades.
La automatización de procesos industriales es en sí misma la aplicación de maquinarias y equipos de tecnología (Software y hardware), que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma, es decir, con la mínima participación de personal humano posible. Para lograr esto en la máquina de envejecimiento, se creará un circuito integrado con sensores, que mantendrán un lenguaje máquina a máquina, con ayuda del protocolo HTTP, esto facilitará las actividades de control y hará que el trabajo se vuelva más rentable, eficiente y cuidadoso con el control de calidad.
METODOLOGÍA
MODELO DE PROTOTIPOS
Se inicia con la definición de los objetivos globales para el software, luego se identifican los requisitos conocidos y las áreas del esquema en donde es necesaria más definición. Este modelo es básicamente prueba y error ya que si al usuario no le gusta una parte del prototipo significa que la prueba fallo por lo cual se debe corregir el error que se tenga hasta que el usuario quede satisfecho. Además, el prototipo debe ser construido en poco tiempo, usando los programas adecuados y no se debe utilizar mucho dinero pues a partir de que este sea aprobado nosotros podemos iniciar el verdadero desarrollo del software. Pero eso si al construir el prototipo nos asegura que nuestro software sea de mejor calidad,
Etapas para diseñar e implementar un prototipo:
Recolección y refinamiento de requisitos: La información que el investigador brindó se separó en requerimientos funcionales y no funcionales.
Modelado, diseño rápido: Se hizo uso de aplicación Balsamiq, para poder hacer un maquetado rápido de lo que sería cada una de las interfaces a desarrollar.
Construcción del Prototipo: A través del programa Visual Studio, se comenzó la creación de cada uno de los prototipos, diseñados; además se implementó el protocolo HTTP Y las plataformas Web API y Entity Framework para lograr que cada maquetado cumpla su funcionalidad, así mismo se utilizó el gestor de bases de datos, SQL Server.
Desarrollo, evaluación del prototipo por el cliente: Al término del desarrollo de cada prototipo, el investigador y los alumnos evaluaban el diseño, la manera de manejar la información, las dimensiones; es decir, si el resultado era el esperado.
Refinamiento del prototipo: Los desarrolladores, proponen ideas de mejora, según el desempeño del prototipo.
Implementación: Se actualiza el prototipo y se implementan las propuestas planteadas en la anterior etapa por los alumnos y el investigador.
CONCLUSIONES
Ahora que se ha concluido este proyecto, se puede notar que el equipo de trabajo logró cumplir con los objetivos planteados al inicio de la investigación. En términos generales podemos mencionar que:
Se realizó una aplicación web utilizando Web API y entity Framework, así mismo se hizo uso de estas plataformas para obtener la información que proveen los sensores, estos datos son; temperatura, humedad y la luz UV.
Se hizo uso del protocolo HTTP, que es la base de cualquier intercambio de datos en la Web, esto quiere decir que una petición de datos es iniciada por el elemento que recibirá los datos en este caso el usuario.
Se utilizó el sistema gestor de bases de datos, SQL Server; para almacenar los datos adquiridos e ingresados por el usuario, desde la información de inicio de sesión, hasta los datos de cada una de las pruebas realizadas. Así mismo para mantener relación entre ciertas entidades de datos.
En términos específicos, se obtuvieron los siguientes puntos.
El usuario puede crear un sinfín de pruebas, y estás estarán registradas dentro de la base de datos, manteniendo en el registro el nombre del autor.
Con el uso de la información registrada en cada prueba se puede comprender la manera más eficiente el cómo envejecer los materiales.
La aplicación Web es capaz de mostrar todas las pruebas realizadas y quien realizó dichas pruebas.
Igualmente, los datos arrojados por los sensores de temperatura, humedad y la luz UV de cada prueba realizada, se puede consultar de manera gráfica y cuantitativa, todo esto con un gran entendimiento en cuanto al diseño de las interfaces y la experiencia del usuario.
En conclusión, el manejo de bases de datos es bastante importante hoy en día ya que la mayoría de las empresas maneja una enorme cantidad de datos almacenados y permiten un mejor manejo y automatización de procesos.
Utilizar entity framewok es una gran opción ya que permite a los programadores trabajar con datos en forma de objetos y propiedades específicas del dominio, por ejemplo, con clientes y direcciones, sin tener que pensar en las tablas de las bases de datos subyacentes y en las columnas en las que se almacenan estos datos.
Ceceña Lara Cesar Gustavo, Universidad Autónoma de Baja California
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
REVISIóN DE LAS ESTRUCTURAS ORGANOMETáLICAS QUE IMPIDEN LA ACTIVIDAD BACTERIANA IN VITRO
REVISIóN DE LAS ESTRUCTURAS ORGANOMETáLICAS QUE IMPIDEN LA ACTIVIDAD BACTERIANA IN VITRO
Ceceña Lara Cesar Gustavo, Universidad Autónoma de Baja California. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Una de las principales preocupaciones en el campo de la farmacología, es la resistencia a los antibióticos; dicha resistencia ha ido en aumento con el paso de los años. Por lo que es necesario que se cuenten con suficientes opciones para poder contrarrestar las nuevas generaciones que puedan llegar a surgir, las cuales lleguen al nivel de no ser controladas con los antibióticos que se encuentran actualmente en uso o en desarrollo. Una de las nuevas alternativas recae en la utilización de estructuras organometálicas, puesto que debido a su composición, pueden llegar a formar distintas geometrías con distintos comportamientos según sea el compuesto (biológico o no biológico) con el que entren en contacto.
De acuerdo a investigaciones de hace 10 años, se ha estudiado la actividad antibacteriana de las estructuras organometálicas. En dichos estudios, se consideraban distintas estructuras y por lo tanto, la actividad antibactriana era distinta. Es por ello que durante esta investigación se respondió la pregunta: ¿Cuál composición en forma de estructura organometálica presenta una mayor actividad antibacteriana en un ensayo in vitro?
METODOLOGÍA
La metodología empleada fue la recolección de información mediante bases de datos, principalmente de Web of Science, ScienceDirect, Pubmed y EBSCOhost. Con dicha información, se realizaron distintas presentaciones utilizando Powerpoint, siendo la primera una presentación con la temática de Estructuras organometálicas, en la cual se abarcaron los conceptos básicos para dar una introducción a la temática. Seguidamente se expuso acerca de Principales grupos antibióticos y mecanismos de acción donde se habló sobre la manera en la cual los antibióticos se encargan de eliminar las bacterias, lo anterior para lograr asociarlo con la temática principal; las estructuras organometálicas. Además de las presentaciones, también se utilizaron las herramientas de Biorender y Flipgrid, en la primera se realizaron modelados de metodologías de artículos científicos en donde se utilizaron estructuras organometálicas, esto con la finalidad de comprender en mejor manera los procedimientos llevados a cabo en esta área; en la segunda plataforma, se realizó un video explicativo usando las herramientas de la plataforma, explicando un tema de interés personal pero relacionado a la temática, en este caso: métodos de síntesis de estructuras organometálicas.
Utilizando las bases de datos mencionadas anteriormente, se hizo uso de la metodología PRISMA para realizar una revisión de alcance. Con base en ello se recolectó un total de 700 documentos, y haciendo uso de criterios de inclusión y exclusión; se obtuvo un total de 4 documentos a analizar. De dichos documentos se rescataron los datos de interés (estructura organometálica utilizada, microorganismo empleado y actividad inhibida), los cuales se organizaron en una tabla para responder la pregunta presentada en el planteamiento.
CONCLUSIONES
De la presente investigación se obtuvieron resultados prometedores sobre el tema, pues se determinó que las estructuras organometálicas (en especial la Cu-MOF-NPs) son buenas candidatas para impedir la actividad bacteriana, lo cual indica que poseen un campo de aplicaciones futuras que hay que mantener sustentando para que sean una solución viable ante la problemática de resistencia a los antibióticos.
De esta manera quedó demostrado que, la utilización de fuentes de datos es crucial para obtener información confiable y reciente acerca de una temática, además que la utilización de herramientas como Biorender o Flipgrid, refuerzan la información obtenida, pues otorgan un apoyo gráfico y por lo tanto se mejora la comprensión.
Celais Garrido Edjair, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango
UTILIZACIóN DE ESCALAS LIKERT PARA MEDIR LA ACEPTACIóN DE UN JUGUETE PARA PERSONAS CIEGAS
UTILIZACIóN DE ESCALAS LIKERT PARA MEDIR LA ACEPTACIóN DE UN JUGUETE PARA PERSONAS CIEGAS
Celais Garrido Edjair, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Análisis del nivel de usabilidad de un juguete para personas ciegas, en el Municipio de Huauchinango, utilizando las escalas Likert.
METODOLOGÍA
Para llevar a cabo el presente proyecto se realizaron diversas actividades las cuales se dividieron en las siguientes fases:
Fase 1: Elaboración de preguntas para medir el nivel de satisfacción de los usuarios.
Tomando en cuenta información proporcionada por la Lic. Margarita Islas Espinoza responsable del área de Discapacidad Visual de CRIH (Centro de Rehabilitación Integral Huauchinango), se determinó que la realización de las encuestas debe ser de forma presencial y auditiva, debido a que no toda la población está familiarizada con la lecto-escritura braille, así mismo hizo mención de que las preguntas fueran claras y objetivas, cuidando el lenguaje a utilizar, mismo que no fuera a dañar las emociones y/o sentimientos de los usuarios.
A continuación, se presentan las preguntas que conforman la encuesta
¿Como calificarías el transporte de Tifli de un lugar a otro de acuerdo a su peso?
¿Como calificarías el transporte de Tifli de un lugar a otro de acuerdo a su tamaño?
¿Como calificarías el tamaño de los botones de Tifli?
¿Cómo calificarías la fuerza que aplicas al presionar los botones de Tifli?
¿Como calificarías la forma en que puedes sostener a Tifli mientras presionas los botones de su caparazón?
¿Como calificarías la textura del cuerpo de Tifli?
¿Como calificarías la textura que tiene Tifli en sus 4 extremidades?
¿Como calificarías el volumen del audio de Tifli?
¿Como calificarías la claridad del audio de Tifli?
¿Como calificarías el entretenimiento con Tifli?
¿Como calificarías de forma general a Tifli para aprender braille?
¿Cómo guardarías a Tifli? (abiertas)
¿Qué agregarías para mejorar a Tifli? (abiertas)
Las preguntas anteriores tienen una escala de 5 niveles, con referencia a las escalas Likert:
Muy bueno
Bueno
Regular
Malo
Muy malo
Los cuáles serán utilizados para medir el nivel de satisfacción tanto en niños como en adultos, debido a la flexibilidad de la redacción de las preguntas o interrogantes antes mencionadas.
Fase 2: Creación de la encuesta
Para poder realizar la encuesta de manera más fácil a los usuarios, se tomó la decisión de utilizar la plataforma de Google Forms, ya que se pueden extraer de forma más fácil los resultados para su interpretación.
Una vez que sea señalado el tipo de usuario que realizará la encuesta, se dirigirá a la sección de preguntas.
Fase 3: Creación de tablas para el análisis de datos
Para poder visualizar de forma más clara y detallada los datos recabados se realizaron tablas para el vaciado de estos.
En las tablas se colocarán el número de usuarios que calificaron de acuerdo con la escala en cada una de las preguntas, al final en las preguntas abiertas, se colocaran aquellas respuestas que se repitan con mayor frecuencia y aquellas que no sean tan repetitivas.
Fase 4: Aplicación de encuestas
Las encuestas serán aplicadas por los investigadores y/o personas de apoyo, cabe señalar que la encuesta será realizada con la ayuda de otra persona, la cual se encargara de leer la pregunta y las opciones que tiene.
Es importante tener en cuenta que el usuario debe sentirse cómodo, habitualmente las personas con discapacidad visual están acostumbradas a lidiar con personas no ciegas, por lo tanto, se determinó hablar con discreción debió a que no todas las personas están acostumbradas a que sean tratadas con una discapacidad.
CONCLUSIONES
La elaboración de las preguntas no fue fácil de realizar, ya que se debían cuidar palabras que no fueran a dañar el estado de ánimo de los usuarios, de igual manera para la aplicación de estas, el apoyo que se tuvo por parte del artículo ¿Cómo realizar un test para personas ciegas?, brindo información vital para que más adelante se puedan aplicar de manera correcta las encuestas y que el usuario se sienta cómodo.
Este proyecto tendrá un seguimiento para poder cumplir con el objetivo establecido, así como también con los objetivos específicos y poder obtener una respuesta por parte de los usuarios para realizar las mejoras necesarias que ayuden a cubrir las necesidades requeridas, cumpliendo a su vez con el décimo objetivo (Reducir las desigualdades entre países y dentro de ellos) de la Agenda 2030 para el Desarrollo Sostenible.
Debido a la falta de tiempo, no fue posible realizar las encuestas, es por ello que aun no se realiza el análisis para poder determinar el nivel de satisfacción por parte de los usuarios.
Celaya Pérez Richie, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí
DESARROLLO DE ALGORITMOS PARA MáXIMA EXTRACCIóN DE POTENCIA EN MóDULOS FOTOVOLTAICOS
DESARROLLO DE ALGORITMOS PARA MáXIMA EXTRACCIóN DE POTENCIA EN MóDULOS FOTOVOLTAICOS
Celaya Pérez Richie, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rafael Peña Gallardo, Universidad Autónoma de San Luis Potosí
PLANTEAMIENTO DEL PROBLEMA
Esta investigación surge de la necesidad de estudiar y analizar el comportamiento no lineal que tienen las celdas fotovoltaicas en su extracción de potencia, la cual depende de las condiciones climatológicas, como lo es la temperatura y la irradiación solar. Cuando se conectan a red, se espera poder extraer la máxima potencia posible de ellas, variando su voltaje en terminales a través de convertidor de electrónica de potencia. Por lo que es necesario implementar un algoritmo que cumpla con dicha función. En este proyecto de investigación se plantea estudiar los algoritmos típicamente utilizados en el problema de máxima extracción de potencia en celdas fotovoltaicas y proponer mejoras en su desempeño.
METODOLOGÍA
Para realizar la siguiente investigación se tiene como objetivo estudiar el funcionamiento de los módulos fotovoltaicos para después realizar simulaciones computacionales y así poder analizar su comportamiento bajo diferentes condiciones climatológicas, especialmente cuando forman parte de un sistema interconectado.
Para la simulación del módulo fotovoltaico se utilizó el software MATLAB, se implementaron las ecuaciones y variables que definen el comportamiento de la celda fotovoltaica y de varias celdas para formar un módulo fotovoltaico. El modelo utilizado fue el modelo de un solo diodo.
Posteriormente se estudiaron por medio de simulación varios algoritmos típicamente utilizados para conseguir la máxima extracción de potencia, los cuales son:
Perturba y observa.
Conductancia incremental.
El principio de funcionamiento del algoritmo perturba y observa es que incrementa o disminuye el voltaje en terminales del módulo, con pasos iguales hasta llegar al punto donde se presente la máxima potencia entregada por el módulo. En la práctica, las mediciones se realizan con sensores de voltaje y corriente, estas dos mediciones son usadas para calcular la potencia en un instante dado y así poder compararla con la potencia en un instante anterior, basados en esa información se toma una decisión sobre si aumentar o disminuir el voltaje de operación definido por el convertidor.
El algoritmo de conductancia incremental tiene como intención determinar la tendencia que tiene la potencia en un instante dado; esto se logra a través de una aproximación matemática la cual consiste en calcular la pendiente que tiene la curva de potencia-voltaje de los módulos y comparar los valores de está curva en un instante dado y en un instante anterior. Con esta información se obtiene una aproximación de la pendiente que tiene la curva en cualquier punto. Conociendo la pendiente, se determina si el módulo se encuentra trabajando a la izquierda o derecha del punto de máximo potencia (MPP por sus siglas en inglés), y por lo tanto, decidir si se debe disminuir o aumentar el voltaje.
Finalmente, tomando como base los algoritmos anteriores, se propone un algoritmo adicional para resolver la ecuación no lineal que define la potencia entregada por el módulo fotovoltaico con respecto al voltaje de operación; lo cual tiene la ventaja de que se obtiene el voltaje de máxima potencia mediante un método numérico y de manera exacta, y así el convertidor fijaría el voltaje necesario en terminales del módulo y solo realizaría los cambios necesarios a lo largo del día conforme las condiciones climáticas determinen un nuevo punto MPP de operación del módulo.
Dado que se trata de una ecuación no lineal, no se puede resolver mediante métodos convencionales, sino que se deben usar métodos numéricos para lograrlo. Los métodos numéricos que se utilizaron para realizar esta tarea son:
Newton- Raphson.
Regula Falsi.
Para la implementación de estos métodos, se utilizó de igual manera el software MATLAB. Los dos métodos mencionados fueron programados y puestos a prueba bajo las mismas condiciones de irradiancia solar y temperatura ambiente. Los resultados fueron documentados y analizados para determinar la factibilidad de este nuevo método.
En la práctica, cualquiera de estos dos métodos puede ser programados en una computadora o microcontrolador para hacer llegar al convertidor el voltaje al que se tiene que operar.
CONCLUSIONES
Se determinó que el nuevo método propuesto llega al resultado buscado con una muy buena exactitud y con un tiempo de computación corto comparado con los otros dos métodos estudiados, el de conductancia Incremental y perturba y observa.
Los dos métodos numéricos propuestos llegan al resultado de voltaje deseado, sin embargo, el método de Newton- Raphson podría presentar ciertas limitaciones, ya que, debido a la naturaleza de la función de potencia, la solución puede llegar a divergir para valores de voltaje lejanos a la solución.
Por otro lado, el método de Regula Falsi también llega al resultado deseado con una muy buena exactitud y no presenta los problemas que presenta Newton- Raphson, ya que es un método definido por un intervalo y no un solo punto; las iteraciones que se requieren son mayores, sin embargo, el tiempo de cómputo es muy parecido.
Finalmente, las ventajas observadas del nuevo método propuesto con respecto a los existentes son:
Mayor exactitud en la obtención del voltaje de máxima potencia.
No requiere que se hagan iteraciones en el voltaje de operación.
Puede adaptarse a diferentes condiciones climatológicas, calculando nuevos valores de voltaje a lo largo del día.
Llega más rápidamente a la condición deseada.
Ceniceros Bermudez Brisseida, Universidad Autónoma de Sinaloa
Asesor:M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez
MODELOS DE PROYECCIóN Y PREDICCIóN EN VARIABLES DE POTENCIA Y TEMPERATURA EN LOS SISTEMAS FOTOVOLTAICOS.
MODELOS DE PROYECCIóN Y PREDICCIóN EN VARIABLES DE POTENCIA Y TEMPERATURA EN LOS SISTEMAS FOTOVOLTAICOS.
Ceniceros Bermudez Brisseida, Universidad Autónoma de Sinaloa. Olaguez Morales Cinthya Amayranni, Universidad Autónoma de Sinaloa. Asesor: M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Sabiendo que en la actualidad el tema de energías renovables es un tema preocupante para los países debido a la sobreexplotación y el agotamiento de los combustibles fósiles, y el alto nivel de contaminación e impacto ambiental que producen, el hombre se ha visto en la necesidad de buscar fuentes energéticas renovables que permitan la manutención del equilibrio de los ecosistemas. Por lo que se ha visto en la necesidad de innovar métodos y buscar ideologías para el desarrollo de dispositivos que aprovechen la energía solar. Un claro ejemplo de ello es la instalación de celdas fotovoltaicas, pero ¿Cómo saber las características adecuadas para su instalación y el tipo de celda?, es por ello que se desarrollara un Modelo de predicción para su instalación, si se desea colocar en alguna parte de la republica con sus aspectos requeridos ya sea de 100 o 1000 watts. Este modelo arrojara la radiación que entra a la celda, la temperatura, para realizar una comparación con dichas variables y obtener la potencia de celda. Sin dejar en cuenta que determinara distintas variables importantes las cuales podrían ser la temperatura ambiente entre otras.
METODOLOGÍA
Conceptos básicos
Radiación solar: Es un fenómeno físico debido a la emisión de energía por parte del Sol en forma de radiaciones electromagnéticas. Estas radiaciones pueden ser cuantificadas y se expresan en unidades de irradiación, una unidad que refleja su potencia por unidad de superficie.
Energía solar fotovoltaica: Ésta se basa en la captación de energía solar y su transformación en energía eléctrica por medio de módulos fotovoltaicos.
Efecto fotovoltaico: El efecto fotovoltaico es la base del proceso mediante el cual una célula fotovoltaica convierte la luz solar en electricidad. La luz solar está compuesta por fotones, o partículas energéticas. Estos fotones son de diferentes energías, correspondientes a las diferentes longitudes de onda del espectro solar. Cuando los fotones inciden sobre una célula fotovoltaica, pueden ser reflejados, absorbidos, o pueden pasar a través de él. Únicamente los fotones absorbidos generan electricidad.
Celda solar fotovoltaica :Las celdas fotovoltaicas son elementos que producen electricidad al incidir la luz sobre su superficie; la fuente de luz utilizada generalmente es el sol. Estas celdas también son conocidas como baterías solares, fotopilas o generadores helio voltaico.
POTENCIA ELÉCTRICA: Potencia es la velocidad a la que se transforma la energía. Si la energía fuese un líquido, la potencia sería los litros por segundo que vierte el depósito que lo contiene. La potencia se mide en joule por segundo (J/s) y se representa con la letra P.
VOLTAJE: La diferencia de potencial entre dos puntos de una fuente de Fuerza Electromotriz (FEM) se manifiesta como la acumulación de cargas eléctricas negativas (iones negativos o aniones), con exceso de electrones en el polo negativo (-) y la acumulación de cargas eléctricas positivas (iones positivos o cationes), con ausencia de electrones en el polo positivo (+) de la propia fuente de FEM.
CORRIENTE: La corriente eléctrica que se genera en una celda es proporcional al área de la superficie en la cual incidirá la radiación solar.
Redes neuronales: Una red neuronal es un modelo simplificado que emula el modo en que el cerebro humano procesa la información: Funciona simultaneando un número elevado de unidades de procesamiento interconectadas que parecen versiones abstractas de neuronas. Las unidades de procesamiento se organizan en capas. Hay tres partes normalmente en una red neuronal: una capa de entrada, con unidades que representan los campos de entrada; una o varias capas ocultas; y una capa de salida, con una unidad o unidades que representa el campo o los campos de destino.
Desarrollo del modelo matemático
Por medio de celdas fotovoltaicas monocristalinas y policristalinas se obtuvieron datos de temperatura, voltaje, corriente y radiación. La primera fase fue la de procesamiento esta se hizo con el objetivo de manipular y acondicionar los datos crudos de las celdas fotovoltaicas y estación meteorológica, en esta fase se convirtieron los datos que se encontraban en forma de texto en datos que fueran manejables en Excel. Después se aplico la segunda fase que se basaba en la limpieza de los datos para esto tuvimos que convertidos los datos a lo que correspondía las variables de temperatura, voltaje, corriente y radiación, se establecieron los rangos y por consiguiente se aplicó un código para que procesara los datos arrojando los outliers que son los valores que se encontraban fuera del rango. En seguida de haber realizado la limpieza de datos se aplico el algoritmo PCA para poder encontrar las variables de potencia, temperatura promedio de la celda y eficiencia. Para finalizar se diseño una red neuronal para encontrar la confianza del modelo utilizan en primera la comparación de las variables de temperatura promedio y potencia, también las variables de radiación se comparo con la temperatura promedio y por ultimo la radiación y potencia.
CONCLUSIONES
Podemos concluir que los resultados fueron satisfactorios ya que se puedieron encontrar los niveles de confianza de los modelos plateados. Por otra parte tambien se deja en claro que una RNA es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura del cerebro. Esta también puede ser vista como un sistema inteligente que lleva a cabo tareas de manera distinta a como lo hacen las computadoras actuales. Los modelos matemáticos en que han sido desarrollados los algoritmos para todos los tipos de redes son modelos sencillos, que aunque exigen cierto grado de conocimientos de cálculo diferencial, pueden ser asimilados y desarrollados en cualquier lenguaje de programación. Por otro lado, las estructuras de las redes se han definido por medio de notación sencilla y comprensible, cada nuevo desarrollo permite cierta flexibilidad en cuanto a la forma final de la red y esto garantiza su fácil adaptación a aplicación particulares
Cerna Alcantar Jose Norberto, Instituto Tecnológico de Morelia
Asesor:Mg. Luis Enrique Ortiz Ospina, Institución Universitaria Esumer
APROPIACIÓN DE LA INNOVACIÓN EN LAS PYMES Y NEGOCIOS ACOMPAÑADOS POR EL PROGRAMA CEDEZO DE LA ALCALDÍA DE MEDELLÍN
APROPIACIÓN DE LA INNOVACIÓN EN LAS PYMES Y NEGOCIOS ACOMPAÑADOS POR EL PROGRAMA CEDEZO DE LA ALCALDÍA DE MEDELLÍN
Cerna Alcantar Jose Norberto, Instituto Tecnológico de Morelia. Martínez González Gabriela Estefanía, Instituto Tecnológico de Morelia. Asesor: Mg. Luis Enrique Ortiz Ospina, Institución Universitaria Esumer
PLANTEAMIENTO DEL PROBLEMA
Hoy en día nos encontramos ante una realidad de "innovar o desaparecer". Debido a esto, la ciudad de Medellín quiere formar una cultura innovadora y una parte fundamental que necesita atención son las pymes; a través del programa CEDEZO de la alcaldía de Medellín se brinda acompañamiento a aquellos que tienen una idea de negocio, emprendimiento o empresa y se les capacita con el fin de fortalecer sus capacidades en áreas empresariales y financieras, buscando la rentabilidad de las famiempresas.
La institución universitaria ESUMER trabaja en conjunto con dicho programa, para de este modo, estudiar y de la misma manera, hacer acompañamiento a las personas que están inscritas al programa.
Este proyecto tiene como objetivo general determinar el impacto de la innovación en las pymes y negocios acompañados por el programa CEDEZO de la Alcaldía de Medellín.
Y sus objetivos específicos son los siguientes:
Identificar los identificar los conceptos, niveles, tipos de innovación y procesos de gestión de la misma, a través de fuentes primarias y secundarias.
Describir los procesos de innovación que dan al interior de las empresas que hacen parte del Programa CEDEZO
Determinar los resultados e impactos de los procesos de innovación en las empresas participantes.
Construir una batería de herramientas para la gestión de la innovación para ser entregada a los empresarios participantes.
Generar recomendaciones y sugerencias frente a la gestión de la innovación en las empresas.
METODOLOGÍA
ETAPA UNO
Selección y análisis de las fuentes de consulta secundarias y primarias relacionadas con el concepto, nivel y tipos de innovación, así como la gestión de innovación al interior de las empresas.
Definición de las variables claves que deben aplicarse en las empresas participantes.
Construcción del instrumento de caracterización y medición.
Convocatoria de las empresas participantes adscritas al Programa CEDEZO.
Aplicación del instrumento en las empresas participantes.
Análisis de los resultados obtenidos.
ETAPA DOS
Selección y análisis de las fuentes de consulta secundarias relacionadas las herramientas de innovación.
Definición de las herramientas claves que serán socializadas con las empresas participantes y construcción de la batería de herramientas de innovación.
Convocatoria de las empresas participantes adscritas al Programa CEDEZO
Aplicación, a través de un taller práctico, de algunas de las herramientas de innovación seleccionadas.
Entrega del documento Caja de Herramientas para la Innovación.
Construcción del artículo con los principales resultados del proyecto.
CONCLUSIONES
Acudieron dieciocho empresas a la convocatoria, y gracias a los instrumentos que se aplicaron se pudo identificar cual es su percepción de innovación, la cual se encontraba un tanto confusa, además se determinó cuales áreas respecto a la innovación estaban atendidas y desatendidas, donde el producto es el área atendida y el área de financiera y organizacional se encontraban totalmente desatendidas. Además, se pudo observar que estas pymes tienden a tomar estrategias ofensivas.
Dicho esto, se entregará una caja de herramientas que contiene doce herramientas acordes a las necesidades y áreas que necesitan reforzar.
Una vez obtenidos los resultados y contrastarlos con la opinión y percepción de los expertos, se puede concluir que la barrera más grande de los emprendedores es el desconocimiento y la desinformación, debido a que asumen llevar a cabo estrategias que no van acorde a la infraestructura que poseen, para lo cual es necesario cambiar sus estrategias que se adapten a ellos o de lo contrario comenzar a realizar acciones que les permitan asumirlas.
Es de suma importancia que estos emprendedores sigan acompañados y algún experto pueda asesorarlos en la aplicación de las herramientas que se les proporciono.
Ceron Acosta Luz Karina, Universidad Antonio Nariño
Asesor:Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA, EN COLOMBIA, CASO DE ESTUDIO: (RUBIALES, META - GRANADA, META)
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA, EN COLOMBIA, CASO DE ESTUDIO: (RUBIALES, META - GRANADA, META)
Ceron Acosta Luz Karina, Universidad Antonio Nariño. Rivera Quintero Maryi Julieth, Universidad Antonio Nariño. Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua se mide con base en la cantidad de compuestos de calcio y magnesio presentes en ella, con la aplicación de la distribución muestral y guiados por la normativa que compara la Clasificación de las aguas según el valor de la dureza total, estableciendo como valor orientador de calidad desde un contenido en calcio de 0 mg/l y como límite máximo tolerable 300 mg/l, se procedió a realizar diferentes muestras en dos pueblos ubicados en el departamento del meta en Colombia, tanto a empresas purificadoras de agua como a pozos subterráneos para determinar en que nivel de clasificación se encuentran; obteniendo resultados interesantes al evidenciar que el agua del pozo subterráneo a pesar de no ser tratada presentó el nivel de dureza más blando con respecto a las empresas que si realizan el proceso, teniendo en cuenta que el pozo se encuentra ubicado en una zona petrolera, donde se esperaría que debido a las operaciones que se desarrollen allí relacionadas con la extracción de hidrocarburos tenga efectos negativos en el agua, por otra parte de las pruebas tomadas en el municipio de Granada Meta se obtuvieron resultados un poco más altos que los obtenidos en Rubiales.
METODOLOGÍA
El procedimiento que se efectuó para determinar a que nivel de dureza de agua pertenece cada lugar y/o empresa al que se le realizó el muestreo fue a travez de la distribución muestral en la que se realizaron
pruebas a 5 lugares diferentes entre esos empresas de purificación y un pozo de agua subterráneo, mediante un medidor de TDS se tomaron distintas pruebas diariamente a diferentes muestras de agua, por cada lugar se realizaron 25 pruebas para un total de 125.
Una vez obtenidos lo resultados se procedió a realizar el análisis estadístico de la distribución muestral, que nos permitió determinar la media y la desviación estándar para cada caso, con estos resultados se logra calcular la probabilidad que tiene cada lugar de pertenecer a que tipo de agua en la clasificación de dureza.1
CONCLUSIONES
1. Se logró determinar a que nivel de dureza pertenece el agua de cada lugar.
2. Según los resultados obtenidos en Granada, Meta, el agua presenta mayor concentración de calcio y magnesio, llevandolo a ser un tipo de agua blanda.
3. En rubiales, Meta, se obtuvieron resultados con niveles más bajos en concentración de calcio y magnesio, siendo el agua de tipo muy blanda.
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Giraldo Morales Madeleyne, Universidad Santo Tomás. González Reyes Brenda Yael, Benemérita Universidad Autónoma de Puebla. Torres González Olga, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
A partir de la revolución industrial los grandes problemas que enfrenta el sector energético son los procesos de combustión a partir del uso de combustibles fósiles y la disminución de las reservas de petróleo, ocasionando una alta concentración de gases contaminantes en la atmosfera. Una alternativa para cubrir la demanda de combustible es la producción de bioetanol y biodiesel, que pueden obtenerse por fermentación alcohólica y anaeróbica de materia orgánica sacarida y celulósica y por la conversión química de AG presentes en cultivos oleaginosos y grasas animales, así como residuales de aceites comestibles, respectivamente. Sin embargo, resulta un proceso poco sostenible debido a la alta competencia alimenticia y el uso de suelos aptos para agricultura. Por esta razón, las microalgas son materia prima de alto interés para la producción de biodiesel dada su capacidad de asimilación de CO2, alta acumulación de AG, cultivos en terrenos no agrícolas, menor consumo de agua, alta tasa de producción de biomasa en pocos días de crecimiento celular en agua salobre.
México como Colombia al igual que muchos países latinoamericanos son exportadores de petróleo, pero sus reservas probadas cada vez disminuyen. Por ello es necesario el estudio del potencial de la biomasa regional para la producción de bioetanol y biogás y al mismo tiempo la implantación de cultivos algales outdoor para producción de biodiesel cuidando la legislación y la sostenibilidad. Son muchos los retos que se tienen como el estudio de especies algales con alto contenido lipídico bajo metodologías implementadas y la adaptación a condiciones climáticas.
METODOLOGÍA
La primera parte consistió en una revisión científica literaria relacionada con el objetivo del proyecto. La segunda parte se centró en la obtención experimental de bioetanol a partir de pulpa y cascara residual de plátano y pulpa residual de mango. La obtención experimental del perfil de AG algal y el estudio de su potencial para la producción de biodiesel se llevó a cabo mediante análisis y discusión de investigaciones previas realizadas en el Laboratorio de Bioenergía del Programa de Estudios de Ingeniería en Energía de la Universidad Politécnica de Sinaloa (UPSIN).
La primera parte permitió establecer para el caso del bioetanol que la biomasa debe cumplir con altos rendimientos o presencia de compuestos sacáridos, siendo la fermentación alcohólica la tecnología más eficaz al emplear Saccharomyces cerevisiae dando buenos resultados de conversión a alcohol, el cual para fines energéticos debe ser purificado mediante destilación fraccionada y membranas que eliminen el contenido de agua en un porcentaje mayor a 96%, alcanzándose en la mayoría de los casos 99.9% de pureza. El caso experimental de producción estuvo basado en agregar levadura a biomasa previamente triturada y diluida en agua potable. Se usaron como reactores envases de plástico de 2 lt cerrados herméticamente para llevar a cabo la fermentación alcohólica anaerobia en un tiempo estimado de 5 días y en cuyo caso se apreció cualitativamente la acción del microorganismo sobre la digestión de la biomasa, la producción de CO2 como gas principal de la reacción bioquímica ocurrida y la producción de etanol una vez filtrada la muestra cuyo color y olor presento variación según el residual usado.
Para el caso de producción de biodiesel la técnica de conversión de AG contenidos en los lípidos únicamente es la transesterificación química catalizada por ácidos, álcalis o enzimas. El caso experimental estuvo basado en las microalgas Dunaliella tertiolecta y Nannochloropsis oculata las cuales presentaron crecimiento celular en 21-24 días respectivamente. Para la obtención de la biomasa se usó un agente floculante, siendo NaOH 1 M el que alcanzo en 99.9% de dicha recuperación, luego se aplicó liofilización para una biomasa completamente deshidratada color verde y olor a producto marino. Paso siguiente fue la extracción de lípidos empleando una mezcla de solvente y mediante la técnica de sonicación y soxhlet, finalmente se caracterizó por cromatografía de gases obteniendo un perfil lipídico para Dunaliella tertiolecta compuesto por AG saturados, monoinsaturados y polinsaturados tales como ácido palmítico, ácido mirístico, ácido linoleico y ácido linolenico clásicos y favorables para la producción de biodiesel, con rendimientos aceptables comparables con reportes científicos publicados.
CONCLUSIONES
Se lograron los conocimientos teóricos para producción de bioetanol y biodiesel como combustibles alternos que factiblemente pueden obtenerse tanto en México como en Colombia. De ello se deriva que: la biomasa óptima para producción de etanol de residuos agrícolas es aquella que contenga un alto contenido de sacáridos, utilizando pulpa, cáscara y/o hueso. En este proyecto de forma experimental los cambios bioquímicos se observaron en ese lapso, pero se dejó en un máximo de 5 días para una mejor observación. Para biodiesel es ideal que las microalgas sean oleaginosas y crezcan en aguas salobres como Dunaliella tertiolecta y Nannochloropsis oculata. En lo experimental se obtuvo un % acorde de AG saturados e insaturados con potencial para transesterificación por catálisis básica (NaOH). También se derivó que: un factor fundamental para elegir la biomasa es cumplir con la reglamentación vigente en el país correspondiente y garantizar que su uso no comprometa la producción alimentaria. A pesar de que existe mucha biomasa residual, es necesario hacer una caracterización fisicoquímica que avale el contenido de sacáridos, grasas y proteínas para garantizar la producción. Las condiciones de trabajo para los procesos bioquímicos que realizan los microorganismos son fundamentales, prioritariamente temperatura y nutrientes. Los procesos de refinación son importantes ya que estos combustibles vendrán acompañados de productos como agua y glicerol.
Charris Jiménez Loraine Isabel, Universidad de la Costa
Asesor:Mtra. Haidie Lissette Hervert Zamora, Universidad Politécnica de Texcoco
IDENTIFICACIÓN DE RIESGOS EN LAS CADENAS DE SUMINISTRO A PARTIR DE CAMBIOS EN LOS PATRONES DE CONSUMO
IDENTIFICACIÓN DE RIESGOS EN LAS CADENAS DE SUMINISTRO A PARTIR DE CAMBIOS EN LOS PATRONES DE CONSUMO
Charris Jiménez Loraine Isabel, Universidad de la Costa. Asesor: Mtra. Haidie Lissette Hervert Zamora, Universidad Politécnica de Texcoco
PLANTEAMIENTO DEL PROBLEMA
El principal detonante de toda cadena de suministro es la demanda de los clientes, hoy en día es un desafío para las organizaciones no solo definir correctamente esta demanda, si no también mantener esa sincronización en todos los eslabones de la cadena de tal manera que se garantice el abasto y la satisfacción del cliente. Esta dificultad ha sido impulsada por los acelerados cambios en los patrones de consumo derivados principalmente de la emergencia sanitaria que se vive.
La logística se ve hoy frente a grandes desafíos: mayores exigencias en el nivel de servicio de entrega a sucursales y a clientes directos, la disminución del tamaño de los pedidos (menor drop-size), y el aumento de la frecuencia de entrega, lo que resulta en aumento en la complejidad operativa.
Por lo que identificar, y evaluar estos patrones de compra permitirán a las organizaciones estar preparadas ante estos cambios, correlacionar estos cambios en posibles riesgos dentro de su cadena de suministros e implementar las estrategias y/o herramientas que se necesiten para hacer frente a estos desafíos.
METODOLOGÍA
Primeramente, se realizó una revisión bibliográfica sobre los principales riesgos en una cadena de suministros que existen en la literatura, con el objetivo de identificarlos, posteriormente relacionarlos con los cambios en los hábitos de consumo de la población que nos arrojara el diagnóstico.
Para la aplicación de una encuesta que nos permitiera identificar los cambios en los patrones de compra, se diseñó un esquema de muestreo no probabilístico debido a que se tiene poco tiempo para la toma de muestras, por lo tanto, sería complicado seguir un marco de muestreo definido, además de ser un método menos estricto que permitirá realizar una primera investigación exploratoria de estos patrones de compra.
Muestreo virtual online
El avance de las tecnologías de la información es concomitante a la rápida penetración de Internet, a la digitalización de la sociedad, y con esta al uso de técnicas online en la fase de recolección de datos que nos permiten alcanzar a la mayoría de la población (cuestionarios online, entrevistas mediadas por internet, grabaciones y filmaciones en técnicas de observación participante).
Redes sociales
Son herramientas de comunicación que tiene como base la Web, se organizan a partir de perfiles personales o generalistas o profesionales de los usuarios y tienen como objetivo conectar secuencialmente a los propietarios de estos perfiles. El cuestionario se difundió por medio de la aplicación whatsapp a grupos de personas adultas mayores de 20 años, de distintos niveles socioeconómicos, nivel de estudios, y profesión del Estado de México, y Barranquilla Colombia. Se utilizó la técnica de muestreo no probabilístico Bola de nieve, seleccionando a un grupo inicial de personas para la muestra, estas a su vez proporcionaron el nombre de un tercero y así sucesivamente, en total se obtuvo una muestra de 54 individuos.
La ventaja de este tipo de muestreo es que nos permite identificar participantes clave que se agregan a la muestra y ofrecen información más fiable. Sin embargo, en términos generales, es mucho más difícil ejercer un control de la muestra en encuestas online por el problema de la no respuesta, o de la autoselección o la exclusión automática de aquellos sin acceso a Internet, lo cual agrega un ligero sesgo a la información sin embargo para ser un estudio exploratorio inicial la información obtenida es bastante relevante y útil.
CONCLUSIONES
El desempeño óptimo de las cadenas de suministro permite un crecimiento económico del país, un mayor flujo de mercancías, dinero y negociaciones a diferentes niveles. Sin embargo, las interrupciones en estos flujos provocan pérdidas de dinero, tiempo y recursos, como se observó en el presente trabajo. La emergencia sanitaria que actualmente se vive en el mundo por el virus SAR COV2 ha originado cambios en los patrones de compra, derivando así en interrupciones y/o fluctuaciones en las principales etapas de las cadenas de suministros. Los tiempos de entrega (lead time) comercial del proveedor al fabricante y los tiempos de entrega al cliente final, así como la calidad de los productos fueron los principales riesgos en las cadenas de suministro relacionados con los cambios de patrones de compra.
Chávez Juárez Frida Sophia, Instituto Politécnico Nacional
Asesor:Dr. Angel Israel Soto Marrufo, Universidad Autónoma de Ciudad Juárez
MODELADO Y CONTROL DE SISTEMAS MECATRóNICOS: MOTOR DE CD COMO CASO DE ESTUDIO.
MODELADO Y CONTROL DE SISTEMAS MECATRóNICOS: MOTOR DE CD COMO CASO DE ESTUDIO.
Chávez Juárez Frida Sophia, Instituto Politécnico Nacional. Asesor: Dr. Angel Israel Soto Marrufo, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La mecatrónica es una de las ramas de la tecnología más importantes debido a sus múltiples aplicaciones que tienen repercusiones en nuestra vida diaria, la investigación del modelo y control de sistemas mecatrónicos nos permite indagar en amplias categorías, tales como:
Robots móviles con ruedas.
Manipuladores seriales o paralelos.
Parametrización de motores eléctricos.
Estas categorías regularmente usan sistemas de retroalimentación o sistemas de control de realimentación, los cuales al momento de realizar prácticas experimentales suelen presentar un gran tiempo de respuesta y un gran margen de error de salida en estado estacionario. Un controlador PID analógico en el que se puedan experimentar prácticas podría reducir el tiempo de espera y el margen de error presentado, así como calcular el valor del error presentado.
Se espera utilizar un controlador PID analógico y sus propiedades para realizar un control de velocidad de un motor de corriente directa.
METODOLOGÍA
En primera estancia se estudió el funcionamiento de los amplificadores operacionales, así como sus configuraciones de estas mismas; también se estudió la respuesta al escalón unitario en lazo abierto de un motor de CD, etapa de potencia para un motor de CD. Después se investigó y analizó a profundidad el funcionamiento de un controlador PID analógico, el cual incluía la etapa proporcional, etapa integradora, etapa sumadora, modelación de una planta y sistemas de control.
Al tener toda la información analizada se prosiguió a plantear los pasos para la elaboración de un control de velocidad de un motor de CD con un controlador PID analógico, los cuales son los siguientes:
Medir la Velocidad del motor y a partir de ahí obtener una FDT (función de transferencia).
A partir de la FDT diseñar un controlador PID análogo.
Etapa de potencia para el PID, con un PWM (modulación de ancho de pulso) y transistor.
Para desarrollar el primer paso se usó Proteus para realizar las simulaciones se diseñó un convertido de frecuencia a voltaje; mediante un motor encoder que genera pulsos de frecuencia variable basada en la velocidad del motor de CD, la salida del motor alimenta al LM2907-8 (conversor de frecuencia a voltaje) el cual genera una salida en Volts. Al tener esto y observando la curva de carga de Volts se calculó la función de transferencia en función del tiempo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos sobre el funcionamiento de un controlador PID y se pusieron en práctica mediante el diseño del controlador de velocidad de motor de CD, al momento no se han presentado resultados ya que el diseño del controlador sigue en su realización y en pruebas. Se espera terminar el controlador para poder obtener resultados y empezar a hacer prácticas con el mismo para poder documentar y analizar los resultados.
Chávez Luna Katia Marlen, Instituto Tecnológico Superior de Los Reyes
Asesor:Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
Chávez Luna Katia Marlen, Instituto Tecnológico Superior de Los Reyes. Conejo Patiño Karen Lizbet, Instituto Tecnológico Superior de Huetamo. González Mondragón Yaxkin Alejandro, Universidad de Guadalajara. Victoriano Rocha María Isabel, Universidad Veracruzana. Asesor: Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
PLANTEAMIENTO DEL PROBLEMA
El caso que se analiza corresponde a la empresa Confecciones Sara S. A. S." ubicada en la ciudad de Medellín, Colombia, la cual ofrece ropa interior femenina y masculina. Esta empresa no manejaba óptimamente el control de sus pronósticos de ventas debido a una deficiente planeación en sus operaciones y falta de comunicación entre el Área de Gestión Ventas directas y el Área de Gestión de Producción (Directora Comercial y Director de operaciones); sumando a esto, tenía una errónea gestión de inventarios, ya que en repetidas ocasiones se reflejaban excedentes o faltantes de materias primas, para lo cual se busca la integración del área de logística y producción. Si se logra resolver la problemática antes descrita se tendrá un eficiente control tanto en inventarios como en producción, lo cual se verá reflejado en un incremento en las ganancias, teniendo un mejor posicionamiento ante la fidelidad de los clientes.
METODOLOGÍA
Se utilizaron diferentes métodos para la resolución de las problemáticas, uno de ellos fue crear el diagrama de Ishikawa en el que de manera gráfica se pudo observar las principales causas y efectos que tenía la empresa en la gestión inadecuada de los inventarios, flujo de información, proveedores y tecnologías.
Más tarde se elaboraron los pronósticos de los diferentes productos que maneja la industria para el año 2015, los cuales se elaboraron en Minitab y fueron diferentes métodos para cada producto, en el Baby Doll, Brasier, estraple y panty se utilizó el de descomposición, en la brasilera fue el método Winters y en el cachetero fue el promedio móvil. Optamos por estos métodos ya que al analizar la demanda por medio de las diferentes gráficas y utilizar todos los métodos de pronóstico para los productos, se determinó que se trabajaría con el menor porcentaje de error y como se mencionó anteriormente, esos fueron los mejores resultados para los pronósticos del año 2015. Teniendo los pronósticos, se realizó el plan maestro de producción, en donde se planeó cuantos lotes producir por semana para satisfacer la demanda con y sin subcontratación, esta producción varia durante los meses del año dependiendo las ventas del producto.
Posteriormente, para el manejo de los inventarios se tomó en cuenta la demanda anual de cada materia prima, para la formulación de una correcta política de abastecimiento que permitiera contener la menor cantidad de inventarios en almacén. Además, con la información proveída previamente en el caso y obtenida en pasos anteriores, se hizo el cálculo del stock de seguridad con ayuda del plazo de entrega de los productos, la desviación estándar, la demanda y la tasa de servicio que se planea prestar. De esta manera se tiene seguridad ante retrasos y se evita la pérdida de ventas y el ahorro de tiempos.
Con referente a la estructura organizacional, se plantearon varios cambios en relación al organigrama original:
Supresión del Departamento de Gestión Comercial y gerencial. Esto a raíz de que ya se cuentan con dos departamentos que llevan a cabo actividades de gestión comercial, por lo que las acciones de éste departamento pueden ser absorbidas por los últimos mencionados. La gestión gerencial puede ser manejada por medio de otra herramienta de control.
Incorporación del Área de Ventas Directas y Compras al departamento de Gestión Comercial Ventas Directas. El cambio surge al encontrarse dicha área sin depender claramente de ningún departamento.
Reestructuración del Departamento de Gestión de la Producción. Ante la falta de comunicación en las áreas, que ocasiona descoordinación logística, se reestructuró el departamento subviniéndolo en dos áreas, la de producción y la de logística. En el área de Logística se agrupan los despachos, el área de compras y el de producto terminado, mientras que en Producción se asignan el resto de las áreas enfocadas únicamente en la realización del producto.
CONCLUSIONES
Como resultado de la investigación, se puede concluir que, al aplicar las herramientas de ingeniería industrial a los problemas que se presentan en el caso Confecciones Sara S.A.S., se obtuvo la propuesta de mejoramiento de la producción en cuanto a la demanda, control de sus inventarios, y una mejor estructura organizacional.
En cuanto a la planificación de la demanda se debe realizar un proceso riguroso ya que la demanda de los modelos tiene un alto índice de rotación por los cambios de moda, una vez pronosticado, se obtuvo que para baby doll durante todo el año se hará 1 lote por semana de 300 pzas, para brasier se recomienda sub contratación para la producción de 2, 3 y 4 lotes diarios de 800 pzas, esta producción varía de acuerdo a la estacionalidad, para estraple, brasilera y cachetero se pretende 1 lote diario de 300 pzas. De igual manera, para llevar a cabo una mejor administración de los inventarios se plantearon pronósticos de ventas para el año 2015, los cuales resultaron de la siguiente manera: Baby doll un total de 8,987 pzas al año, brasier 510,117 pzas, y panty 146,897 pzas, para el cachetero 6,489 pzas y por último la brasilera con 47,688 pzas al año. Se recomendaron también políticas de inventarios que garanticen un índice aceptable de productividad.
Finalmente, se identificó que se requiere un modelo colaborativo en la cadena de suministro del caso Confecciones Sara tanto como en el área gestión de ventas directas como el área de gestión de la producción.
Chavez Mejia Jennifer Gissel, Instituto Tecnológico de Sonora
Asesor:Dra. Claudia Elena Durango Vanegas, Universidad de San Buenaventura
PROPUESTA DE UN MéTODO DE INTEGRACIóN DE SCRUM Y CRISP-DM PARA EL DESARROLLO DE PROYECTOS DE MINERíA DE DATOS REPRESENTADO EN EL NúCLEO DE LA ESENCIA DE SEMAT
PROPUESTA DE UN MéTODO DE INTEGRACIóN DE SCRUM Y CRISP-DM PARA EL DESARROLLO DE PROYECTOS DE MINERíA DE DATOS REPRESENTADO EN EL NúCLEO DE LA ESENCIA DE SEMAT
Chavez Mejia Jennifer Gissel, Instituto Tecnológico de Sonora. Asesor: Dra. Claudia Elena Durango Vanegas, Universidad de San Buenaventura
PLANTEAMIENTO DEL PROBLEMA
La minería de datos se ha convertido en una de las principales alternativas para la toma de decisiones y la solución de problemas en múltiples sectores, esto ha provocado que el campo laboral sea mucho más demandado y que muchos profesionales amplíen sus capacidades y conocimientos para ocupar roles de científicos de datos.
Cuando se trata de minería de datos, al igual que en otros campos, los profesionales necesitan de un marco de referencia que sirva como estrategia para llegar al objetivo o solución del problema. Afortunadamente, existen muchas metodologías para minería de datos, una de estas es Crisp-dm que actualmente es una de las más utilizadas debido a que está más completa porque tiene en cuenta la aplicación al entorno de negocio de los resultados.
Muchas veces se piensa que el simple hecho de utilizar una metodología garantiza que el proyecto será todo un éxito, pero realmente no es así. En muchas ocasiones las soluciones planteadas no resuelven de manera adecuada el problema inicial, porque en muchos casos el fallo de una solución basada en minería de datos no se debe a requisitos técnicos imprecisos o recursos disponibles escasos. El problema suele estar asociado a las malas prácticas implementadas o a la falta de actividades y productos de trabajo en la metodología.
Por otro lado, Scrum es la metodología para desarrollo de software más utilizada en la actualidad, esto se debe a que fomenta el trabajo en equipo lo que hace que se ahorre tiempo y dinero, además de que se adapta a la empresa y es de fácil manejo.
En esta investigación se requiere identificar cuáles son los problemas que presentan los proyectos de minería de datos e identificar qué hace falta en ambas metodologías, para finalmente proponer una nueva metodología integrada en la cual se identifican las buenas prácticas de ambas.
METODOLOGÍA
Comprender las funcionalidades y elementos de las metodologías Scrum y Crisp-DM.
Identificar los principales elementos de las metodologías, buscando reconocer las buenas prácticas de éstas.
Construir una posible solución de los elementos o buenas prácticas que se deben considerar para construir proyectos de minería de datos, involucrando las dos metodologías identificadas
Aplicar los conocimientos de la representación en el núcleo de la Esencia de Semat para mejorar la comprensión de las buenas prácticas
Aplicar el método Scrum-Crisp-Dm con datos de México para comprender el uso de estas prácticas
CONCLUSIONES
Principales resultados finales o de avance:
1. Se identificaron los elementos de la metodología Scrum
2. Se identificaron los elementos de la metodología Crisp-DM
3. Se construyó la relación de las dos metodologías identificadas y se buscó mejorar las buenas prácticas para la generación de proyectos de minería de datos.
4. Se identificaron los elementos de Semat y se reconoció la aplicación de éstos en su representación.
En esta investigación he aprendido mucho, realmente la minería de datos es un tema en el que no había profundizado como lo hice durante este verano de investigación, creo que esta propuesta puede llegar a reducir las problemáticas que presentan los diferentes proyectos de minería de datos, debido a que se propone utilizar lo mejor de las metodologías más utilizadas en la ciencia de datos e ingeniería de software.
Por último me gustaría terminar con un ejemplo para dejar ver la importancia de la minería de datos porque probablemente muchos piensan que la minería de datos no es muy importante o que es poco utilizada, pero un pequeño ejemplo puede ser con el covid-19, en México se transmite el programa denominado las mañaneras, en este programa todos los días se presentan los casos de covid-19, el subsecretario de salud informa todo lo que se sabe sobre los contagios, en que fechas va a haber más o menos contagios, que estado es el más o menos contagiado, etc. Muchos dicen que esta información es falsa, porque no saben cómo el subsecretario puede obtener dicha información desde mucho tiempo antes, lo cierto es que los casos aumentan o disminuyen en la fecha que el subsecretario lo dice, esto se sabe debido al uso de la minería de datos, pues con toda la información de los casos de covid-19 que se juntan en toda la república mexicana, se puede predecir qué es lo que va a suceder.
Chavez Neris Jose Angel, Universidad Autónoma de Sinaloa
Asesor:Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional
METODOLOGíA DE BúSQUEDA SISTEMáTICA USANDO MAPAS DE GRAFOS PARA VISUALIZAR RESULTADOS
METODOLOGíA DE BúSQUEDA SISTEMáTICA USANDO MAPAS DE GRAFOS PARA VISUALIZAR RESULTADOS
Chavez Neris Jose Angel, Universidad Autónoma de Sinaloa. Asesor: Dra. Laura Ivoone Garay Jiménez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El dolor es una condición que puede llegar a afectar a cualquier persona en diferentes aspectos, desde el ámbito físico hasta ocasionar enfermedades de carácter psicológico. Hasta el momento, no es posible encontrar un dispositivo que proporcione medidas cuantitativas de dolor, pero si es posible encontrar estudios donde se recurre a distintos métodos en los que se registran las señales biológicas del cuerpo humano para identificar la respuesta de este ante el dolor. Los principales métodos que se suelen utilizar para el registro de estas señales suelen ser dispositivos de electroencefalografía, los cuales permiten obtener información sobre la reacción del cerebro ante estímulos dolorosos, pero estos dispositivos suelen estar limitados a que el paciente permanezca en un área limitada donde se le pueda estudiar por lo que el propósito de este trabajo de investigación es el de determinar el estado del arte del estudio cuantitativo del dolor usando otras variables y ver si hay suficiente evidencia de la correlación con electroencefalografía.
En la última década, se ha hablado mucho sobre los dispositivos de registro de señales biológicas no invasivos conocidos como wearables, los cuales comienzan a ser una alternativa prometedora a los métodos tradicionales, por ejemplo, para la encefalografía. Estos dispositivos permiten tanto registrar las señales biológicas del paciente por periodos específicos de tiempo de estudio o de igual manera, registrar el comportamiento de estas señales en la vida cotidiana del paciente, que con un procesamiento adecuado de los datos recopilados por el dispositivo mediante algoritmos de ciencia de datos permitiría predecir condiciones atípicas en las que el paciente pueda tener repercusiones, ya sea mediante la medición de su ritmo cardiaco, la actividad electrodérmica o la temperatura que presente el paciente. Estos dispositivos abren la puerta a muchas posibilidades y en este trabajo de investigación se busca identificar el estado del arte de la medición cuantitativa del dolor mediante wearables y su relación con tecnologías tradicionales comparables a estos. También se buscan áreas de oportunidad que se deriven del estudio del dolor mediante nuevas tecnologías.
METODOLOGÍA
Para la recopilación de referencias bibliográficas se recurrió a la base de datos de PubMed. Para delimitar las palabras clave de las cuales se realizaría la búsqueda se planteó el uso de la estrategia de búsqueda PICO, se prefirió al uso del modelo PRISMA debido a que en el modelo PICO se plantea una secuencia de preguntas de la que se parte para plantear una estrategia de búsqueda. Finalmente, se definieron las palabras clave y su relación: pain measurement, wearables, electroencephalography y electrodermal activity. La estrategia de búsqueda fue la siguiente: (pain measurement) AND ((electroencephalography) AND (electrodermal activity) OR (wearables)). Esta búsqueda arrojó 98 resultados en la base de datos de PubMed, los cuales se encontraban en un intervalo de años de 2004 a 2021.
Una vez, que se obtuvo la base de datos relacionada, se usó el programa Vos Viewer para hacer un análisis visual utilizando una estrategia basada en grafos. Se descartaron las palabras treatment, invasive, surgery y cronique. En VOSviewer, se generó el mapa para análisis con la siguiente configuración: tipo de análisis por co-ocurrencia, como unidad de análisis se seleccionaron todas las palabras clave, como método de conteo se seleccionó full counting, como número mínimo de apariciones por palabra clave se configuro a 1 mínimo, como numero de palabras a seleccionar se dejó la cantidad que aparece por defecto. Para la cuestión de filtrado de palabras clave como paso previo para la creación del mapa, se descartaron las palabras que fueran datos demográficos. Por ejemplo: adult, male, female, infant, adolescent, entre otras.
El mapa final basado en grafos y sus aristas permitió identificar 26 grupos, con tres componentes de mayor relevancia asociados a la medición del dolor, fenómenos biomecánicos y dispositivos electrónicos wearables, en los países de Australia y Francia.
CONCLUSIONES
Durante la estancia del verano científico se abordó principalmente el manejo de bases de datos de referencias bibliográficas. Partiendo de la relevancia en la generación de nuevo conocimiento de saber buscar, se conocieron metodologías para plantear una estrategia de búsqueda sistemática que delimite nuestra investigación, considerando que ahora la información se genera muy rápidamente y sobrepasa la capacidad de manejo de tanta información. Para finalmente concretar el estado del arte del estudio cuantitativo del dolor mediante el uso de wearables.
Chavez Reynoso Paola Zayuri, Instituto Tecnológico de Lázaro Cárdenas
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO
Chavez Reynoso Paola Zayuri, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es el método físico de separación para la caracterización de mezclas complejas, tiene aplicación en todas las ramas de la ciencia, basado en un conjunto de técnicas de retención selectiva y tiene como objetivo determinar toda aquella sustancia o información sobre lo que está presente en la mezcla.
Es un método sencillo, rápido y no requiere aparatos complicados, abarca escalas microanaliticas hasta escalas industriales. Es una técnica poco destructiva que puede aplicarse a sustancias lábiles que tienen facilidad de transformarse en otras más estables.
Es la técnica más utilizada en los últimos años empleada en distintos métodos de sectores bioquímicos, industriales, de alimentos y contaminación ambiental.
Las aplicaciones que tiene son indispensables en cada uno de los sectores, ayuda en la determinación de análisis cualitativo y cuantitativo en las áreas como farmacéutica, conocer la pureza y la estabilidad de las sustancias básicas en los medicamentos y análisis clínicos en muestras de sangre, orina, saliva; industria alimenticia, en la caracterización de aromatizantes, colorantes y proteínas de acuerdo a parámetros previamente establecidos por expertos; a nivel industrial usada en el sector productivo para determinar la calidad de las materias primas o productos terminados; área Ambiental, para la definición de contaminantes presentes en suelos y agua.
Con el desarrollo de las tecnologías cromatografías se modificaron y mejoraron para una mejor aplicación en resolver mezclas de distinta naturaleza.
METODOLOGÍA
Las técnicas de la cromatografía se clasifican por su naturaleza de sus fases y estado físico, como cromatografía en líquidos donde su fase móvil es un líquido, la cual puede trabajarse en columna como en plano y la cromatografía de gases en esta técnica la fase móvil es un gas y se lleva siempre en columna.
También por el proceso químico-físico de separación, tales como la cromatografía de adsorción donde el soluto se adsorbe en la superficie solida de la fase estacionaria; cromatografía de reparto, se utilizan fases estacionarias polares y fases móviles apolares donde interaccionan los grupos polares de los analitos con los polares de la superficie de relleno; cromatografía de intercambio iónico, en este método se permite la separación de moléculas polares, debido a sus cargas eléctricas atraídos a la fase estacionaria por fuerzas electrostáticas; cromatografía de exclusión: cuando la separación se basa en el tamaño de la molécula o forma en su carga; y cromatografía por afinidad, que utiliza la alta especificidad de las reacciones biológicas del tipo ligado- receptor, por ello un ligado de afinidad se une al soporte de la fase estacionaria.
Con base al soporte en el que se establece la fase estacionaria, se clarifican en cromatografía de columna y plana, la primera es la más utilizada debido a la precisión y afinidad, es un técnica de lavado donde la separación se consigue a través de una columna, haciendo que sus componentes de la mezcla se emerjan en tiempos diferentes pudiendo obtener una buena separación de la mezcla. Con equipos eficaces, con el uso de bombas, las cuales ayudan a la precisión y transporte adecuado de los disolventes de la fase móvil, inyectores que introducen cantidad adecuada de muestra en la columna para evitar ensanchamientos de banda, es importante tener en cuenta las condiciones de las conexiones deberán ser de un diámetro y longitud pequeño, consiguiendo con ello la reducción de volúmenes muertos. La fase estacionaria es el sólido adsorbente que se encuentra dentro de la columna, la cual los analitos interaccionaran. Para conocer qué tipo de fase estacionaria será la adecuada es necesario conocer que soluto estas utilizando. La separación dependerá de los equilibrios de adsorción y desorción de los componentes de la mezcla que existirá entre la fase estacionaria (solido) y la fase móvil (líquido o gaseoso).
La detección cromatografía se realiza continuamente y es posible la utilización de colectores de fracciones para la identificación y cuantificación del eluyente. La separación de los analitos se realiza dentro de la columna, mientras que se utiliza un detector para observar la separación obtenida, el detector arroja los compuestos que se encontraron en la muestra de forma cromatograma, los picos de cada muestra deberán estar bien definidos para que el detector pueda encontrar una selectividad entre ellos. Los picos entre más número de platos tenga, menor será la anchura de la banda y se podrá obtener una mejor claridad de los compuestos detectados.
CONCLUSIONES
De acuerdo a los hechos recatados en la historia y clasificación de la cromatografía se adquirieron los conocimientos fundamentales para comprender y distinguir adecuadamente cada uno de los métodos y técnicas cromatograficas. Entender el funcionamiento por el cual se lleva a cabo la detección del analito (muestra), como el resaltar las partes que compone un equipo cromatografico y los parámetros importantes a señalar para la validación de una buena técnica y un adecuado análisis de la muestra.
Se examinaron referencias y bibliografías respecto a la determinación de antisépticos por cromatografía de gas con espectrometría de masas, siendo la técnica más utilizada para muestras líquidas, con el fin de conocer exhaustivamente la problemática que adquiere y las causas que provocan estos contaminantes emergentes en las aguas residuales, ya que se encuentran en una amplia gama de productos de higiene personal, como en pastas dentales, jabones, geles anti-bacteriales, desodorantes, etc.
Chavez Vega Fatima del Rosario, Universidad Autónoma de Tamaulipas
Asesor:Dr. Ricardo Tobias Jaramillo, Universidad Autónoma de Tamaulipas
COMPARACIóN DE LAS NORMAS MEXICANAS Y LAS NORMAS INTERNACIONALES PARA EL
USO DE MATERIALES EN LA CONSTRUCCIóN ESPECíFICAMENTE EN EL CONCRETO
COMPARACIóN DE LAS NORMAS MEXICANAS Y LAS NORMAS INTERNACIONALES PARA EL
USO DE MATERIALES EN LA CONSTRUCCIóN ESPECíFICAMENTE EN EL CONCRETO
Chavez Vega Fatima del Rosario, Universidad Autónoma de Tamaulipas. Asesor: Dr. Ricardo Tobias Jaramillo, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Actualmente es apreciable el uso continuo de normas, que ayudan en la búsqueda de que los productos que se consumen diariamente sean elaborados de calidad, opuesto a la industrialización genérica de los importados que no poseen completamente las cualidades requeridas. Los productos que se realizan respetando las normas son beneficiados al recibir la aceptación de los interesados en materiales resistentes que cumplen con las pautas de las organizaciones normativas. En Latinoamérica el principal elemento empleado en la construcción es el concreto, que es elaborado bajo estándares y materiales similares, aplicados para satisfacer los requerimientos de las normas señaladas en el respectivo lugar en el que se aplicara dicha técnica constructiva. Mediante el estudio y comparación de estas normas se puede buscar mejorar los procesos y materiales aplicables para perfeccionar el producto. En el México actual, a su vez, son pocos los jóvenes que se interesan y que reciben sustento para la investigación científica y tecnológica, siendo la problemática que origina que la juventud desista en la búsqueda de crecimiento y proyección profesional mediante el estudio analítico.
METODOLOGÍA
Para el desarrollo de la investigación se partió del método de recolección de datos mediante sesiones virtuales junto al asesor investigador y el análisis de documentos y registros científicos y públicos. Utilizando posteriormente un análisis crítico estableciendo el juicio de comparación ante el uso de las normas nacionales e internacionales para el uso de materiales de construcción y específicamente en el concreto. El concreto es el segundo material más consumido mundialmente, para poner escalar dicha magnitud se compara con el agua, que es el más usado, justo por encima del anterior, por lo tanto, es necesario buscar soluciones, tanto amigables ambientalmente como viables de procesar a niveles industriales. Buscando siempre mejorar el desempeño que el concreto representa en la construcción y hagan su proceso más eficiente, económico y sustentable. Continuando con la investigación se llegaron a ciertas normas mexicanas que establecen la jerarquía por debajo de las normas internacionales, citando que Las normas ASTM International tienen la misma validez, aplicación y fuerza legal que una norma ISO para la autoridad mexicana, pues en esencia no se trata de una jerarquización entre normas de una organización gubernamental y una que no lo es, ya que no existe subordinación entre una y otra norma. Y enfocando el rumbo de la investigación inicialmente en dos normas mexicanas, la N-CMT-2-02-002/19 y la N-CMT-2-02-005/04 que corresponden a la calidad del concreto hidráulico y de los agregados de este mismo. Existiendo en estas normativas dos tipos de concreto que difiere solamente en proporciones volumétricas, obteniendo la misma resistencia en ambos casos, agregando las siguientes normas no menos importantes N-CMT-2-02-001 sobre calidad del cemento portland, N-CMT-2-02-003 sobre calidad del agua para concreto hidráulico, N-CMT-2-02-004 sobre calidad de aditivos químicos para concreto hidráulico, MMMP-2-02-055 sobre muestreo de concreto hidráulico, por mencionar las principales aplicables. Llegando a la primer recapitulación que nos dice que los materiales usados al elaborar el concreto para poder cumplir con los requisitos de las normas mencionadas y sea aceptado como material de calidad deben pasar previamente por el muestreo de agregados pétreos que marca la M-MMP-2-02-019, realizándose las pruebas pertinentes cada 100 metros cúbicos producidos de material, garantizando que todos los lotes mantengan la misma calidad granulométrica y cada 1000 metros cúbicos las necesarias para asegurar se cumplan los valores de agregados que establece la norma. Realizando también pruebas durante su elaboración como lo son: • prueba de masa volumétrica kg/m3 • prueba de cantidad de agregados gruesos retenidos por la malla #4(4,75mm), porcentaje de la masa de la muestra • prueba de promedio de la resistencia a la compresión a 7 días de edad de cada muestra, basado en la resistencia promedio de todos los especímenes de prueba, % Una vez que se realizan las pruebas se efectúa el certificado de calidad por cada lote que garantiza el cumplimiento de los requisitos establecidos en las normas pertinentes en los libros de construcción y en los reglamentos en los que aplique y donde entran las normas internacionales que en este caso aplican a verificar el proceso de calidad al momento de realizar pruebas en los materiales y estos cumplan los estándares mundiales necesarios para efectuar el comercio del producto de manera internacional.
CONCLUSIONES
El objetivo principal de este acercamiento al asesor se determinó como aproximación a la investigación y análisis del proceso que requiere un material, que en este caso fuera el concreto, para recibir las certificaciones que avalen el mismo como adecuado para su comercialización y uso seguro y de calidad en los procesos de construcción. Durante la estancia de verano se adquirieron conocimientos y bases para la investigación teórica sobre la gestión integral de residuos sólidos urbanos y de construcción al igual que las normas nacionales e internacionales competentes de dicha línea de investigación, no obstante, al ser un tema extenso se utilizó este periodo veraniego como una introducción corta a lo que correspondería un estudio completo de mejora a los materiales de construcción desarrollados sustentablemente específicamente en el concreto. Siendo de importancia que los universitarios amplíen su conocimiento mayormente en la actualidad donde todo se dirige a favor de aspectos como la sustentabilidad.
Cinco Martínez Fernando André, Universidad de Guadalajara
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
Aguilera Rodríguez Edgar, Universidad de Guadalajara. Cinco Martínez Fernando André, Universidad de Guadalajara. Galiote Estrada Leslie Teresa, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
En el instituto Nacional de Lenguas Indígenas (INALI), realizó un Catálogo de Lenguas Indígenas Nacionales donde nos habla de las familias lingüísticas de México, el INALI por medio del catálogo presenta a 11 familias lingüísticas.
La lengua nahuatl es el idioma de los Mexicas y esta sirvió como vehículo de comunicación en la época anterior como la posterior, a partir de la llegada de españoles el nahuatl comienza a perder función y prestigio en los ámbitos religiosos y públicos.
Por ello la pérdida de las lenguas es lamentable, con la determinación de intentar revertir esta problemática el Instituto Tecnológico Superior de Huauchinango desarrolló un títere animatrónico, con la finalidad de que las comunidades del municipio de Huauchinango aprendan el lenguaje nahuatl haciendo a la población.
Pero una problemática que se presenta en con el animatrónico es el movimiento de la mandíbula, puesto que, al abrir y cerrar ya con la máscara, no se puede percibir el movimiento que se desea, y se busca un mecanismo mandibular que sea el más adecuado para que pueda hacer las gesticulaciones más humanas posibles.
METODOLOGÍA
Diseño 3D de Yugo Escocés
Primeramente, se diseñó el mecanismo de yugo escocés en 3D y se simuló su movimiento. Para este ensamble se diseñaron cuatro piezas: la pieza excéntrica, la corredora, los ejes y las guías. La pieza excéntrica, que es la pieza circular que realizará la rotación y en la construcción en físico estará adjunta a la flecha del motor. Esta cuenta con un eje en el centro su cara posterior que le permite girar, y un eje el cual la une con la corredora. Se colocaron dos guías, una de cada lado de la corredora, por donde pasan las extensiones de estas, referidos como seguidores. El resultado obtenido es el de un cambio de movimiento rotatorio a lineal, al simular la acción de un motor sobre la pieza excéntrica.
Movimiento de Traslación Mandibular
Para realizar este movimiento de traslación se utiliza un solo mecanismo de yugo escocés, pero con dos ligeras variantes. La primera radica en la ausencia de un segundo seguidor, pues solo es necesario el seguidor que generará la traslación de la mandíbula. En este seguidor, se agregó una extensión vertical que cuenta con una ranura, donde se inserta un pequeño eje sobresaliente de la mandíbula, ubicado justo en el centro de esta. Este eje cuenta con un cabezal que permite que la mandíbula se mueva tanto adelante como hacia atrás junto con la corredora. El propósito de esta ranura y el eje que puede moverse libremente a través de esta es otorgar a la mandíbula ángulos de libertad para desplazarse hacia arriba y hacia abajo, debido a que este sistema se combinará con el sistema de rotación. Si la mandíbula estuviese fija a la corredora, tanto la mandíbula como el mecanismo de yugo escocés se moverían como un solo sistema, haciendo que todo el peso de estos dos elementos tenga que ser soportado por los mecanismos de apertura y cierre mandibular. Para evitar esto, se planifica hacer una plataforma ubicada en el cuello, puesto que este no se moverá y por lo tanto no hay mecanismos que se coloquen en este espacio. En esta plataforma se colocarán las dos piezas fijas, como lo son el motor y la guía, y sobre estas se colocarán las demás piezas móviles que conforman este sistema.
Movimiento de Rotación Mandibular
Para recrear este movimiento se utilizaron dos yugos escoceses, uno de cada lado de la mandíbula respecto al plano sagital. Cada uno de estos mecanismos se mantiene anclado tanto al maxilar superior, como al inferior mediante un pivote. Adicionalmente, ambos mecanismos pasan a través de un balero lineal que funciona como guía para un movimiento vertical.
Sobre el maxilar inferior se colocaron ranuras, donde se insertan los pivotes de los yugos escoceses; estas ranuras permiten el movimiento de traslación mandibular, ya sea de manera independiente o un conjunto de ambos movimientos. Todo este mecanismo simula la función de los músculos de la masticación.
CONCLUSIONES
Durante la estancia del verano, se logró adquirir conocimientos teórico y prácticos del software SolidWorks, en el cual se llevó a cabo del diseño propuesto, pues gracias a su gran variedad de herramientas de edición nos permitió un gran rango de posibilidades de diseño. Con ello, el mecanismo pensado para el rostro animatrónico es el llamado yugo escocés, sin embargo, por el momento solo es una idea que aún no se ha probado y se espera en el futuro pueda ponerse a prueba para ver las fallas y complementar con nuevas ideas.
Cisneros Flores Ramses, Instituto Tecnológico de Tláhuac II
Asesor:M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán
EVALUACIóN DE INVENTARIO Y ESTIMACIóN DE PRONóSTICOS PARA UNA EMPRESA FARMACéUTICA.
EVALUACIóN DE INVENTARIO Y ESTIMACIóN DE PRONóSTICOS PARA UNA EMPRESA FARMACéUTICA.
Cisneros Flores Ramses, Instituto Tecnológico de Tláhuac II. Rebollar Fernández Gladys Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
Es bien sabido que un buen control de inventario acarrea a las empresas mejor organización, reducción de tiempo, elevación de los índices de productividad, manejo óptimo de los materiales, entre muchos otros beneficios que a fin de cuentas se ven reflejados en el incremento de las utilidades y en obtener la completa satisfacción del cliente.
La empresa farmacéutica en la que se desarrolla nuestro proyecto carece del control de inventarios, tan es así que no tiene noción de la capacidad de su almacén, no se tienen definidos lugares para cada materia prima, se desconoce el lead time de sus proveedores, no se tiene definido un método de compra y solo compran por costumbre, se carece de tecnología y hay exceso de pago de tiempo extra, ya que su responsabilidad termina hasta que se entrega pesado el medicamento a fabricar.
La hipótesis establecida para este proyecto es: con una política de inventarios se reducirán los costos de almacenaje.
METODOLOGÍA
Se realizó una base de datos con las materias primas (MP) en existencia y un conteo de las ubicaciones para conocer la capacidad de almacenaje. Se comenzó obteniendo promedios de los niveles de inventarios mensuales por producto para poder realizar pronósticos de consumo para cada uno, que serían utilizados como referencia para compras, para después aplicar técnicas de pronósticos y seleccionar la que contemplaba la menor incertidumbre a través de la Desviación Absoluta Media (MAD). Después se implementó una clasificación ABC, tomando como criterio la cantidad de MP surtida, lo que permitió realizar una redistribución del almacén para realizar el despacho en menor tiempo.
También se realizó una comparativa entre el tiempo extra que se estaba pagando contra los lotes de materia prima que se estaban pesando, para ello se utilizó la regresión lineal, con la que se obtuvo información que dejaba en claro que se estaban pagando muchas horas extra y se estaba pesando muy poco producto, por lo que no resultaba rentable continuar con la misma forma de trabajo.
Después nuestra atención se dirigió hacia el establecimiento de un método de compra y para esto se definió el EOQ para cada uno de los 54 productos, lo cual dio paso a calcular el número de tarimas que representaría esa cantidad de cada MP para poder realizar una propuesta de redistribución del almacén para eficientar los tiempos de pesaje, basada en el cambio de método de almacenamiento pasando aleatorio a una ubicación fija.
Dicha redistribución fue diseñada contemplando la NOM-059 de las buenas prácticas de fabricación de medicamentos.
CONCLUSIONES
El primer hallazgo de la investigación fue descubrir un exceso de capacidad de almacén y que, aunque a simple vista parecía lleno, realmente tenía un porcentaje de utilización del 61%, lo cual acarreaba altos e innecesarios costos de mantener.
Con la regresión lineal elaborada se pudo descubrir que la alternativa de pagar tiempo extra no era la más factible ya que no se estaba aprovechando el tiempo al máximo y por lo tanto no se veía reflejado un incremento en la producción. Con este análisis se logró justificar la reducción de horas extra que era una de las principales problemáticas.
Aplicando todos los análisis realizados se pudieron ver cambios significativos en el nivel de inventario que maneja ahora la empresa, comprobación de esto es que, en el primer producto de la clasificación A, se refleja una reducción del 88% del inventario. Teniendo esto un impacto gigantesco al minimizar los costos de mantener producto.
Se obtuvieron cifras de máximos y mínimos para el fututo control del inventario. Lo cual deja a la empresa encaminada a una gestión correcta del almacén.
Clemente Martínez Luis Alfredo, Universidad Veracruzana
Asesor:Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
IMPLEMENTACIóN Y MEJORA CONTINUA DE UN GRUPO DE ROVS ASOCIADOS A FUGAS MARíTIMAS MEDIANTE EL ALGORITMO DE OPTIMIZACIóN DE HORSE HERD
IMPLEMENTACIóN Y MEJORA CONTINUA DE UN GRUPO DE ROVS ASOCIADOS A FUGAS MARíTIMAS MEDIANTE EL ALGORITMO DE OPTIMIZACIóN DE HORSE HERD
Clemente Martínez Luis Alfredo, Universidad Veracruzana. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La implementación de los ROVs en la industria de extracción de hidrocarburos en la actualidad es muy escasa a pesar de que esto supondría un beneficio debido a que aumentaría la calidad con la que son controladas situaciones de riesgo y posibles siniestros que puedan ocasionarse en estas instalaciones submarinas (principalmente fugas en tuberías de crudo), habría un aumento en la seguridad con la que operan dichas instalaciones, sumado al hecho de que la sustitución de buzos para el control de estas situaciones por ROVs pilotados por personal capacitado supondría el mayor beneficio, evitar poner vidas humanas en riesgo.
La principal razón por la que los ROVs aún no son implementados en esta industria es debido a su funcionamiento y mecánicas de trabajo, pues la manera en la que un cluster de ROVs opera sigue siendo riesgosa debido a la diversidad de parámetros entre los miembros del cluster, por lo que se debe implementar un orden bajo el que actúen los ROVs en entornos como éste, evitando así caos, colisiones y siniestros de mayor nivel.
Para esta tarea, se busca aplicar el algoritmo bioinspirado (metaheurística) basado en el comportamiento y mecánicas de una manada de caballos llamado Wild Horse Optimization Algorithm. Se aplicó este algoritmo metaheurístico en un cluster de ROVs para tomar decisiones con base en sus parámetros y del entorno sobre cuál es el vehículo más apto para ejecutar una determinada maniobra en una determinada situación.
METODOLOGÍA
El algoritmo original fue planteado por Iraj Naruei en la página de MathWorks, es un código en lenguaje MatLab. Debido a consideraciones del entorno de simulación elaborado en Unity y de parámetros propios de una situación de una fuga submarina de crudo, el código original y parte del algoritmo fue modificado para tomar en cuenta parámetros propios de la situación:
Coordenadas de cada ROV del cluster
Longitud de brazo mecánico
Longitud del cable que los une con su estación
Rapidez promedio
Tiempo de realización de la maniobra
Maniobras que es capaz de realizar
Masa del ROV
Coeficiente de arrastre
Coordenadas de la fuga presente
Velocidad de la corriente marina que existe en el entorno
Ángulo de dicha corriente
Viscosidad del entorno.
El código modificado fue elaborado en un script de Python 2.7, realizando la misma función de retornar el mejor valor (en este caso el ROV) considerando todos los parámetros anteriores para calcular la fuerza de desplazamiento, trabajo requerido y tiempo de ejecución, el ROV cuyo resultado final sea más favorable por sus características propias y las del entorno será el que ejecute la maniobra requerida. Debido a que la simulación en la que se implementó el algoritmo fue elaborada en Unity, se llamó al script de Python del algoritmo desde un script de C# añadido a la simulación.
La simulación realizada es un entorno subacuático que introduce 6 ROVs modelados desde el propio programa. El usuario, además de controlar un ROV, puede ingresar una corriente y su ángulo, activar y desactivar una fuga en 6 puntos distintos, e ingresar los datos de la maniobra: Nombre de la maniobra, longitud de brazo mínima para realizarla y tiempo que lleva realizarla. Ya establecidos estos parámetros, se puede llamar al algoritmo para determinar qué ROV debería ser enviado a ejecutar la maniobra requerida en la fuga activa.
CONCLUSIONES
La aplicación del algoritmo fue exitosa, logrando mostrar dos opciones para dar un orden de realización de maniobras a un cluster de ROVs. A pesar de que hubo omisión de información y parámetros acerca de las situaciones a simular debido a que estos no se lograron obtener de fuentes de información fidedignas, la futura implementación de este algoritmo en simulaciones mejor desarrolladas podría suponer una gran herramienta, por lo que lo logrado en la presente estancia de verano es un paso más cerca a la implementación de clusters de ROVs en la industria de extracción de hidrocarburos.
Conejo Patiño Karen Lizbet, Instituto Tecnológico Superior de Huetamo
Asesor:Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
Chávez Luna Katia Marlen, Instituto Tecnológico Superior de Los Reyes. Conejo Patiño Karen Lizbet, Instituto Tecnológico Superior de Huetamo. González Mondragón Yaxkin Alejandro, Universidad de Guadalajara. Victoriano Rocha María Isabel, Universidad Veracruzana. Asesor: Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
PLANTEAMIENTO DEL PROBLEMA
El caso que se analiza corresponde a la empresa Confecciones Sara S. A. S." ubicada en la ciudad de Medellín, Colombia, la cual ofrece ropa interior femenina y masculina. Esta empresa no manejaba óptimamente el control de sus pronósticos de ventas debido a una deficiente planeación en sus operaciones y falta de comunicación entre el Área de Gestión Ventas directas y el Área de Gestión de Producción (Directora Comercial y Director de operaciones); sumando a esto, tenía una errónea gestión de inventarios, ya que en repetidas ocasiones se reflejaban excedentes o faltantes de materias primas, para lo cual se busca la integración del área de logística y producción. Si se logra resolver la problemática antes descrita se tendrá un eficiente control tanto en inventarios como en producción, lo cual se verá reflejado en un incremento en las ganancias, teniendo un mejor posicionamiento ante la fidelidad de los clientes.
METODOLOGÍA
Se utilizaron diferentes métodos para la resolución de las problemáticas, uno de ellos fue crear el diagrama de Ishikawa en el que de manera gráfica se pudo observar las principales causas y efectos que tenía la empresa en la gestión inadecuada de los inventarios, flujo de información, proveedores y tecnologías.
Más tarde se elaboraron los pronósticos de los diferentes productos que maneja la industria para el año 2015, los cuales se elaboraron en Minitab y fueron diferentes métodos para cada producto, en el Baby Doll, Brasier, estraple y panty se utilizó el de descomposición, en la brasilera fue el método Winters y en el cachetero fue el promedio móvil. Optamos por estos métodos ya que al analizar la demanda por medio de las diferentes gráficas y utilizar todos los métodos de pronóstico para los productos, se determinó que se trabajaría con el menor porcentaje de error y como se mencionó anteriormente, esos fueron los mejores resultados para los pronósticos del año 2015. Teniendo los pronósticos, se realizó el plan maestro de producción, en donde se planeó cuantos lotes producir por semana para satisfacer la demanda con y sin subcontratación, esta producción varia durante los meses del año dependiendo las ventas del producto.
Posteriormente, para el manejo de los inventarios se tomó en cuenta la demanda anual de cada materia prima, para la formulación de una correcta política de abastecimiento que permitiera contener la menor cantidad de inventarios en almacén. Además, con la información proveída previamente en el caso y obtenida en pasos anteriores, se hizo el cálculo del stock de seguridad con ayuda del plazo de entrega de los productos, la desviación estándar, la demanda y la tasa de servicio que se planea prestar. De esta manera se tiene seguridad ante retrasos y se evita la pérdida de ventas y el ahorro de tiempos.
Con referente a la estructura organizacional, se plantearon varios cambios en relación al organigrama original:
Supresión del Departamento de Gestión Comercial y gerencial. Esto a raíz de que ya se cuentan con dos departamentos que llevan a cabo actividades de gestión comercial, por lo que las acciones de éste departamento pueden ser absorbidas por los últimos mencionados. La gestión gerencial puede ser manejada por medio de otra herramienta de control.
Incorporación del Área de Ventas Directas y Compras al departamento de Gestión Comercial Ventas Directas. El cambio surge al encontrarse dicha área sin depender claramente de ningún departamento.
Reestructuración del Departamento de Gestión de la Producción. Ante la falta de comunicación en las áreas, que ocasiona descoordinación logística, se reestructuró el departamento subviniéndolo en dos áreas, la de producción y la de logística. En el área de Logística se agrupan los despachos, el área de compras y el de producto terminado, mientras que en Producción se asignan el resto de las áreas enfocadas únicamente en la realización del producto.
CONCLUSIONES
Como resultado de la investigación, se puede concluir que, al aplicar las herramientas de ingeniería industrial a los problemas que se presentan en el caso Confecciones Sara S.A.S., se obtuvo la propuesta de mejoramiento de la producción en cuanto a la demanda, control de sus inventarios, y una mejor estructura organizacional.
En cuanto a la planificación de la demanda se debe realizar un proceso riguroso ya que la demanda de los modelos tiene un alto índice de rotación por los cambios de moda, una vez pronosticado, se obtuvo que para baby doll durante todo el año se hará 1 lote por semana de 300 pzas, para brasier se recomienda sub contratación para la producción de 2, 3 y 4 lotes diarios de 800 pzas, esta producción varía de acuerdo a la estacionalidad, para estraple, brasilera y cachetero se pretende 1 lote diario de 300 pzas. De igual manera, para llevar a cabo una mejor administración de los inventarios se plantearon pronósticos de ventas para el año 2015, los cuales resultaron de la siguiente manera: Baby doll un total de 8,987 pzas al año, brasier 510,117 pzas, y panty 146,897 pzas, para el cachetero 6,489 pzas y por último la brasilera con 47,688 pzas al año. Se recomendaron también políticas de inventarios que garanticen un índice aceptable de productividad.
Finalmente, se identificó que se requiere un modelo colaborativo en la cadena de suministro del caso Confecciones Sara tanto como en el área gestión de ventas directas como el área de gestión de la producción.
Contreras Cardona Yessica, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
VISUALIZACIóN DE DATOS TERRITORIALES USANDO INTELIGENCIA DE NEGOCIOS.
VISUALIZACIóN DE DATOS TERRITORIALES USANDO INTELIGENCIA DE NEGOCIOS.
Contreras Cardona Yessica, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Es necesario identificar el estado de la conectividad y acceso a TIC para establecer los municipios que tienen mejores indicadores de conectividad teniendo en cuenta las necesidades de cierre de brecha digital que ha generado la pandemia de COVID ya que para mejorar el acceso a educación, productividad e identificar niveles de desigualdad digital.
METODOLOGÍA
Con el software de POWER BI se gestionan los datos, como almacenamiento, procesos en el front-end para generar consultas, informes, análisis, entre otras y así es más factible la lectura de los datos.
Recoger: recolección de datos, se organiza un modelo de datos los cuales se tomaron de datos abiertos.
Analizar: se analiza los datos de las tablas, para después realizar una limpieza de cada tabla factible.
Presentar: se proyecta lo que se realizó en los dos pasos anteriores lo cual se arroja un dashboard en POWER BI.
CONCLUSIONES
En la plataforma de visualización de datos para municipios de Colombia relacionados con acceso de WIFI publico se obtiene un dashboard en POWER BI.
Contreras Moroyoqui Karey Guadalupe, Universidad de Sonora
Asesor:Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas
CONTROL CON OPTIMIZACIóN-SIMULACIóN DE LA FRECUENCIA DE PASO Y LAS UNIDADES EN SERVICIO DEL TRANSPORTE URBANO
CONTROL CON OPTIMIZACIóN-SIMULACIóN DE LA FRECUENCIA DE PASO Y LAS UNIDADES EN SERVICIO DEL TRANSPORTE URBANO
Contreras Moroyoqui Karey Guadalupe, Universidad de Sonora. Asesor: Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El transporte urbano es uno de los principales servicios que se ofrecen para la movilidad urbana. Este servicio tiene gran impacto en la economía de una comunidad, moviendo a los usuarios de un punto a otro por la ciudad para realizar sus actividades cotidianas.
La situación actual de la pandemia de covid-19 ha causado afectaciones a muchos de los servicios. Dado es el caso del transporte urbano que está sujeto a una capacidad reducida para disminuir los contagios en un espacio confinado como lo es la unidad del transporte. Para la continuidad de las actividades en la nueva normalidad, es necesario atender las condiciones de operación sujetas a las medidas que se establecen para la seguridad de los usuarios. Agilizar la movilidad de estos, para disminuir las aglomeraciones, es de gran interés para la prestación del servicio.
La empresa UNE Transporte Sonora —que ofrece el servicio del transporte urbano en la ciudad de Hermosillo, Sonora— tiene como prioridad una mejora en el servicio con paradas modernas y confortables, más y mejores autobuses y menos tiempo de espera. Esta promesa se cumple con un monitoreo de ubicación satelital en tiempo real que ofrece a los usuarios visualizar su ruta desde su celular por medio de la aplicación de UNE. Dicha plataforma muestra, para cada ruta, la siguiente información: unidades en servicio, duración de recorrido, longitud de recorrido, velocidad promedio de la unidad en servicio y tiempo de arribo aproximado. La información de la aplicación es una estimación del comportamiento que hay en la ruta de servicio.
Para la prestación del servicio en la nueva normalidad, sujeto a los protocolos contra covid-19 que afectan la capacidad de las unidades del transporte, es necesario determinar las condiciones de operación óptimas, buscando cumplir con el objetivo de la organización —minimizar el tiempo de espera para agilizar el servicio y satisfacer al usuario— y cuidar al usuario reduciendo las aglomeraciones en las paradas y dentro de las unidades de transporte.
Para tener un control a las variables frecuencia de paso y número de unidades se utilizará el desarrollo de un modelo de simulación del sistema de transporte, tomando una sola ruta de interés, dada la complejidad del problema de transporte ya revisado en los autores.
Los elementos de simulación del modelo son los siguientes:
Entidad: camión
Atributos: camión con capacidad reducida de atención
Variables globales: frecuencia de paso y número de unidades en servicio
Recursos: paradas
Colas: capacidad del camión llena
Acumuladores estadísticos: tiempo de espera promedio, frecuencia de paso
Eventos: llegada, que se refiere a la entrada del camión a la ruta; y, salida, que se refiere a la salida del camión de la ruta.
Reloj de simulación: la prestación del servicio es de 5:00 a 21:00 hrs. 16:00 hrs.
Empezar y parar: inicia a las 5:00 hrs. al entrar el camión a la ruta. Termina a las 21:00 hrs.
METODOLOGÍA
Para la resolución del problema se utiliza el siguiente esquema metodológico:
1. Definir los objetivos de la optimización
Minimizar el tiempo de espera de los usuarios
2.Seleccionar los factores que resultan significativos
Frecuencia de paso
Unidades de servicio
3.Establecer la Región de Operabilidad
Considerar las posibilidades instrumentales y la información sobre el sistema
4.Construir el Modelo de Simulación
Desarrollar el modelo de simulación que represente el problema.
5.Seleccionar un Entorno Experimental
Definir la región del espacio de los factores en donde vamos a desarrollar los experimentos de simulación
6.Elaborar un modelo matemático
Graficar la superficie de respuesta y evaluar resultados
Repetir los pasos 4, 5 y 6 si fuera necesario
7.Localizar el óptimo buscado para la respuesta
Utilizar herramientas graficas y/o matemáticas para predecirlo
8.Verificar experimentalmente
Confirmar el valor de al respuesta utilizando los niveles óptimos de los factores
Se utilizará el software Arena, para analizar el comportamiento en el sistema de transporte y, así, tener los datos necesarios para después aplicar la metodología de superficie de respuesta. Así, se dará la ecuación del comportamiento de las variables y, optimizando ésta, se obtendrá como resultado las condiciones óptimas de operación de frecuencia de paso y número de unidades en servicio del transporte urbano.
La metodología de superficie de respuesta se inicia en el análisis del punto central, donde el nivel de las variables (frecuencia de paso, unidades en servicio y tiempo de espera) está determinado por las condiciones actuales de operación. Se realiza el diseño experimental y la recolección de datos por medio del modelo de simulación.
Utilizando el software Minitab, será necesario verificar supuestos, hacer prueba de parámetros y tabla ANOVA, buscando determinar e interpretar si existe una curvatura. Si hay curvatura, se realizará un modelo de segundo orden, para así encontrar el punto óptimo de operación que minimice el tiempo de espera de los usuarios, el nivel de frecuencia de paso de la unidades de transporte y el número óptimo de unidades de transporte en servicio.
CONCLUSIONES
El enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos.
Durante la estancia virtual de investigación del programa DELFIN XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, se estudio la metodología de optimización - simulación, y se esbozo su aplicación al problema de transporte urbano, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
Contreras Ramirez Maria Mayra, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Mg. Carlos Jose Regalao Noriega, Universidad Simón Bolivar
PROCESOS INTEGRALES APLICADOS A LA GESTIóN DE LAS ORGANIZACIONES
PROCESOS INTEGRALES APLICADOS A LA GESTIóN DE LAS ORGANIZACIONES
Contreras Ramirez Maria Mayra, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mg. Carlos Jose Regalao Noriega, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
En los últimos años Colombia ha experimentado una serie de cambios, con la entrada en vigor de los mercados globales y los acuerdos de libre comercio con otras naciones y en especial con la alianza del Pacífico, su economía sufrió cambios importantes en sus acciones a nivel general; el sector logístico no es ajeno a este auge que impone la necesidad de aumentar la competitividad y, por lo tanto, aumento la participación de las organizaciones en los mercados existentes y emergentes. Este acontecimiento dio un giro importante para todas las organizaciones, ya que la mejora de sus procesos aumentaría potencial mente sus ganancias y daría precisión a todos sus sistemas ya existentes.
Ya que actualmente los operadores logísticos empleados en la ciudad de Barranquilla, buscan modernizar su tecnología en materia de la cadena de suministros y en especial atención en sus terminales intralogísticas, esto con el fin de dar más rapidez y eficiencia a sus procesos ya establecidos.
Por lo cual nace la problemática de crear modelos logísticos implementando simulación para la automatización idónea de los procesos intralogísticos, para el mejoramiento de la eficiencia, de tal manera tomando en cuenta los sistemas integrales de la gestión organizacional.
METODOLOGÍA
La metodología empleada fue básicamente una ¨Metodología cualitativa¨ en marcado en un enfoque epistemológico positivista, es decir, que es basado en análisis de hechos reales que son validados por la experiencia. Para ello se analizaron los diferentes sistemas integrales aplicados en algunas organizaciones, al igual que las teorías ya existentes por distintos autores y las diferentes ramas involucradas en el proyecto como ¨Industria 4.0, Gemelos digitales, Intralogística, Simulación, y Automatización¨ esto para recabar información y diseñar un modelo heurístico por medio de una herramienta de simulación el cual nos permitiera automatizar los operadores logísticos e implementarlos como instrumentos de impacto en la eficiencia organizacional.
También se diseñó un esquema el cual indica cómo será el funcionamiento del simulador, al igual que toda la información requerida y el ciclo de debe seguir para que su funcionamiento se lleve correctamente y los resultados sean realmente los esperados por las organizaciones que lo utilicen en sus diferentes proceso.
CONCLUSIONES
De la presente investigación se sabe que la implementación de la automatización a los modelos heurísticos dará un giro radical al tráfico de datos y procesos de las empresas al igual que permite saber el estado actual de los productos y sus costos serán mucho más bajos, también aumenta la eficacia y eficiencia de los procesos y calidad en los productos y se espera que se desarrolló el proceso estadístico referente a la línea del modelo heurístico.
El proyecto fue presentado en el vii Encuentro de Pasantías de Investigación Delfín en el 0ds no. 9: industria, innovación e infraestructura, de la cual se obtuvieron muy buenas sugerencias hacía en proyectó y felicitaciones por su buen desarrollo y planteamiento.
Contreras Sabrina, Instituto Tecnológico de Culiacán
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
Contreras Sabrina, Instituto Tecnológico de Culiacán. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
En los últimos años hemos sido testigos del cambio climático en el planeta generado por el calentamiento global, el cual es el aumento de la temperatura por la acumulación de gases de efecto invernadero (GEI) a la atmosfera. Estos son emitidos en su mayoría por las acciones humanas, resultado de la dependencia que tenemos de los combustibles fósiles (Carbón, petróleo y gas) para abastecer las demandas de energía, transporte y alimentación.
Cada día la problemática aumenta generando impactos sociales y económicos, como son los daños en cosechas y en la producción alimentaria, fenómenos naturales extremos, sequías, enfermedades virales e incluso incendios. Es por ello que se le debe de dar la debida importancia y seriedad a este tema por parte de todos realizando pequeñas y grandes acciones para su solución.
Debido a ello se ha planteado el desarrollo de viviendas que sean ecológicas y autosuficientes para garantizar una independencia energética y disminuir la huella ecológica de sus habitantes.
METODOLOGÍA
Para el desarrollo de la casa ecológica autosustentable lo primero que se definió fueron los objetivos: general y específicos en los cuales consistiría el proyecto. Se estableció la necesidad de diseñar una vivienda eficiente que se adaptará a las necesidades energéticas y de confort de sus habitantes, al mismo tiempo que se promueve el desarrollo sustentable dentro de México.
Los objetivos específicos se centran en satisfacer los requerimientos de una vivienda, tratando temas relacionados con la arquitectura sostenible, técnicas para el acondicionamiento climático, energía fotovoltaica y el uso eficiente del agua aprovechando las aguas grises y de lluvia.
Consecuentemente se seleccionó el sitio de trabajo dentro de San Felipe del Progreso, Edo. Mexico buscando un terrero amplio en el cual que se pueda realizar la construcción en un futuro. Posteriormente se obtuvo la carta bioclimática de la zona, considerando la irradiación solar y el potencial bioclimático, además de establecer el perfil de los usuarios y el posible programa arquitectónico que satisficiera las necesidades de trabajo y estudio de los mismos. Lo anterior permitió la creación de una propuesta arquitectónica y la selección del material de construcción.
Para garantizar el confort térmico, se realizó una investigación documental de las posibles técnicas de calefacción pasiva, como son el uso de muros trombe, vidrios de doble acristalamiento en ventanas y el empleo del piso radiante, tomando en cuenta las ventajas y desventajas de cada elemento.
Por otra parte, se calculó la demanda de agua por persona en un día y la capacidad que se puede abastecer empleando el agua de lluvia, investigando la oferta pluvial del sitio. Siguiendo este proceso se dimensiono una cisterna para el almacenamiento de este líquido.
Tomando como base el programa arquitectónico, se empleó el método de Hunter para conocer el gasto hídrico por aparato sanitario y el diseño del plano hidráulico. Luego se determinó un área de captación mínima para la selección de un colector solar que permita garantizar un flujo de agua caliente aprovechando la irradiación solar.
En el caso del drenaje sanitario se determinaron dos sistemas de desagüe, uno que termina en el alcantarillado publico proveniente de los servicios sanitarios y otro que se le dará un tratamiento con un biofiltro para su reutilización empleando el resto de las aguas residuales. Para el último punto se hizo una recopilación de información para determinar las características de diseño de un biofiltro de tipo horizontal.
En cuanto a las necesidades eléctricas del proyecto se realizó un cuadro de cargas y partir de el se obtuvo la demanda energética diaria. Lo que nos sirvió para establecer la capacidad de una central fotovoltaica interconectada a la red general de distribución, considerando la eficiencia del sistema y las horas solares pico de la zona. Esto sirvió para la selección de equipos (módulos fotovoltaicos, inversor y centro de carga) que cumpliera con los parámetros eléctricos determinados. En consecuencia se realizó un diagrama unifilar que detallará las características del sistema eléctrico y un presupuesto de este.
Finalmente se integraron todos los aspectos tratados en el desarrollo del proyecto para el diseño final de la casa ecológica autosustentable.
CONCLUSIONES
Durante la realización del verano se determinó los aspectos más importantes relacionados al diseño de la casa través de una investigación documental y el empleo metodologías para el dimensionamiento del sistema eléctrico y el hidráulico.
Se obtuvo un plano arquitectónico para una casa-habitación de dos pisos, la cual cuenta con áreas de trabajo y descanso. Se seleccionó el adobe como material principal de construcción acompañado de un material de aislamiento en el techo, así como una estructura de piso radiante y la ubicación de muros trombe en la parte sur.
Considerando los aspectos hidráulicos se determinó una cisterna de captación de agua de lluvia de 15 m3, un colector solar de almacenamiento mínimo de 325 litros, y un biofiltro que emplea las plantas totora (Scirpues spp) y carrizo (Phragmytes spp) para el tratamiento de aguas grises.
Por último, se proyectó un sistema fotovoltaico de capacidad de 3.8 kW interconectado a la red electrica de CFE para cumplir las demandas energéticas.
Contreras Trejo Santos Efraín, Instituto Tecnológico de Tepic
Asesor:Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
ANáLISIS Y DISEñO 3D DE UNA JERINGA PARA INYECCIóN CON APLICACIóN VETERINARIA
ANáLISIS Y DISEñO 3D DE UNA JERINGA PARA INYECCIóN CON APLICACIóN VETERINARIA
Contreras Trejo Santos Efraín, Instituto Tecnológico de Tepic. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
Las granjas, para optimizar sus procesos usan sistemas de inyección que permiten un flujo de trabajo mejor, así como solucionar diversas problemáticas que detectaron en sus procesos. Darinka Guzmán (2021) en su investigación dice:el tipo de diseño al que se llegó es de mayor utilidad para animales de campo un poco más grandes, debido a su tipo de diseño y características; sin embargo, también puede ser usado en animales como perros, gatos, conejos, etc.,dado a que su función es facilitar el suministro de medicamento líquido a la especie que lo necesite.
La duda elemental que da génesis a su investigación es: si para prácticas como la ganadería se usan sistemas de inyección, ¿por qué estas no se aplican de igual manera en veterinarias comunes?. En la presente investigación, se utilizan herramientas como el QFD (Quality Function Deployment), el CAD (Computer-Aided Design), el Design Thinking (Pensamiento de Diseño), estudios, entre otros. Para dar respuesta a la pregunta anterior y así determinar si es viable introducir estos sistemas en las veterinarias domésticas, al igual que aportar con un diseño en 3D innovador.
METODOLOGÍA
Población
La metodología comienza decidiendo la población sobre la cual se trabajará, esta es la población de Nayarit, donde se buscó a personas con mascotas que pueden brindar la información necesaria para la investigación.
Muestra
La técnica de muestreo empleada fue no probabilística, en este caso, se trata de un muestreo por conveniencia; como señalan Otzen, Tamara, & Manterola, Carlos. (2017).
Esta técnica de muestreo permite seleccionar aquellos casos accesibles que acepten ser incluidos. Esto, fundamentado en la conveniente accesibilidad y proximidad de los sujetos para el investigador.
Tipo de estudio
El tipo de estudio es tanto cuantitativo como cualitativo; Cook (1979), indicó que hay dos métodos para la recolección de datos: cuantitativo y cualitativo, en palabras simples, el método cuantitativo trabaja con datos numéricos, medibles, mientras que los cualitativos aportan información o descripciones. La investigación cuantitativa es aquella donde se recogen y analizan datos cuantitativos, por su parte la cualitativa evita la cuantificación; sin embargo, los registros se realizan mediante la narración, la observación participante y las entrevistas no estructuradas.
Descripción del instrumento
Después de indagar información sobre los sistemas de inyección ya existentes, se hizo un estudio a personas con mascotas para conocer su crítica al proceso de inyección actual, considerando el proceso y las herramientas empleadas; de las mismas respuestas se puede usar la información para mejorar los diseños actuales.
Procedimiento de recolección
Mediante un formulario de Google se diseñó una encuesta exclusivamente para personas con mascotas, de preferencia perros y gatos; el link para acceder a esta encuesta fue publicado en grupos de Facebook cuyos integrantes cumplieran con los requisitos para el estudio. Una vez recolectados los datos se concentran en tabulados para su manipulación e interpretación.
Desarrollo temático
Primeramente, se compararon los diversos diseños actuales, así como su funcionamiento; se tomó el diseño propuesto por Guzmán (2021). Sin embargo, se optó por un diseño menos bultoso y más estético, mismo que se trabajó en AutoCAD.
Procedimiento y descripción de las actividades
Recolección de información.-Buscar información de diversas fuentes sobre los diseños de jeringas para uso veterinario, para comparar las características y el funcionamiento de estos. Con base en la investigación de Guzmán (2021); se estructuró el instrumento de investigación (encuesta), mismo que contenía preguntas puntuales y útiles para el rediseño.
Revisión y ajustes a la propuesta.-Luego de analizar a detalle artículos científicos y haber indagado sobre otras herramientas que podrían ser útiles para esta idea, el asesor permitió continuar con el proyecto; lo restante es hacer buen uso de los datos recopilados, para conseguir un diseño convincente para los dueños de mascotas y para los veterinarios.
Análisis y comparación de modelos de sistemas de inyección.-Además de los diseños presentados por Guzman (2021), se indaga dentro de la plataforma Youtube algunos otros para explorar sobre el funcionamiento y la ergonomía de jeringas diferentes.
Elaboración de un QFD.-Basado en los datos obtenidos de los instrumentos aplicados, realizar un despliegue de la función de calidad, mejor conocido como casa de la calidad.
Revisión y ajuste del QFD.-Analizar los requerimientos y las características establecidas en el diagrama para corroborar haber seleccionado las ideas idóneas y no olvidar nada imprescindible en torno a las características del diseño.
Diseño del modelo 3D.-Comenzar a hacer bocetos viables tomando en cuenta los modelos ya investigados y hacer una propuesta simple para trabajar en esta y posteriormente obtener el diseño final. Los primeros bocetos fueron a mano alzada en hojas de cuaderno y pizarra; posteriormente se hizo un diseño en 2D en el software AutoCAD, se continuó trabajando con la propuesta hasta llegar a una mejor.
Revisión y ajustes del modelo 3D.-Solicitar revisión al investigador para obtener una retroalimentación del diseño, corregir detalles y mejorar cuestiones estéticas y de funcionamiento.
Resultados del estudio.-Una vez analizados los datos, se compartirán los resultados obtenidos.
Conclusiones y recomendaciones.
CONCLUSIONES
Como conclusión, la implementación de un sistema de inyección para uso veterinario, principalmente en perros y gatos, es una clara evidencia de innovación, la cuál es la línea de la presente investigación; existen diversos proptotipos, sin embargo, la hipótesis nula es: el prototipo es viable para su implementación.
Es apto todo aquél prototipo que cumpla con los requerimientos del cliente, mismos que se establecieron en el QFD.
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
Castro Arias Bibiana, Instituto Tecnológico Superior de Huauchinango. Coronell Gonzalez Nikolls Andrea, Corporación Universitaria Reformada. García Calvo Sofía Isabel, Corporación Universitaria Reformada. Ruiz González Diego, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
El avance tecnológico ha sido de gran impacto en la sociedad, ya que se ha implementado en distintas áreas como salud, ingeniería, artefactos electrónicos y mecánicos, entre otros. Sin embargo, hay muchas personas que no pueden gozar de estos avances por distintas situaciones como es la carencia económica, ceguera y algunas otras discapacidades.
El objetivo de desarrollar este proyecto es aplicar una reingeniería en el diseño para disminuir tiempos de impresión y costos por gastos de material. Para lograr esto, en el diseño original del prototipo se realizan los cambios necesarios tanto en dimensiones, como en el diseño de las piezas.
Este dispositivo tiflotécnico tiene como fin de ayudar en la educación introduciéndolo a temprana edad para aquellos que quieran aprender y quienes lo necesiten.
METODOLOGÍA
Este evento se desarrolló en diferentes etapas, iniciando con la recopilación de datos acerca del sistema de lectoescritura y como funciona, luego de ello, los materias que suelen ser más agradables al tacto de las manos ya que estas tienen que ser entrenadas para poder desarrollar la sensibilidad que se necesita para leer el braille. Seguida de esto se hizo uso de la información en cuanto al tamaño de los dedos y manos de los niños para que el disposotivo tiflotécnico pueda adaptarse a las manos de niños de diferentes edades.
CONCLUSIONES
Al pasar este dispositivo por las manos de un niño ciego, verificó el funcionamiento y la comodidad de dicho artefacto, mostró que cosas del dispositivo lo hacian sentir incomodo y que sugerencias daba para mejorar el prototipo.
Correa Cubides Andrés, Universidad Tecnológica de Pereira
Asesor:Dr. Mario Enrique Duarte González, Universidad Antonio Nariño
DISEñO DE APLICACIóN DE VISUALIZACIóN DE IMáGENES SATELITALES CON VARIACIONES DE íNDICES RADIOMéTRICOS PARA LA DETECCIóN DE FOSAS
DISEñO DE APLICACIóN DE VISUALIZACIóN DE IMáGENES SATELITALES CON VARIACIONES DE íNDICES RADIOMéTRICOS PARA LA DETECCIóN DE FOSAS
Correa Cubides Andrés, Universidad Tecnológica de Pereira. Asesor: Dr. Mario Enrique Duarte González, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
Colombia desde el año 2016 viene presentando un proceso de paz y de reestructuración de la sociedad, en la que se reintegren a la vida civil excombatientes de la guerrilla FARC y en donde se puedan reintegrar al campo muchas víctimas de la guerra desplazadas por el conflicto, en este proceso se ha estipulado que es fundamental la verdad con garantías de reparación y no repetición, para esto se han dispuesto mesas de dialogo entre victimarios y victimas que si bien cumplen un papel imprescindible, se hace necesario de métodos científicos y ayudas tecnológicas que ayuden a identificar factores claves para la reparación de las familias víctimas, tales como los cadáveres de sus familiares.
Cada año hay más noticias alentadoras, excombatientes que se gradúan de bachilleres, de técnicos y hasta profesionales, comunidades formadas completamente por personas retiradas del conflicto, sostenibles y auto suficientes, sin embargo, sigue siendo necesario de métodos que ayuden a identificar lugares donde puedan existir fosas comunes, que complementen el dialogo y ayuden a encontrar las personas desaparecidas y ayude a reparar el dolor de las familias que aun los reclaman.
Estas búsquedas de fosas comunes (en algunos casos de solo una tumba) se desarrolla con métodos convencionales, es decir con una sonda y una varilla, lo cual acarrea problemas, en los que se incluye que con la varilla se puede dañar la muestra, que es poco eficiente, además de ser demorado y tener la incertidumbre si el lugar a analizar tiene potencial de tener hallazgos.
Por todos estos motivos se hace evidente la necesidad de un método de detección más eficiente, moderna y acorde a las necesidades actuales, que permita además de preservar la muestra, ser más rápida.
METODOLOGÍA
El proyecto se basa en etapas de investigación:
Revisión bibliográfica, revisión del estado de arte.
Revisión de artículos relacionados a la detección de fosas por métodos geofísicos, y revisión de tantos artículos como sea posible relacionados a los estudios geofísicos, donde expliquen claramente las propiedades del subsuelo y como aprovechar dicha información. Revisión del estado del arte en Colombia, ¿Se han utilizado métodos geofísicos para detección de fosas comunes?
Se consulta además los indices radiométricos, principalmente el Índice de Vegetación de Diferencia Normalizada (NDVI) y su uso en la detección de propiedades del suelo y el lugar en el que esta, también de sus proiedades de "predicción" como las sequias que puede pronosticar. En este punto se concluye además la importancias de la Espectroscopía de Reflectancia en el Infrarrojo Cercano (NIR) y de la Espectroscopía de Reflectancia de la parte Roja Visible (RED) en la fórmula.
En la etapa de revisión del estado de arte se consulta la docuemntación de mas de nueve librerias de python, en las que se incluye pyproj, numpy, matplotlib, panda, os, entre otras, las cuales cumplen su labor principalmente en el interfaz gráfica de la aplicación y en el procesamiento y análisi de las mismas imagenes.
Se analiza además el manejo de Anaconda como medio de instalación de las librerias a utilizar en un entorno como spyder.
Queda restando la adecuación de la interfaz gráfica de la aplicación que permita lograr el objetivo de facilitar la visualización de las imagenes con el indice, además de esto se hace necesario adecuar el código suministrado por el investigador que permita seleccionar imagenes diferentes sin tener que reiniciar el código. Es decir la meta inal es el desarrollo de la aplicación para visualizar imagenes satelitales y calcular indices radiométricos, con las características antes mencionadas.
CONCLUSIONES
Durante la estancia de investigación se logran desarrollar conocimientos teóricos relacionados a variables geofísicas tales como índices radiométricos, resistividad entre otras, además de una profundización en conocimientos de programación, conociendo unas nuevas librerías y su uso tales como rasterio, pyplot, panda, os, entre otras y su aplicabilidad en los usos cotidianos de la ingeniería. De igual manera en las reuniones con el asesor (Dr. Mario Duarte) y los otros estudiantes que recibían asesoría se aumenta las soft skills y se desarrollan otras, tales como el dialogo, trabajo en equipo, exponer las ideas de forma más clara, redacción, comprensión lectora de artículos con alta carga académica.
Al ser un trabajo extenso, en la estancia se toma en consideración la etapa de comprender los algoritmos de procesamiento de imágenes y de reconocimiento de patrones, teniendo en cuenta el tiempo y las limitaciones personales (por motivos de paro, se postergo el fin de semestre) se logra solamente la revisión e inicio de algoritmos anteriores y la actualización de estos.
Se espera desarrollar en la investigación completa (fuera del tiempo de la estancia de investigación) algoritmos de reconocimiento de patrones, algoritmos de detección automática que permitan una experiencia más grata en la aplicación y que arroje datos más precisos y que sean más eficientes a la hora de sacar patrones que permitan concuir de la posible existencia de una fosa.
Correa Duran Nayeli Carina, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
INTEGRACIÓN DE TÉCNICAS DE LA MEJORA CONTINUA EN LA EMPRESA "KAMILA MUEBLES"
INTEGRACIÓN DE TÉCNICAS DE LA MEJORA CONTINUA EN LA EMPRESA "KAMILA MUEBLES"
Correa Duran Nayeli Carina, Instituto Tecnológico Superior de Ciudad Hidalgo. Soto Pérez Jesús, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El siguiente proyecto fue realizado en la empresa Kamila muebles ubicada en la Calle Insurgentes #5-A Colonia Centro CP. 61100, Ciudad Hidalgo, Michoacán, empresa dedicada a la fabricación de muebles de todo tipo para la decoración y satisfacción de sus clientes de acuerdo a sus necesidades.
Durante la producción de los diferentes muebles se han presentado diversas inconformidades como lo son; la carencia de un balanceo de líneas dentro de su producción, de herramientas de Lean Manufacturing y normas ISO que permitan aumentar la productividad de la empresa.
Actualmente, la empresa Kamila muebles ha presentado una gran cantidad de cuellos de botella en el área de producción, lo que ha generado pérdidas de tiempo para la obtención de las piezas en el proceso , lo que traduce a una productividad deficiente de la empresa. El principal factor en la generación de los cuellos de botella es originado por la excesiva acumulación de material en las máquinas, lo que genera que la producción sea deficiente, además de elevar gastos como lo es de mano de obra, de maquinaria, entre otros. Es por esto que el balanceo de líneas permitirá disminuir o en su defecto eliminar cada uno de los cuellos existentes en el área de producción.
De igual forma, en distintas áreas de la empresa mueblera se han detectado algunos problemas como lo es la rotación del personal, procesos innecesarios, sobreproducción, entre otros. Por lo cual se aplicará la metodología denominada Las 7 mudas presentadas dentro de la empresa Kamila muebles esta permitirá incrementar la productividad, disminuir los costos y los desperdicios.
Asimismo, la empresa presenta diversos problemas, tales como; la falta de la señalización necesarias, las áreas de trabajo no se encuentran delimitadas, la clasificación de los materiales no es el adecuado e incluso en ciertas áreas se cuenta con un exceso del mismo, no se tiene la limpieza ni el orden adecuado lo que ocasiona un gran desperdicio de la madera y pérdida de tiempo en su localización. Siendo así que la implementación de las 9´S mejorará las áreas de trabajo y aumentará los estándares dentro de su producción permitiendo tener una mejora de la calidad en cada una de las áreas que integran la empresa.
Sin embargo, con la implementación documental de la ISO 9001:2015 en la empresa, permitirá mejorar cada una de las deficiencias existentes en los productos, teniendo así un control de los procesos con el objetivo de mejorar la calidad y así poder satisfacer las necesidades de los clientes.
METODOLOGÍA
Para el desarrollo del presente proyecto se realizó la integración de diversas técnicas de mejora continua en la empresa Kamila Muebles, para contrarrestar cada una de sus necesidades y problemas presentados dentro de la empresa.
En la metodología del balanceo de líneas se realizó el Layout de la empresa con el fin de identificar las áreas que integran a la misma, así mismo, se desarrolló un diagrama SIPOC del proceso de armado del muebles y diagramas de cada una de las áreas de trabajo con las que cuenta la empresa para identificar las operaciones que se deben realizar, de igual manera se realizó una visita Gemba en la empresa para establecer áreas de oportunidad en los problemas identificados , asimismo, se llevó a cabo un estudio de tiempos con la finalidad de eliminar los movimientos innecesarios y sustituir métodos en el área de producción.
En la metodología de Lean Manufacturing se llevó a cabo la implementación de 2 herramientas Lean, las cuales son: 7 mudas y 9 S. Para la herramienta de las 7 mudas se realizaron mapas de procesos en conjunto con su respectivo diagrama SIPOC para cada una de las áreas de trabajo de la empresa, además se realizó un análisis FODA para conocer la situación de la empresa, de igual manera se aplicaron entrevistas para identificar oportunidades de mejora y para finalizar con esta herramienta Lean se desglosaron cada una de las 7 mudas permitiendo dar solución a los problemas identificados en Kamila muebles. Para la segunda herramienta Lean la cual es la metodología de las 9 S se desarrolló un diagrama SIPOC en el cual se indican los proveedores de la empresa hasta la obtención del mueble y los posibles clientes. Se generó una Gemba con el objetivo de identificar las condiciones físicas de cada una de las áreas contemplando cada punto de las 9S, al igual que se realizaron auditorías para conocer el estado actual de la empresa con la ayuda de bitácoras y gráficas en Excel para evaluar cada área de trabajo y así poder establecer áreas de oportunidad.
Para la norma ISO 9001:2015 se desarrolló un apartado de documentación e implementación del Sistema de Gestión de Calidad de acuerdo a las requerimientos establecidos en la empresa Kamila muebles, en donde se establecieron actividades basadas en el círculo de calidad Deming (PHVA).
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las técnicas de mejora continua y ponerlas en práctica con la implementación del balance de líneas, 7 mudas, 9 S y la norma ISO 9011:2015. Por esta razón, este proyecto tiene como enfoque la integración de técnicas de mejora continua dentro de la empresa Kamila muebles para garantizar el óptimo desarrollo de cada una de las áreas que conforman la empresa, elevando considerablemente la productividad de la misma.
Siendo así que con la aplicación de las herramientas antes mencionadas y cada una de las áreas de oportunidad identificadas se logró dar solución a cada una de las necesidades y problemáticas de la empresa con el fin de obtener una mejora continua en cada uno de los procesos de la empresa Kamila muebles, con el fin de satisfacer las necesidades de sus clientes en tiempo y forma.
Cortés Alarcón Samantha, Instituto Politécnico Nacional
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
INSTALACIONES HIDROSANITARIAS AHORRADORAS DE AGUA
INSTALACIONES HIDROSANITARIAS AHORRADORAS DE AGUA
Cortés Alarcón Samantha, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
El mundo enfrenta una crisis ambiental que afecta todos los ámbitos de la vida cotidiana, desde la alimentación con productos transgénicos hasta la escasez de agua, contaminación lumínica, del aire, del suelo y del agua.
Debido a la pandemia mundial causada por el virus de COVID-19 gran parte de las personas tuvieron que resguardarse en sus hogares lo que provocó un mayor uso de electrodomésticos, agua para necesidades básicas entre otras cosas, lo que genera un impacto ambiental muy elevado.
Es por ello que es importante que nuestros hogares estén ideados para reducir nuestra huella ecológica, aplicar ecotecnias en su construcción tales como el uso de mobiliario de baño que ahorre agua o la aplicación de baños secos, el uso de bombillas ahorradoras, electrodomésticos con eficiencia energética, instalaciones hidráulicas con sistema de tratamiento de aguas negras y grises y su uso para riego, materiales de construcción amigables de acuerdo a la zona, así como mejorar nuestros hábitos y crear conciencia de lo que nos depara en un futuro con un ambiente contaminado si no se toman las medidas necesarias para enfrentar el problema.
METODOLOGÍA
Para la investigación se utilizaron diferentes sitios web, para conocer las velocidades del viento, utilizamos la página (Global Wind Atlas, 2021), de igual forma para conocer el uso de suelo utilizamos la tabla de usos de suelo del plan municipal de desarrollo urbano de San Felipe del Progreso (SEDUV EDOMEX, s.f.) así como de la página del Gobierno del municipio de San Felipe del Progreso, a grandes rasgos se utilizaron páginas de tiendas comerciales para conocer los diferentes tipos de mobiliario así como el más conveniente en cuanto a gasto de agua, se utilizó como apoyo el Reglamento de Construcciones del Distrito Federal para el diseño de la Casa Ecológica Autosustentable, así como plataformas educativas como son Google Académico para la búsqueda de documentos, Google Classroom para la asignación de trabajos, aprende.org de la Fundación Carlos Slim para investigación técnica, entre otras páginas.
Es importante reconocer el trabajo realizado en equipo, esto tomando en cuenta que la estancia para esta investigación fue virtual, por lo tanto, nuestro medio de comunicación fueron redes sociales y videoconferencias para tomar decisiones acerca del proyecto.
En cuanto a los Objetivos de Desarrollo Sostenible (ODS) lo enfocamos en el número 11, Ciudades y comunidades sostenibles el cual menciona: CONSEGUIR QUE LAS CIUDADES Y LOS ASENTAMIENTOS HUMANOS SEAN INCLUSIVOS, SEGUROS, RESILIENTES Y SOSTENIBLES.
Si lo enfocamos a nuestro proyecto podemos decir que, si bien no es una ciudad, es un hogar o un asentamiento pequeño de personas que comienzan con una casa sustentable y con el paso del tiempo las personas que lleguen o se encuentren en esa zona pueden copiar algunas de las ecotecnias implementadas en este proyecto.
Hablando del proyecto mismo, el objetivo general y los objetivos específicos fueron definidos por nuestro coordinador pero nos dio la libertad de modificar lo que nos pareciera mejor, lo primero que hicimos fue definir un cliente, sus necesidades y las necesidades de su familia de acuerdo a las actividades que realiza cada integrante, definimos una ubicación para partir de ahí en adelante para tener en cuenta la orientación, la cantidad de espacios necesarios, revisamos el clima de la zona, la radiación solar y la velocidad del viento para evaluar si era factible colocar sistemas como los paneles solares o un generador eólico, al final colocamos paneles.
Considerando lo anterior pudimos crear un plano arquitectónico de referencia con apoyo de normatividad de construcción vigente para edificaciones sustentables y el Reglamento de Construcciones del Distrito Federal.
Evaluamos los materiales convenientes para la construcción de nuestro hogar, considerando que fueran producidos en la zona o que fueran de fácil acceso además de sustentables, considerando también ventajas y desventajas de cada uno la zona específica en la que sería colocado.
Se realizó el análisis de la cantidad de agua necesaria para una familia de 5 personas y el cálculo de los sistemas de calefacción ambiental, se incorporó un sistema de piso radiante, y se realizó el análisis del sistema fotovoltaico en este caso interconectado a la red eléctrica, incorporando la demando energética, las características y dimensionamiento del sistema, así como el diagrama unifilar de la instalación.
También se buscó incorporar instalaciones sanitarias de bajo consumo de agua a partir de baños ahorradores y aireadores, y un sistema de tratamiento de aguas grises a través de un biofiltro.
Para finalizar, se buscó una vegetación acorde a la zona y al tipo de vivienda.
CONCLUSIONES
Durante el verano se pudieron adquirir conocimientos teóricos acerca del clima, la orientación, la radiación, la cantidad de viento, los materiales de construcción local para un bajo impacto ambiental y el mayor aprovechamiento de éste, la instalación de diferentes sistemas tales como el hidráulico, su tratamiento de aguas grises y su uso para riego, el uso e instalación de piso radiante, la investigación documental de aparatos sanitarios con bajo consumo de agua, el uso e instalación de un biofiltro, podemos revisar los resultados obtenidos a partir de los planos arquitectónicos, hidráulicos e incluso se pudo realizar un render final como resultado del tabajo realizado.
Estoy realmente contenta con el resultado del proyecto, el trabajo realizado, el conocimiento adquirido y la experiencia de que me llevo gracias a esta oportunidad.
Cortés Duarte Mateo, Universidad Tecnológica De Bolívar
Asesor:Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
Cortés Duarte Mateo, Universidad Tecnológica De Bolívar. de Jesus Castro Edgar, Tecnológico de Estudios Superiores de San Felipe del Progreso. García Uriburu Castro Sebastián Alejandro, Instituto Politécnico Nacional. Trinidad Hernández Luis Antonio, Instituto Tecnológico de Tláhuac. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Mundialmente, e incluso personalmente, se conocen los problemas que el SARS-CoV-2 ha estado ocasionando desde comienzos del 2020. Uno de los problemas que puede resaltarse más es la falta de comunicación directa con otras personas, es decir, el tipo de contacto social que se experimentaba antes de la pandemia. Esto afectó totalmente la manera en la que se realizaban las actividades diarias, como los deberes o hábitos.
Se decidió poner énfasis en la falta de comunicación detallada que se puede presentar al momento de realizar las compras, o "ir al súper". El principal objetivo por el que se buscó desarrollar este proyecto fue el ayudar a las personas a tener una experiencia de compras más amena en el ámbito de dudas, o de asistencia al momento de hacer las compras.
METODOLOGÍA
Para proseguir, será necesario aclarar algunos conceptos esenciales que harán más fluida la lectura:
Archivo JSON (JavaScript Object Notation o Notación de Objetos de JavaScript): es un formato ligero de intercambio de datos que resulta sencillo de leer y escribir para los programadores y simple de interpretar y generar para las máquinas.
API: Es una serie de protocolos y definiciones utilizada para estructurar el software de aplicaciones. API significa Interfaz de Programación de Aplicaciones (Application Programming Interface).
Chatbot: es un sistema computacional cuyo objetivo es sostener una conversación con un usuario humano usando lenguaje natural, es decir el lenguaje que usamos diario a diario cuando hablamos con otras personas.
Python: Python es un lenguaje de programación flexible y diseñado para ser fácil de leer. Es un lenguaje orientado a objetos y de alto nivel.
Para comenzar el desarrollo del proyecto, fue necesario utilizar un chatbot rudimentario cuyo nombre es "ChatVoice". Este chatbot tenía las bases esenciales de un chatbot ya construidas, y, de igual manera, estaba programado para poder almacenar variables, como nombres, gustos, hechos, entre otras cosas más. La principal razón por la que se optó por utilizar un "esqueleto" ya producido fue el tiempo de duración de la estancia. Desarrollar un "esqueleto" propio habría relentizado el desarrollo del proyecto.
Para que ChatVoice pudiese actuar de la manera deseada - encontrar productos, comparar precios, indicar existencias, etc. - fue necesario realizar una API, o base de datos, que pudiese brindar al chatbot la información necesaria para operar en un supermercado, esto es, la lista de productos, su ubicación en la tienda, su existencia, entre otros detalles.
Por otro lado, no resultaría suficiente tener una base de datos con la cual el chatbot tuviese conocimiento, sino que se necesitaría un archivo que le pudiese brindar información sobre las costumbres y hábitos de escritura en los diversos países hispanohablantes. Es por ello que se escribió un archivo JSON que contuviera esos modismos entre países de habla hispana, por ejemplo, las diferencias de saludos y despedidas, las diversas maneras de preguntar sobre productos, entre otros modismos.
Código
La base de datos y el archivo de intercambio de datos (JSON) , al ser dos cosas independientes, se aunaron por medio de un código desarrollado en Python, el cual utilizó librerías diseñadas para el procesamiento del lenguaje natural (NLP por sus siglas en Inglés).
Específicamente, las librerías utilizadas fueron:
spaCy: es una biblioteca de procesamiento de lenguaje natural Python diseñada específicamente con el objetivo de ser una biblioteca útil para implementar sistemas listos para producción.
Esta librería se empleó para que el chatbot pudiese identificar el sustantivo en una oración y compararlo con los productos preestablecidos en la base de datos para poder a continuación brindar una respuesta al usuario.
NLTK: esta librería se empleó para segmentar o tokenizar las palabras que el usuario introdujera.
Ejemplo:
//Se tiene un texto como este: Hello, nice to meet you. Greetings. from nltk.tokenize import sent_tokenize mytext="Hello, nice to meet you. Greetings." print(sent_tokenize(mytext)) //La salida será la siguiente: ['Hello, nice to meet you.','Greetings.']
Se presentaron problemas de compatibilidad con el idioma español en la nueva versión de la librería spaCy. En su lugar, se trabajó con la versión anterior a la más reciente - versión 3.0 - .
CONCLUSIONES
A lo largo de la estancia, se adquirió nuevo conocimiento teórico y práctico sobre la creación de chatbots. No obstante, hay mucho conocimiento por abordar, por ejemplo, la implementación de redes neuronales (aprendizaje automático o Machine Learning), o la implementación del procesamiento del lenguaje natural, ambas desarrolladas por los estudiantes y no hechas previamente debido al tiempo que esas áreas de estudio requieren para ser implementadas de manera eficaz.
El chatbot asistente de compras logró mostrar un funcionamiento acorde a lo que se estaba esperando. El asistente puede resolver dudas y preguntas relacionadas a precios y localizaciones.
Este proyecto puede extenderse a más áreas, como a la asistencia en negocios de otra índole, como tiendas de ropa, o tiendas de videojuegos, ya que, lo único que se necesita es dotar al asistente con los detalles sobre cada artículo.
Bibliografía:
Barrera, A. (S/F). JSON: ¿Qué es y para qué sirve?. julio 21, 2021, de next_u. Sitio web: https://www.nextu.com/blog/que-es-json/
Datademia. (S/F). ¿Qué es Python?. julio 24, 2021, de Datademia Sitio web: https://datademia.es/blog/que-es-python
Mayo, M. (2018). Comenzando con spaCy para procesamiento de lenguaje natural. julio 25, 2021, de Ciencia y Datos Sitio web: https://medium.com/datos-y-ciencia/comenzando-con-spacy-para-procesamiento-de-lenguaje-natural-e8cf24a18a5a
Meza, V.(2017). ¿Qué es un chatbot?. julio 20, 2021, de Ivan Vladimir Meza Ruiz. Sitio web: https://turing.iimas.unam.mx/~ivanvladimir/page/curso_chatbots_s1/
Cortes Garcia Evelin Jazmin, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
MEJORAS EN LA CALIDAD EDUCATIVA EN NIVEL SUPERIOR Y ANáLISIS DE PROCESOS DE ADSORCIóN SUSTENTABLES
MEJORAS EN LA CALIDAD EDUCATIVA EN NIVEL SUPERIOR Y ANáLISIS DE PROCESOS DE ADSORCIóN SUSTENTABLES
Cortes Garcia Evelin Jazmin, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Durante la presente estancia se tuvo la oportunidad de abordar diferentes problemas por los que pasa la población en la actualidad.
Por un lado en el ámbito educativa, debido a la pandemia por COVID-19 los estudiantes se enfrentan con el problema de la ausencia de materiales no diseñados para la educación en línea lo que impacta en el proceso de aprendizaje del estudiante dando como resultado bajo rendimiento académico.
Por otro lado, en las últimas décadas, como resultado del rápido aumento de la población mundial, la cantidad de contaminantes que se descargan de las industrias en los sistemas de agua está aumentando, entre los contaminantes se encuentra a los colorantes cuyas propiedades representan un gran peligro para los ecosistemas y la salud humana.
METODOLOGÍA
Para mejorar la calidad educativa se contribuyó con la elaboración de modelos 3D que serán incluidos en una aplicación educativa y estará disponible para que los estudiantes la consulten y puedan mejorar la visualización del tema correspondiente.
Por comienzo se tomó el curso Designing for 3D Printing with Fusion 360 con la finalidad de aprender a utilizar el software de Fusion 360, los conocimientos adquiridos de estas sesiones se aplicaron en el modelado de figuras 3D a partir de imágenes seleccionadas del libro Quimica. La Ciencia Central. (12va Edición Theodore L. Brown), dichos modelos se sometieron a revisión y se hicieron las correcciones correspondientes para cumplir con el objetivo. En total se realizaron 18 figuras en tercera dimensión.
Asimismo, en el desarrollo de esta fase se elaboraron distintas infografías dirigidas principalmente a la comunidad estudiantil de nivel superior para cumplir con la divulación científica. Las infografías contenían información respecto a procesos de adsorción.
De acuerdo con el análisis del proceso de adsorción para la remoción de contamiantes en cuerpos de agua, se analizaron los datos extraídos del artículo Usability of activated carbon with well-developed mesoporous structure for the decontamination of malachite green from aquatic environments: kinetic, equilibrium and regeneration studies, el cual examina el potencial uso de carbón activado (TAC) producido en condiciones optimizadas a partir de residuos de procesamiento de tomate (TW) como adsorbente para la eliminación del tinte verde de malaquita (MG) de una solución acuosa. Se obtuvo la cinética de adsorción mediante un modelo basado en transferencia de masa externa, considerando una isoterma lineal.
CONCLUSIONES
Actualmente se cuenta con una gran variedad y disponibilidad de recursos electrónicos que nos permiten contribuir a la solución de problemas.
Con la contribución a la mejora de la calidad educativa miles de estudiantes tendrán acceso a una interacción significativa y será un paso que determinará el lanzamiento de más materiales educativos.
Con el análisis de procesos sustentables de adsorción será posible dar el seguimiento a la investigación y desarrollo de materiales adsorbentes que minimicen los riesgos ambientales.
Cortes Pinacho Yvette Paola, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales
EL APARATO FENOMENOLÓGICO, Y SU REPRESENTACIÓN CINEMATOGRÁFICA, ARQUITECTURA URBANISMO COLOMBIANO Y MEXICANO
EL APARATO FENOMENOLÓGICO, Y SU REPRESENTACIÓN CINEMATOGRÁFICA, ARQUITECTURA URBANISMO COLOMBIANO Y MEXICANO
Cortes Pinacho Yvette Paola, Universidad Autónoma Benito Juárez de Oaxaca. Pérez Pérez Nancy Elizabeth, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales
PLANTEAMIENTO DEL PROBLEMA
El cine ha sido una herramienta muy eficaz para poder desarrollar diferentes escenarios, que ayuden a captar la atención del espectador, desenvolviéndose desde los diferentes puntos como el espacio, la óptica el sonido, etc., además de ser un método de entretenimiento, este puede ayudar a la persona crear una cierta ideología acerca de diferentes contextos como son los espacios de cierto lugar, donde juega un papel muy importante la arquitectura para ambientar los lugares donde se desarrolle el largometraje sin embargo se pueden mostrar su manera de representar las realidades que se viven en ese lugar como en el caso de esta investigación que son los países de Colombia y México.
METODOLOGÍA
En este proyecto se apoyó a través de fichas de lectura del libro Fenomenología de los ambientes externos, donde se visualiza como influyen los espacios externos en la vida del individuo, al igual como se puede explotar para tener un mejor desarrollo en el aprendizaje y poder trabajar en un lugar adecuado tanto individual como en colaboración con otros individuos, después se elaboró fichas de seis películas que fueron el material base de esta investigación, tres de las cuales son desarrolladas en el país de Colombia y las otras tres de México, analizando arquitectónicamente el espacio de cada escenografía, como se llega representar la urbanización, sus texturas, colores, etc., por último se desarrollan láminas de presentación donde se visualicen gráficamente los puntos de análisis de las películas
CONCLUSIONES
Sin duda alguna el cine nos ayuda mucho para entender las realidades que hay en estos países, la cultura y las semejanzas que tenemos en estas, sin embargo también podemos ver las carencias que se afrontan en cada país, la línea marcada que hay de las clases sociales y como la arquitectura cambia muy radicalmente, esto nos pone a reflexionar que aún estamos muy lejanos de un país desarrollado y sustentable, debido a que se necesita inversiones pero es ahí donde se estancan todos los proyectos, el estado no ofrece el apoyo que realmente se necesita, entonces una manera de manifestar las situaciones de nuestros países es a través del cine, se debe fomentar el apoyo para no dejar en un simple formato nuestras futuras investigaciones
Cota Mexia Angel Guillermo, Universidad Autónoma de Occidente
Asesor:M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
Cota Mexia Angel Guillermo, Universidad Autónoma de Occidente. Martinez Alvarez Jose Paola, Universidad Autónoma de Occidente. Parra Polo Carlos Alberto, Corporación Politécnico de la Costa Atlántica. Pérez Luna Sophia Alexandra, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
RESUMEN
Durante los últimos años el sector de la mano factura ha experimentado un crecimiento significativo, siendo esta la razón por la que ha logrado sobresalir entre las demás industrias, lo que ha despertado la necesidad de estudiar como los cambios que han experimentado estas empresas en temas de mano de obra, logísticos, operativos y tecnológicos; influyen en el incremento de los índices de accidentalidad y enfermedad laboral dentro de estas organizaciones.
METODOLOGÍA
METODOLOGÍA
JUSTIFICACIÓN
Con el fin de garantizar información sobre cómo mantener un puestos de trabajo seguros, pero sobre todo para que los trabajadores cuenten con las herramientas necesarias que les permita hacer frente a cualquier situación que pueda generar accidentes o enfermedades laborales, permitiéndoles mitigar o eliminar sus consecuencias, por lo tanto; con esta propuesta se pretende dar a conocer algunas técnicas existentes en seguridad y salud en el trabajo sobre prevención de riesgos laborales y enfocarlas al sector manufacturero pero solo en empresas de confecciones en Colombia, con el fin de mejorar la seguridad y salud de los trabajadores de estas, logrando un mayor aprendizaje y empoderamiento de los mismos. Es por ello, que es necesario contar con recursos que permitan implementar cada una de las acciones definidas en el plan de trabajo, por lo que la gerencia en línea debe asignarlos. Los recursos que se requieren para ellos son: Talento humano: recurso fundamental para la administración del Sistema de Gestión y/o Plan de Trabajo definido para intervenir la población objeto de las empresas inmersas dentro del sector de mano factura. El talento humano debe contar concompetencias laborales y técnicas en temas de administración de riesgos y seguridad y salud en el trabajo. Tecnológicos: dada la eventualidad de salud pública que a nivel mundial estamos viviendo, se debe contar además, de los equipos (PC - Internet - Impresora) con los que se cuentan antes de la situación referida, contar con autorizaciones para el uso de plataformas digitales sencilla y versátiles que permitan llegar a cada uno de los trabajadores población objeto cuando las acciones sean del resorte virtual. Para las actividades presenciales, se debe contar adicional con equipos audiovisuales, salón, mesas, herramientas entre otros, para llegar a la población convocada. Financieros: disponer de recurso que permitan realizar compras de elementos de protección personal, adecuación de espacios, moviliario, entre otros elementos necesario para desarrollar de manera segura las actividades propias del trabajo.
CONCLUSIONES
CONCLUSIONES
Dentro de la presente investigación se pudo evidenciar que existen aspectos a mejorar con la finalidad de minimizar la ocurrencia de los accidentes de trabajos. Se identificó que en las operaciones del sector manufacturero, dado a sus actividades máquinas y uso de diferentes herramientas se presentan peligros inherentes al desarrollo de sus procesos, que podrían poner en riesgo la salud y la integridad de los trabajadores; por ende, es fundamental que los trabajadores tengan conocimiento de los riesgos a los que están expuesto en sus lugares de trabajo y cómo prevenir y controlar cada uno de ellos, para realizar la operación de manera segura y proteger su bienestar. Las empresas del sector manufacturero buscan constantemente en mejorar la eficiencia, eficacia y efectividad de sus operaciones, para lo cual es necesario estar apoyado en la seguridad y salud en el trabajo, es por ello que las empresas deben aprovechar el crecimiento en investigaciones y normatividad que les permita tener trabajadores que cuenten con las herramientas y los conocimientos necesarios para realizar su trabajo de manera segura, pero a su vez aportando al crecimiento del sector. Todo trabajador debe ser consciente que realizar actividades peligrosas o actividades que se desvíen de los controles o estándares que se hayan establecido por la organización, puede tener consecuencias que afecten su salud e incluso llegar al punto de perder su vida, y debe entender el impacto que esto podría reflejar a sus familias y círculo social, por lo tanto el autocuidado es la mejor opción para proteger su salud. Es importante que el trabajador no intente reparar daños eléctricos o mecánicos si no está autorizado y no cuenta con las habilidades, conocimientos y capacidades para hacerlo, en estos casos es recomendable que se informe al personal encargado de realizar ese tipo de actividades para no poner en peligro su salud. Es importante que los trabajadores durante la ejecución de todas sus actividades reporten a sus superiores todos aquellos cambios en la salud que puedan experimentar o aquellas anomalías que se puedan presentar al realizar sus actividades, para que de esta manera se puedan analizar las causas y establecer los cambios o los controles que se consideren correspondientes.
RECOMENDACIONES
Implementar un Programa de Mantenimiento Correctivo y Preventivo, para el manejo de máquinas y herramientas de trabajo. Planificación y estandarización de procesos en el área de mantenimiento (Procedimiento, Instructivos, Guías, Protocolos, Formatos etc.) Elaborar un Plan de Inducción y Reindución en donde se refleje las buenas practicas Autocuidado, Manejo de Cargas, Uso de EPP, Matriz de Riesgos laborales entre otros. Garantiza la eficacia de las capacitaciones Análisis y mejora de los flujos de trabajo (operaciones de trabajo y sitios de desarrollo)
BIBLIOGRAFIA
1. https://ipsnoticias.net/2018/04/seguridad-laboral-crece-america-latina-menos-para-lo s-jovenes/#:~:text=Cifras%20parciales%20disponibles%2C%20indican%20que,en% 20el%20sector%20de%20servicios.
2.https://www.uis.edu.co/intranet/calidad/documentos/capacitacion/Indicadores%20de %20gestion.pdf
3. https://www.ilo.org/global/about-theilo/newsroom/news/WCMS_008562/lang--es/index.htm
4. https://www.mayoristaindustrial.com/la-aplicacion-de-la-seguridad-industrial-enempresas-de-manufactura
Cristobal de la Cruz Estefanía, Universidad Politécnica de Tecámac
Asesor:Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac
GENERACIóN DE GRáFICOS DE ESTANCIAS Y ESTADíAS PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC.
GENERACIóN DE GRáFICOS DE ESTANCIAS Y ESTADíAS PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC.
Cristobal de la Cruz Estefanía, Universidad Politécnica de Tecámac. Hernandez Bautista Armando, Universidad Politécnica de Tecámac. Asesor: Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
En la Universidad Politécnica de Tecámac se ha implementado el sistema único de información escolar en donde se lleva un control de los estudiantes, pero no cuenta con un módulo para estancias y estadías donde se generen datos estadísticos, por lo que no se cuenta con la información automatizada de este proceso como la evaluación que la empresa realiza a los estudiantes, los cursos, el perfil de proyecto, la encuesta de satisfacción que los estudiantes realizan, etc.
La información de estancias y estadías de ha obtenido a través de archivos de Excel, y formularios que se exportan a Excel, en todos los archivos los datos se encuentran separados por períodos, cuando se desea realizar por ciclo escolar o por año, la información se trabaja con tablas dinámicas y después se unen los datos, haciendo muy tardado el proceso para obtener indicadores.
La información debe unificarse en un archivo que contenga todos los periodos y así obtener fácilmente las gráficas esperadas en este sistema.
METODOLOGÍA
En este proyecto se usó la metodología en cascada, en el análisis se realizó la revisión archivos en Excel de todos los periodos desde el año 2018 hasta el año 2020, se unificaron en cuanto a los campos que son necesarios para la obtención de las gráficas, se tomó como referencia de unificación un archivo del período Septiembre-Diciembre-2020 para que todos los demás tuvieran la misma información.
Al tener todos los documentos unificados con ayuda de la ingeniería inversa, se realizó el diseño de la base de datos para este sistema, contemplando los campos que son necesarios, para luego hacer la implementación en el gestor de base de datos SQL Server.
En el diseño se creó el proyecto en el entorno de desarrollo Visual Studio para la elaboración de las vistas que permitirán hacer la importación de los archivos desde Excel a la base de datos en SQL Server para la importación de la base de datos con la ayuda de Entity Framework para la creación de los modelos en el proyecto y para realizar la conexión y el manejo de los datos en la Base de Datos diseñada en este proyecto.
En el desarrollo del proyecto se realizó la programación para la realización de las gráficas que mostrarán la representación visual de los datos que se encuentran en la base de datos como las gráficas de los alumnos que iniciaron y concluyeron las estancias por etapa, por periodo generando indicadores de efectividad; gráficas de las encuesta de satisfacción de los estudiantes generando los indicadores de satisfacción; gráficas de los datos capturados por los empresarios como de integridad y ética de los estudiantes, y gráficas del perfil de los proyectos.
Se realizaron las pruebas y se revisaron las gráficas con los datos de la base de datos.
CONCLUSIONES
Durante esta estancia de verano se lograron generar los gráficos por ciclo escolar, carrera, períodos y etapas de estudiantes que iniciaron y concluyeron las Estancias y Estadías en diferentes periodos en la Universidad politécnica de Tecámac, usando la Base de Datos generada para este sistema.
Se espera que este proyecto contribuya a las Estancias y Estadías de la Universidad como aportación de este XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, para que facilite la implementación en el sistema que actualmente se maneja en esta casa de estudios.
Cruz Agüero Chanel Abigail, Instituto Tecnológico de Ciudad Juárez
Asesor:Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
LOGíSTICA DE TRANSPORTE DE COMBUSTIBLES LíQUIDOS.
LOGíSTICA DE TRANSPORTE DE COMBUSTIBLES LíQUIDOS.
Alvarado Andalon Noe Jesus, Instituto Tecnológico de Sonora. Cruz Agüero Chanel Abigail, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Logística de transporte de combustibles líquidos.
Asesor: Dr. Jairo Rafael Coronado Hernández, Universidad de la costa
Estudiante: Chanel Abigail Cruz Agüero, Instituto Tecnológico de Ciudad Juárez
Noé Jesús Alvarado Andalón, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
La mala implementación de estrategias enfocadas a la logística de los líquidos combustibles en las estaciones de servicio, las cuales afectan principalmente al vendedor y al consumidor final, han ocasionado consecuencias negativas para las dos partes involucradas.
Algunas de ellas que se suelen presentar en este tipo de problemas y que a menudo se ven son:
Afectación en la calidad del servicio
Perdida de dinero
Pérdida de tiempo
Mala optimización de recursos
Creación de mala reputación y malas calificaciones para el propietario/a de las estaciones de servicio
Hoy en dia es algo muy común cuando no se tiene o no se logra un adecuado manejo de la logística, es por ello que se debe estudiar muy a fondo lo que se quiere lograr a ser y seleccionar adecuadamente las estrategias que presenten soluciones óptimas para la problemática, durante este verano de investigación se propondrán estrategias que cumplan con este requisito para resolver la problemática mencionada anteriormente.
METODOLOGÍA
METODOLOGÍA
Los flujos de hidrocarburos entre México y Colombia han contribuido a la seguridad energética de los dos países. Se trata de corrientes comerciales de magnitudes significativas para ambos. México ha sido por muchos años uno de los tres principales suministradores de petróleo crudo importado de Estados Unidos.
No obstante, la magnitud de estos flujos, su importancia relativa ha decrecido frente a la rápida expansión del comercio no petrolero entre los dos países.
El análisis de estos suministros debe hacerse en el contexto de consideraciones más amplias de seguridad energética. Esta se define usualmente en términos de la disponibilidad confiable y suficiente de energía a precios razonables.
La posibilidad de una alta y creciente dependencia en las importaciones de gas obliga a adoptar una perspectiva de país importador muy distinta a la que se tiene como exportador de petróleo. Este cambio no es fácil dado que México ha sido un país autosuficiente en gas natural, salvo por muy breves periodos.
Con la información pública disponible es difícil determinar la trayectoria probable de la producción a mediano plazo. Sin embargo, las metas adoptadas por Pemex justifican una cierta dosis de escepticismo. Alcanzar una producción de 7 mil millones de pies cúbicos diarios (mmmpcd) en el año 2006 según fuentes de información, a partir de una producción del orden de 4.5 mmmpcd en 2003, es un objetivo excesivamente ambicioso. Se trata de un incremento de 56 por ciento en el próximo trienio. En promedio habría que aumentar la producción en más de 800 millones de pies cúbicos diarios (mmpcd) cada año en términos netos.
El costo incremental de la diversificación puede ser visto como la prima de un seguro que cubre los riesgos asociados al suministro de gas. El análisis de la decisión de diversificar no es sencillo y su resultado depende del contexto en el que ésta se toma. Igualmente, difícil es la selección de alternativas. En el caso de México la propuesta de diversificación basada en plantas que queman carbón importado es un tanto sorprendente, dada la dotación de petróleo y el impacto positivo que tiene la absorción de combustóleo en el mercado interno sobre el precio de exportación del petróleo crudo pesado.
Es crucial contar con capacidad suficiente y oportuna de transporte y distribución de gas. La puesta en operación de nuevos ductos de la frontera a Monterrey, de Reynosa a San Fernando y de otros de menor tamaño en la región fronteriza deberá ser complementada con la ampliación del gasoducto de 5 Ciudad Juárez al sur de Chihuahua. Todos estos ductos han sido construidos por particulares o son el fruto de una coinversión con Pemex Gas. Valdría la pena considerar la construcción de un ducto adicional que uniera directamente el norte. Asimismo, es necesario ampliar la capacidad de transporte de los ductos existentes mediante la incorporación de unidades adicionales de compresión. El esfuerzo requerido puede ser hecho por el sector privado. Estas inversiones complementarias aumentarían la confiabilidad de la red nacional de gasoductos y su rentabilidad. Convendrá también construir terminales de regasificación para poder descargar gas natural licuado en ambas costas del territorio nacional.
En suma, la seguridad de suministro de gas natural importado se verá fortalecida mediante la diversificación de fuentes, rutas de transporte y agentes económicos; el fortalecimiento del sistema de gasoductos de México y sus interconexiones con la red norteamericana; la construcción de plantas de regasificación; y la construcción de capacidad de almacenamiento. El marco regulatorio vigente permite y promueve la inversión privada en estos rubros. Se ha avanzado en todos menos en uno de ellos. Restablecer y calibrar el régimen de precios regulados alentará la competencia y esta, a su vez, contribuirá a una mayor confiabilidad del suministro de gas para lo gasoductos.
CONCLUSIONES
CONCLUSIONES
Actualmente la investigación se encuentra aún en desarrollo, consta de 5 etapas y se está en la 4 etapa la cual es; simulación de las estrategias propuestas por el equipo a través de un software.
Se espera que con los resultados obtenidos se pueda cumplir con el objetivo principal, el cual es obtener una optimización en el abastecimiento de combustibles líquidos en las estaciones de servicio, eliminando así la problemática y por lo tanto también las variantes negativas de esta.
Como conclusión del equipo puede decir que durante esta estancia, se pudo obtener conocimientos teóricos más profundos en cuestión de la logística (en este caso de los líquidos combustibles) y por otro lado cada integrante reforzó la habilidad del trabajo en equipo.
Cruz Cabrera Yulissa, Universidad de Sonora
Asesor:Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
EVALUACIóN DE PAVIMENTO A BASE DE RAP POR MEDIO DEL IMT-PAVE PARA SU USO EN LA CIUDAD DE URUAPAN.
EVALUACIóN DE PAVIMENTO A BASE DE RAP POR MEDIO DEL IMT-PAVE PARA SU USO EN LA CIUDAD DE URUAPAN.
Cruz Cabrera Yulissa, Universidad de Sonora. Asesor: Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Los pavimentos en las calles o carreteras es de suma importancia, ya que su principal función es el paso de los diferentes tipos de vehículos y personas de una forma segura. Estos permite la accesibilidad y movilidad en dichas zonas, lo cual trae beneficios como un mayor flujo de mercancías, visitantes, la práctica de nuevas actividades relacionadas con el comercio y la generación de más recursos económicos, etc.
Es por ello que muy es indispensable poder contar con un excelente diseño de estos mismos, con una excelente calidad para poder obtener obras de primer nivel.
Actualmente el pavimento flexible de la vialidad de estudio que se encuentra ubicada en la ciudad de Uruapan Michoacán, sobre la Calzada la Fuente es muy concurrida, y su vida de diseño ya fue completada, por lo que es necesario volver a diseñar para darle el mantenimiento correcto y la reestructuración adecuada, con el fin de reducir los tiempos de traslado y poder brindar total eficiencia y seguridad.
METODOLOGÍA
Para realizar el diseño de pavimento flexible se hizo uso de un aforo vehicular manual en un lapso de 17 días, donde se acudió a la vialidad Calzada las Fuentes, en donde se realizó un conteo visual en cada hora , por medio de esta actividad se clasificaban los tipos de vehículos que transitaban, por ejemplo: A2, B2, B3, C2, C3, T3-S2, T3-S3, T3-S2-R4.
En base al aforo realizado se hicieron estadísticas y comparativas (por medio de tablas y gráficos ) del comportamiento del tránsito por día, para poder encontrar específicamente el día y las horas en donde el transito fue más frecuente y así poder determinar el TDPA (Tránsito Diario Promedio Anual) con el cual se realizan los diseños del pavimento .
Una vez encontrado el TDPA , se obtuvieron los porcentajes de los tipos de vehículos, los cuales son de suma importancia al momento de llenar el programa IMT-PAVE.
Teniendo los datos anteriores, podemos hacer uso de IMT-PAVE, en donde hay cuatro secciones que deberán ser debidamente llenadas: tránsito , espectro de carga, análisis espectral y análisis probabilista.
Para el caso del tránsito se llenó principalmente el TDPA y después las casillas de : factores de distribución, horizonte de proyecto y la clasificación vehicular.
Lista la sección de tránsito se realizó el espectro de carga en donde se eligió el nivel de carga ( puede ser legal, ligera sobrecarga, alta sobrecarga, muy alta sobrecarga o avanzado).
En análisis espectral se determinan las capas que tendrá el pavimento a diseñar, donde se eligió cuantas y que tipo de capas y sus respectivos espesores con sus módulos de resiliencia, siempre haciendo uso de las normas del IMT y AASHTO en donde se encuentran las características y especificaciones de los materiales que se usaron en las capas, dichas normas son las siguientes:
N-CMT-1-01-16, N-CMT-1-03-02, N-CMT-4-02-001, N-CMT-4-02-002-20. Todo esto con el fin de ejecutar el análisis y así se obtener los resultados los cuales deben ser mayor a los datos que se habían especificado de horizonte de proyecto.
Por último se realiza el análisis probabilista en donde se modifica el coeficiente de variación para cada capa de pavimento, también se elige el porcentaje de confiabilidad, donde se recomienda que se encuentre entre 85% y 100%, luego se ejecuta para este caso el análisis y se obtienen nuevamente los resultados los cuales también deben ser mayor a los datos que se habían especificado de horizonte de proyecto.
Cumpliendo con todo lo anterior, se concluye con un diseño de pavimento optimo y con las características necesarias para nuestro TDPA y horizonte de proyecto especificado .
CONCLUSIONES
Durante este verano de investigación se logró adquirir distintos conocimientos teóricos y prácticos, así como el aprendizaje del uso del programa de IMT-PAVE y de las normas de IMT Y AASHTO para el diseño de pavimentos flexibles con diferentes capas según sea la elección, sin embargo, es muy extenso y pueden variar las capas y sus características, es por ello que se espera próximamente elegir aquel diseño que cumpla con el horizonte de proyecto solicitado, y sobre todo el diseño más económico pero al mismo tiempo el mas efectivo.
Cruz Carballo Sergio, Instituto Tecnológico de Reynosa
Asesor:Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
KUZLOGROUNDS
"CONSTRUCCIóN DE AMBIENTES EN ESPACIOS DE REALIDAD AUMENTADA”
KUZLOGROUNDS
"CONSTRUCCIóN DE AMBIENTES EN ESPACIOS DE REALIDAD AUMENTADA”
Cruz Carballo Sergio, Instituto Tecnológico de Reynosa. Lara Carpio Yeira Alejandra, Instituto Tecnológico de Reynosa. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Actualmente, existen diversas aplicaciones de Realidad Aumentada, las cuales realizan funciones como proyectar elementos como electrodomésticos, planos de edificios, entre otros en un ambiente 3D. Además, en México son poco conocidas por sus limitaciones y su inaccesibilidad por la brecha generacional de los dispositivos con los que contamos en la actualidad.
Por consiguiente, no hay tantas aplicaciones extensivas de Realidad Aumentada creadas para dar un uso más amplio a la materia de construcción y modelaje de oficinas u hogares.
METODOLOGÍA
Con base a los libros troquelados, los cuáles, son obras que fueron utilizadas esencialmente para ilustrar de forma dinámica e interactiva cuentos tradicionales representándolos en 3D.
En sí, los libros troquelados son los predecesores de la Realidad Aumentada, por lo que, en la actualidad se utilizan para una visualización directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta en tiempo real.
Se realizó la aplicación de KUZLOGROUNDS, para probar nuevos diseños (muebles, puertas, ventanas, buros, entre otros) sin la necesidad de ir a los establecimientos.
Utilizando el programa de juego Unity para desarrollar la aplicación en lenguaje C# para la estructura de la app y en Blender el modelado y diseño de los assets (muebles, puertas, ventanas, buros, entre otros).
Se inició usando la extensión de Vuforia, la cual, consiste en escaneo de imágenes dentro de una base de datos en línea, para el funcionamiento de la aplicación. A lo largo del proceso de pruebas con Vuforia, se utilizaron imágenes para tener un mayor reconocimiento frontal de la aplicación. Todo lo anterior se realizó para entender las ideas principales.
Durante las pruebas en la plataforma de Vuforia, se detectaron limitaciones como poco manejo del HUD (es la visualización del usuario con la cual maneja el programa) apropiado. Por lo cual, se optó por cambiar a la plataforma de AR Fundation, la cual, funciona con el lenguaje de programación C# de Unity, con el fin de brindar un mayor desempeño a la hora de las pruebas.
Al realizar pruebas con AR Fundation sirvió para desarrollar planos, para poder colocar los objetos. De igual manera, se puede añadir un puntero o con clic en cualquier parte de la pantalla, para colocar dicho objeto.
Por otro lado, se comenzó por diseñar/rediseñar modelos en el software de AutoCAD, debido a lo cual, esta herramienta alargó el proceso de diseño, por lo que se cambió de software a Blender. Blender es una herramienta más accesible para diseñar/rediseñar diversos modelos (muebles, paredes, ventanas, sillas, puertas, mesas, entre otros).
Una vez reforzada la estructura, se detectaron fallas en el código, las cuales, se corrigieron dentro de Visual Studio (Lenguaje C#).
Es importante mencionar, que las pruebas terminadas con la aplicación pueden ejecutar diseños dentro de un espacio de Realidad Aumentada, con la finalidad, de realizar planos de hogares u oficinas con una precisión aceptable.
CONCLUSIONES
Aprendimos el diseño de modelos en Blender para la utilización en diferentes aplicaciones, además de aprender sobre todo el diseño, exportación y manejo de aplicaciones de Realidad Aumentada dentro de Unity. Consiguiendo con estas 2 habilidades nuevas el desarrollo de una aplicación de Realidad Aumentada, con la cual se pueden diseñar estructuras de hogares u oficinas o espacios donde se pueda usar acorde a las necesidades del usuario.
Cruz Cardenas Jose Nathaniel, Instituto Tecnológico de Chilpancingo
Asesor:Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
IMPLEMENTACIóN DE RED NEURONAL
IMPLEMENTACIóN DE RED NEURONAL
Aguilar Mendoza Felix Nemecio, Instituto Tecnológico de Chilpancingo. Cruz Cardenas Jose Nathaniel, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La gran diversidad de plantas ornato en el mundo resulta un desafío para poder identificar con exactitud cada una de estas plantas incluso para personas que están entrenadas en el campo de la botánica, debido a la inmensa cantidad de información que se puede obtener de las plantas es imposible para un ser humano poder acceder a esa información de forma inmediata y trabajar con ella.
METODOLOGÍA
Este texto expone el proceso de investigación que realizamos para el desarrollo de la red neuronal, comenzamos nuestra investigación aclarando algunas preguntas como, por ejemplo: ¿qué es una red neuronal?, ¿qué aplicaciones tienen una red neuronal?, ¿cómo está formada una red neuronal? y ¿cuáles son las mejores herramientas para el desarrollo de una red neuronal?, consultamos en fuentes de información a nuestro alcance.
Con una idea clara de que lo es una red neuronal, el alcance que esta puede tener, así como, de nuestro conocimiento y habilidad actual, definimos que nuestro proyecto sería capaz de identificar si una planta pertenece al grupo de las angiospermas o gimnospermas, mediante una imagen.
Para lograr el completo desarrollo del proyecto comenzamos por sugerencia del nuestro asesor el Dr. Juan Antonio Aguilar Rodríguez, con nuestro primer encuentro con el lenguaje de Python mediante una herramienta de Google llamada Colaboratory, la cual nos permite escribir y documentar código Python sin necesidad de instalar ningún software en nuestro equipo.
Investigando sobre algún proyecto parecido, encontramos un notebook en Colaboratory (véase Anexo 1), el cual podía identificar una planta dentro de una imagen, este proyecto hacia uso de librerías que nos facilitaría el trabajo de la creación de modelos de redes neuronales, así como de su entrenamiento, las librerías de las que hablamos son; TensorFlow, la cual es una librería de código abierto desarrollada por Google, de aprendizaje automático atreves de tareas, esto para entrenar redes neuronales que puedan detectar y descifrar patrones y correlaciones y Keras, esta es una librería de código abierto escrita en Python, capaz de crear modelos de aprendizaje sobre TensorFLow.
Durante la investigación de mas proyectos parecido encontramos otro proyecto de una red neuronal capaz de identificar ropa por medio de imágenes (véase Anexo 2), lo desarrollamos como practica y al ver que tenía una gran similitud con lo que buscábamos desarrolla decidimos tomarlo como base, cambiando su entrenamiento para que, en lugar de identificar ropa, identificara flores.
Nuestra Inteligencia Artificial busca identificar si una planta es angiosperma o gimnosperma y de manera simple, la diferencia entre estos 2 tipos es que, las angiospermas tiene flores y las gimnospermas no las tienen, siendo las flores el patrón que la red neuronal debe buscar para poder clasificar la planta. Ya que lo que buscamos hacer es una red neuronal capaz de clasificar imágenes, usaremos una red neuronal convolucional.
Las redes Neuronales Convolucionales (CNN) son es un tipo de Red Neuronal Artificial con aprendizaje supervisado que procesa sus capas imitando al ojo humano para identificar distintas características en las entradas que hacen que pueda identificar objetos y ver. Para ello, la CNN contiene varias capas ocultas especializadas y con una jerarquía: esto quiere decir que las primeras capas pueden detectar líneas, curvas y se van especializando hasta llegar a capas más profundas que reconocen formas complejas como un rostro o la silueta de un animal.
La detección de un objeto para la red neuronal, será realizada por medio de las Convoluciones. es decir, tomar grupos de pixeles cercanos de la imagen de entrada e ir operando matemáticamente (producto escalar) contra una pequeña matriz de tamaño 3×3 pixeles llamada Kernel que recorre toda la imagen de entrada, con esto vamos generando una nueva imagen filtrada por el kernel, esta nueva imagen es que resalta ciertas características de la imagen original, esto para poder distinguir un objeto de otro.
El primer paso en el desarrollo y entrenamiento de nuestra inteligencia artificial, fue con la descarga y extracción del dataset de imágenes dentro de un archivo comprimido .zip.
Lo siguiente fue modificar el tamaño de las imágenes, así como de su coloración y pixelado, todo esto dentro de un bucle for, el cual itera sobre todas las imágenes del dataset, y guardando las nuevas imágenes en un arreglo, seguido se genera un arreglo de etiquetas para la identificación de las fotografías con los valores de 0 y 1 dependiendo de la cantidad de imágenes de flores que hay.
Posteriormente se genera una segunda etiqueta que muestra el nombre de la flor, en nuestro caso toma el valor de Rosa o Girasol, seguido a esto, cada imagen se la asigna su etiqueta donde le da su nombre ya sea una rosa o un girasol
Lo siguiente fue realizar las importaciones de las librerías TensorFlow y Keras, para comenzar con el entrenamiento de la red neuronal, el entrenamiento que recibió fue de 30 iteraciones
La fase final es tomar de manera aleatoria una imagen dentro de la base de datos y espera la predicción de nuestra red neuronal, como última prueba tomas una imagen externa y después de que esta fuera redimensiona y editada, se hace la predicción con el modelo que se está utilizando de la red neuronal
CONCLUSIONES
Con la finalización de este proyecto logramos desarrollar nuestra primera inteligencia artificial, la cual es capaz de identificar a que grupo pertenece la planta de una imagen.
Nuestro principal interés para el desarrollo de este proyecto fue académico, siendo el querer conocer más acerca de las inteligencias artificiales, que hoy en día cada vez están más presentes en nuestra vida cotidiana, y con todo lo que tuvimos que investigar por nuestra cuanta, lo que nuestro asesor nos recomendaba y lo que experimentamos durante el desarrollo de la inteligencia, consideramos que nuestro entendimiento de cómo desarrollar una inteligencia artificial aumento bastante.
Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional
Asesor:M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
DISPOSITIVO MICROSIMULADOR PROTÉSICO
DISPOSITIVO MICROSIMULADOR PROTÉSICO
Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional. Gutiérrez Valdez Steven, Instituto Politécnico Nacional. Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En la década de los años 70, los materiales utilizados para manufacturar prótesis eran de naturaleza industrial, los cuales no estaban hechos para ese propósito en particular y presentaban desperfectos causando reacciones adversas en los pacientes; posteriormente se empezaron a diseñar, fabricar y procesar materiales con la finalidad de tener una aplicación en el campo médico y se les dio el nombre de biomateriales (Duffo, 2011).
El desarrollo, implementación o mejoras en un biomaterial exige rigurosos protocolos de investigación para definir sus propiedades necesarias con la finalidad de que sea adecuado en la sustitución de tejidos y que sean fiables para ser implantados en el cuerpo de un individuo. Estos deben tener un carácter inerte o bioactivo, y sus productos de degradación no deben originar toxicidad o reacciones adversas en el cuerpo del paciente. En cualquier caso, todo biomaterial debe tener características biocompatibles tanto mecánica y médicamente.
La tribología es el estudio de la fricción, desgaste y lubricación durante la interacción de las superficies en movimiento (Jin & Fisher, 2014). Cuando una prótesis se encuentra dentro del cuerpo es sometida a esfuerzos mecánicos, rozamientos y además sus componentes están inmersos en fluidos corporales que pueden generar desgate de los materiales, ante esas situaciones los estudios tribológicos son de utilidad. Los materiales son sometidos a estas pruebas y a través de los resultados se estiman sus características físicas.
METODOLOGÍA
Los sistemas de simulación de prótesis son ampliamente utilizados para analizar el comportamiento de las prótesis en un ambiente controlado y evaluar el comportamiento de los biomateriales por medio de ensayos tribológicos. El presente trabajo desarrolla una aplicación móvil la cual es capaz de monitorizar la temperatura del ambiente y controlar el movimiento angular del servomotor encargado de emular el movimiento al que estaría sometido el biomaterial.
Con la herramienta open-source software llamada MIT App Inventor, la cual permite el desarrollo de aplicaciones la cual es capaz de monitorizar la temperatura del sistema controlado a través de un sensor de temperatura LM35 que emite una señal analógica de voltaje que es proporcional a la temperatura del ambiente, en este sensor 10mV equivale a 1oC, su rango de funcionamiento abarca un rango que va desde los -55oC a 150ºC.
El motor utilizado es del tipo servomotor, el cual está compuesto por juegos de engranajes, alimentado por corriente continua, para potenciar el torque del motor y permitir mantener una posición fija. La característica que más destaca de los servomotores es su capacidad de controlar la posición, moviéndose cierta cantidad de grados en un eje. Para controlar la posición del motor se utiliza un PMW por sus siglas en inglés (Pulse Width Modulation), el cual consiste en enviar pulsos eléctricos de ancho variable, la posición se determina basado en la duración del pulso que hará moverse al juego de engranes y llevara el motor al ángulo deseado.
La programación del sistema se realizo utilizando un Arduino UNO y el envío de datos de temperatura y posición del motor se hace con un módulo Bluetooth HC-05 para que sea un sistema inalámbrico cuyo control se realiza a través de la aplicación.
CONCLUSIONES
Finalmente, explicado lo anterior se busca que el motor del sistema sea controlado por medio de la temperatura, es decir el movimiento se suspenderá al alcanzar temperatura fuera del rango 36ºC a 39.5ºC ya que se pretende simular las condiciones del medio fisiológico. Como entregables se generaron un manual de usuario el cual explica de manera detallada como manejar la aplicación y el manual de desarrollador el cual despliega el completo funcionamiento de la programación de la aplicación.
Referencias
Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Morán, D., Navarro, N., García, N., & Caballero, R. (2011). Articulo Protcad. v. https://sudocument.ulpgc.es/bitstream/10553/6318/1/0514198_00025_0003.pdf
Román García, J. L., & Pérez Rojo, B. (2010). Biomateriales. Aplicación a cirugía ortopédica y traumatológica. Univerisad Carlos III de Madrid, 1-2.Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Jin, Z., & Fisher, J. (2014). Tribology in joint replacement. In Joint Replacement Technology. https://doi.org/10.1533/9780857098474.1.31
Wisniew, T., Mroz A. (2016) Stand for Trobological Testing of hip endoporostheses. Tribologia, 167.
Cruz Cruz Isabel, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango
AGUAS PLUVIALES
AGUAS PLUVIALES
Cruz Cruz Isabel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
En las instalaciones del INSTITUTO TECNOLOGICO SUPERIOR DE HUAUCHINANGO propenden por el aprovechamiento de aguas pluviales para su uso como su utilización para usos domésticos (sanitarios, orinales, labores de aseo o riego), hay un componente que resulta sino el más importante, por lo menos el que amerita una mayor atención en su dimensionamiento como lo es el tanque de almacenamiento de aguas pluviales, el cual, haciendo un símil, puede ser el corazón del sistema, ya que en éste dimensionamiento intervienen numerosas variables, que van desde la ubicación del proyecto, en lo que respecta con las condiciones hidrológicas de la zona; condiciones propias del diseño, como el tipo de cubiertas, la ubicación espacial del tanque; hasta la demanda de agua. (Reyes, 2014)
En la actualidad aun se tiene la creencia de que el agua es un recurso renovable, pero esta no es más que una mala interpretación del ciclo hidrológico, de igual manera, aunque el agua se encuentre en la tierra cambiando de estados en la misma cantidad, se excluye de este planteamiento la calidad del recurso hídrico.
Este concepto se considera errado si se tiene presente que el tiempo de contaminación de las fuentes es mucho mayor al tiempo de renovación de los cuerpos de agua, por lo cual se crea en las poblaciones falsas ilusiones que generan despilfarros e inadecuados usos del recurso hídrico. Resaltando de esta problemática uno de los factores que más se destaca es su posible uso, en los cuales se emplea una mayor cantidad comparada con la verdadera consumida por la población estudiantil.
Se plantea en este trabajo la realización de un modelo físico, generando un ahorro y optimizando del consumo de agua potable en el INSTITUTO TECNOLOGICO SUPERIOR DE HUAUCHINANGO, para lograr crear un amortiguador a los impactos que últimamente se están viendo reflejados en la disminución de tal vital liquido esto ayuda específicamente el entorno del instituto para lograr ser una facultad sostenible generando nuevas adecuaciones a los sistemas de distribución para un adecuado manejo y el sostenimiento ambiental con el agua.
Se tiene un concepto de que se consume 150 litros diarios entre lo que se destina al inodoro, el lavado, la limpieza general o el riego, lo que significa que se podría utilizar para todos estos usos el agua de lluvia. Pensando también en la gran cantidad de líquido potable que se necesita para abastecer y suplir las actividades diarias necesarias para el buen funcionamiento de la Universidad. Con referencia en las siguientes normas mexicanas para el cumplimiento de las aguas pluviales:
NOM-003-SEMARNAT-1997, reúso de aguas tratadas.
NOM-0127-SSA1-1994 agua para uso y consumo humano
NOM-015-CONAGUA-2007 infiltración de aguas de lluvia (CONAGUA, s.f.)
Norma NTC 1500 para el diseño de red de distribución para edificaciones de Universidades el consumo de agua es de 50 L/est. /día, lo cual, si manejamos en promedio una población de 750 estudiantes, se obtiene un caudal de consumo diario de 37.500 litros/día, por lo cual se estima que realizando el reusó de aguas lluvia se podría suplir un porcentaje de este consumo. Por ejemplo, un chubasco o precipitación de lluvia de 30 litros/m2 y sobre una superficie de recolección de 150 m2puede llegar a captar 4.500 litros de agua que además al no contener cal, sería perfecta para tuberías y desagües de lavados, riego y abasto de sanitarios. Lo cual brindaría al Instituto una herramienta sostenible, estableciéndola en una excelente posición a los cambios ambientales. (Forero, 2017)
METODOLOGÍA
METODOLOGIA
Diagnóstico de áreas de captación e infraestructura existente.
Permite determinar el volumen de agua de lluvia que puede ser captado y aprovechado de acuerdo con las condiciones de lluvia del lugar, el área de captación disponible, así como las instalaciones de drenaje y almacenamiento en sitio. Si contamos con información de los consumos y usos del agua, podemos especificar el volumen que puede ser remplazado; y si contamos con la tarifa podemos estimar los ahorros obtenidos por INEGI. (INEGI, 2021)
Para analizar el potencial del proyecto de recuperacion,requerimos la siguiente informacion:
Ubicacion exacta del sitio
Plano de conjunto AutoCAD
Tanque o cisternas que se puede utilizar, ubicacion en plano y capacidad.
Simulacion sintetica de 10000 muestras.
Introducción al sistema de captación de lluvia
Se estima que la captación de lluvia ha existido desde que el ser humano comenzó a migrar y habitar zonas áridas, donde el agua superficial es escasa en el medio oriente.
Para ello se contemplo ciertos puntos que ayudaran a la institución a llevar a cabo para la captación de agua por medio de un modelo (tlaloque) inventada por Enrique Lomtinz. A continuación de mencionan los puntos importantes para nuestro proyecto.
1-Diseño de equipos.
Filtracion
Eficiencia
Grado de captación
Instalación de filtros
Mantenimiento
Demanda
Oferta
Dimensiones del deposito de recogida de pluviales.
2- Modelo- Tlaloque®
-Propuesta
-Operación
-Mantenimiento
CONCLUSIONES
Se podría decir que la captación de aguas pluviales es una forma de ecológica, gratuito y sencillo de poder reutilizar esas aguas y cuidar el medio ambiente. También se observa que las lluvias elevadas, a partir de 20mm/h aproximadamente, se producen, con núcleos con temperaturas entre -40°C y -75°C, situadas media hora antes de la lluvia alrededor.
Los sistemas de captación de agua de lluvia, teniendo en cuenta su diversidad, tuvieron gran difusión en tiempos ancestrales, pudiéndolos encontrar en Europa, América, Asia y África, sobre todo en las regiones con escasez. Los usos más frecuentes a los que se destinó este recurso fueron doméstico, consumo humano y agrícola, tanto en zonas rurales como urbanas.
Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Elvis Coutiño Moreno, Tecnológico de Estudios Superiores de Jocotitlán
ESTUDIO DE LOS MECANISMOS FLEXIBLES (COMPLIANT MECHANISM) PARA EL DESARROLLO DE APLICACIONES EN LA BIOMECATRóNICA.
ESTUDIO DE LOS MECANISMOS FLEXIBLES (COMPLIANT MECHANISM) PARA EL DESARROLLO DE APLICACIONES EN LA BIOMECATRóNICA.
Cruz Diaz Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Elvis Coutiño Moreno, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
La razón por la que se realizó este trabajo está orientada hacia la magnitud de un problema de salud pública existente y real en nuestro país ya que se estima que, de los 31.5 millones de hogares del país, en 6.1 millones vive al menos una persona con discapacidad (19 de cada 100), en 78% de ellos hay una persona con discapacidad, en 18% dos personas y en 3% tres o más (INEGI 2012), sumado a esto las dificultades para caminar son el tipo de discapacidad más frecuente (64%) (INEGI 2012), ante esta problemática se sabe que se realizan alrededor de 75 amputaciones diarias en nuestro país, un aproximado de 25 000 personas sufren una amputación de sus extremidades en forma anual por lo que claramente se ve reflejado un interés por el bienestar de nuestros iguales en cuanto a rehabilitación física, emocional y social con el afán de mejorar la calidad de vida de nuestro país, para ello, los avances tecnológicos y la creación de nuevos materiales han mejorado la creación de prótesis de miembros con la finalidad de permitir que la implantación y adaptación sea cada vez más eficiente permitiendo que la o las personas tengan una mejor y más rápida rehabilitación, por lo que durante este verano de investigación se estudian los resultados del proyecto sobre Metodología de Optimización Topológica y Mecanismos Flexibles.
METODOLOGÍA
Se tomó en cuenta un procedimiento sistemático conocido como metodología de diseño usando las dimensiones físicas de mi pie simulando la falta de este, por lo que se usaron las medidas necesarias para simular la carga de tipo fuerza que se aplica en la sección transversal de la parte correspondiente a la tibia y peroné por encima del tobillo haciendo alusión a la falta del pie a partir de este punto el cual se encuentra a una altura de 14 cm tomada desde la planta del pie, la sección transversal se tomó como un círculo de 7.48 cm de diámetro.
Para el modelo 1 se realizó el primer boceto en un prisma rectangular, este consiste en apoyos en base a la adecuación geométrica del talón y los dedos del pie y la carga aplicada, se bosquejó en una hoja la silueta del pie para ser parametrizada, posteriormente en el entorno de diseño de SolidWorks se creó nuevamente esta parametrización respetando la geometría del pie.
El siguiente paso fue ingresar los puntos fijos, la carga y el mallado para posteriormente ejecutar la optimización topológica, al aplicar un estudio estático adecuando el entorno de simulación SolidWorks para calcular los desplazamientos resultantes se pudo apreciar que fue mínimo el desplazamiento que se llevó a cabo para el prisma, así que se ejecutó el estudio topológico donde aplicamos una restricción de desplazamiento con un factor de 1.3 así como un control de desmoldeo tomando en cuenta el plano medio con el que la pieza fue creada, hecho esto, se optó por especificar el plano de simetría tomando en cuenta la opción de media simetría y el plano alzado el cual es el plano intermedio en la pieza, al mallar la pieza nuevamente tomamos en cuenta una malla basada en curvatura para evitar problemas con la geometría definida y reducir el tiempo que se tomó el ordenador en ejecutar los cálculos.
Hasta este punto, se tenía una reducción de masa del 61.36% así que para mejorar las condiciones de diseño se procedió a hacer una parametrización generando un croquis siguiendo la geometría resultante del prisma rectangular, una vez hecho esto, se agregaron las condiciones de frontera sin tomar en cuenta condiciones de geometría en el modelo generando 3 estudios topológicos, uno con geometría fija en la base de los dedos, el segundo con geometría fija en el talón y el tercero con la geometría fija en ambos puntos dedos y talón.
Terminado el modelo 1, se tomó en cuenta que este modelo no permitiría usar calzado en caso de ser usado, por lo que se generó un segundo modelo tomando en cuenta la geometría que respetara el empeine y la parte superior del talón y esta permitiera usar calzado, una vez hechos los 2 prototipos se realizaron los estudios estáticos necesarios, así como una evaluación del factor de seguridad para así verificar que los prototipos cumplían con su función soportando la carga establecida mencionada anteriormente.
Al conocer que ambos modelos soportaban las condiciones establecidas (sin llegar a deformación plástica) se optó por el modelo 2 ya que a diferencia del modelo 1 el modelo 2 si cumplía con las condiciones geométricas del pie respetando el empeine y la parte superior del talón por ello es más fácil para el usuario optar por este modelo ya que en caso de usar calzado este se puede adecuar mejor, por ello se terminó de redondear la periferia del modelo 2 y se preparó para ser manufacturado por adición en una impresora 3D usando como base resina ABS de alto impacto.
CONCLUSIONES
De acuerdo a los resultados obtenidos podemos concluir que SolidWorks al no manejar un entorno de diseño 2D aumenta la dificultad para poder diseñar una pieza que permita trabajar con la metodología de optimización topológica, sin embargo, los resultados obtenidos aun en el entorno 3D fueron favorables ya que se redujo un 24.75% del total de masa de la pieza final conservando las propiedades mecánicas de la prótesis de miembro inferior generada, los estudios estáticos así como la evaluación del factor de seguridad indicaron que bajo las condiciones de carga definidas la pieza es capaz de soportar el peso de una persona de 90 kg aplicando una fuerza de 441.45 N en la geometría fija establecida en los dedos y el talón del modelo de prótesis generado, el mallado basado en curvatura así como una discretización moderada permitieron que se redujera el tiempo de cálculo por parte del ordenador rondando los 35 minutos para cada caso de estudio topológico, de esta manera, SolidWorks puede usarse como una herramienta que ayude en el diseño de prótesis de miembros que requieran ser manufacturados por adición reduciendo el costo de fabricación así como el tiempo de manufactura lo cual representa una gran ventaja.
Cruz Garcia Victor, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
Cruz Garcia Victor, Tecnológico de Estudios Superiores de Jocotitlán. Rodríguez Plata Juan Pablo, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las pymes son una pieza fundamental para la economía del país, debido a que estas son generadoras tanto de riqueza como de empleos, siendo así de vital importancia para impulsar el progreso de una sociedad ya que estas pueden hacer incluir a varios sectores económicos.
Según la Secretaria de Economía de México, las Pequeñas y Medianas Empresas son las grandes generadoras de empleo en el país, 7 de cada 10 empleos en México componen alrededor del 50 por ciento del Producto Interno Bruto (PIB).
Según el último Censo Económico del INEGI, el 95% de las empresas tiene entre uno y 10 trabajadores, y el 99.8% de estas en México son PyMEs.
Por tal motivo se percibió la necesidad de realizar un modelo para generar ideas de negocios que finalicen con procesos de incubación efectivos. Enfocados también en promover el correcto intercambio de información dentro de un sistema ya sea individual o social y partiendo de los conceptos fundamentales homeostasis y sinergia; durante el verano de investigación se trabajará en estos conceptos en temas de Desarrollo Humano, para lograr el equilibrio que existe entre las necesidades y satisfacción de un individuo y así poder desarrollar plataformas las cuales puedan apoyar tanto en la creatividad como en la innovación de proyectos.
METODOLOGÍA
InnovaCamping fue un campamento virtual de innovación y desarrollo de la creatividad, que tiene por objetivo:
Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas y retos físicos, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos de alto impacto tecnológico y social.
Mediante ejercicios de creatividad, tormenta de ideas y trabajo en equipo descubren la importancia de tener un espíritu emprendedor e innovador en todo aquello que se propongan en la vida.
InnovaCamping TM trabaja de acuerdo a la siguiente estructura:
Generar a través de la metodología I+C=Entrepreneur, ideas con impacto tecnológico y social que permitan ser desarrolladas y evaluadas a través de procesos de incubación empresarial.
Gracias a la estructura del programa, trabajan, aprenden y disfrutan durante más de 6 horas por semana, diseñando un producto/servicio que resuelva un caso planteado.
Las funciones y responsabilidades de los que integran el Equipo Técnico, Instructores y Auxiliares se rigen bajo el MaC. (Manual de Funciones).
Formulación de la Idea de Proyecto
Los equipos desarrollarán una idea de negocio en los siguientes rubros:
I+C=Entrepreneur
Desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Durante el Paso 1
Mi Modelo de Emprendimiento, el participante identificará sus principales características que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
En el Paso 2
Mi Modelo de Creatividad e Innovación, el participante determinará su nivel de creatividad e innovación para el emprendimiento.
Durante el Paso 3
Mi Modelo de Negocio, el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Ultimo paso
Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Premiación
Al finalizar se premiará a los 2 primeros lugares de acuerdo a lo siguiente:
Primer Lugar: Idea de Proyecto más Innovadora (Diploma y Trofeo a la Innovación)
Segundo Lugar: Equipo Talentoso (Cantidad Mayor en Bonos) (Diploma y Trofeo del Trabajo en Equipo)
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos relacionados con el tema de emprendimiento, de igual manera se pusieron en práctica a lo largo de la realización del modelo, de igual manera se promovieron Acuerdos entre empresas regionales como Guardianes del Arco del municipio de Cintalapa de Figueroa, Chiapas. Se espera que este modelo de generación de ideas de negocio pueda capacitar a mas de 500 alumnos universitarios de 4 escuelas. (Universidad Politécnica de Chiapas, Universidad Autónoma de Chiapas, Instituto Tecnológico de Tuxtla Gutiérrez y la Universidad Valle del Grijalva.
Cruz González René Francisco, Universidad Autónoma del Estado de México
Asesor:Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
Aguilar Ramírez Carlos Francisco, Instituto Politécnico Nacional. Cruz González René Francisco, Universidad Autónoma del Estado de México. Rodriguez Pumarino Britany, Universidad Autónoma de Tamaulipas. Romero Díaz Alma Daniela, Universidad Autónoma del Estado de México. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metalmecánico hasta la bioingeniería médica.
Hoy día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con un amplio catálogo de tecnologías de impresión 3D y sus procesos periféricos, así como el manejo de diversos materiales y aleaciones, que lo convierte en el único Hub a nivel Latinoamérica con la capacidad de ofertar servicios con las tecnologías de (MA) más novedosas. (Un Hub se puede definir como un espacio para aprender, trabajar, crear y tiene características que la diferencian y que brindan oportunidades para unir a las personas). Otro organismo al cual se recurrió fue La Sociedad Estadounidense para Pruebas y Materiales (ASTM), esta es una de las mayores organizaciones en el mundo que desarrollan normas voluntarias por consenso.
La ASTM, además brinda un foro para el desarrollo y publicación de normas voluntarias por consenso, aplicables a los materiales, productos, sistemas y servicios.
Un recurso tecnológico indispensable en el desarrollo de este proyecto es la inteligencia artificial (IA), esta es empleada en algunas funciones propias del asistente virtual Alexa, de Amazon, tales como el procesamiento de lenguaje natural y el aprendizaje automático (machine learning).
Para una mejor comprensión de lo expuesto anteriormente, cabe señalar que los asistentes de voz son programas de software basados en IA, son capaces de reconocer con elevada precisión y responder a comandos de voz para ejecutar una serie de tareas y preguntas según las fuentes de información disponibles. Una de sus grandes ventajas hoy en día es que, hacen posible a los usuarios interactuar con diferentes plataformas de hardware mediante la voz. Esta es una de las razones por las cuales esta tecnología es una parte medular del proyecto.
Aunado a lo anterior, Alexa es el asistente virtual controlado por voz creado por Amazon, y lanzado en noviembre de 2014 junto a su línea de altavoces inteligentes Echo. Empiezas invocandolo diciendo su nombre, momento en el que el altavoz o dispositivo en el que esté integrado se pondrá a escuchar.
Por lo que se busca desarrollar un sistema basado en procesamiento de voz aplicado a la asistencia en la industria de la manufactura aditiva en México.
Derivado de ello es que existe la necesidad de concentrar toda esta información en un medio digital. Para que así, pueda ser consultada por los usuarios previo al depósito para garantizar las mejores condiciones de impresión y la calidad adecuada en la impresión de sus piezas.
Se pretende resolver un problema existente que se ha estado manifestando al consultar los diferentes parámetros de proceso en la manufactura aditiva, los cuales impactan en las propiedades térmicas, mecánicas, químicas por mencionar algunas. Dichos parámetros de proceso son consultados a través de diferentes fichas técnicas o manuscritos de divulgación científica. Por lo cual se requiere que dicha información se almacene en una base de datos para agilizar el proceso y utilizarlos en los diferentes instrumentos de la compañía. Así como también información relacionada con las propiedades microestructurales que caracterizan a las aleaciones utilizadas en procesos de fabricación aditiva.
METODOLOGÍA
Con base en la versión anterior del proyecto, el cual se trabajó en ediciones anteriores del programa Delfín y que nos sirvió de base para seguir haciendo mejoras debido a que lo que se tenía hasta el momento eran casos que si bien ya eran funcionales, aún hacía falta agregar nuevas funciones al desarrollo y con esto alcanzar la versión 3.0 del proyecto.
Tomando en cuenta las herramientas utilizadas en el desarrollo de versiones anteriores, las cuales fueron Amazon Web Services (AWS) y Amazon Alexa Skills. Se optó por seguir una metodología de división de tareas en los aspectos de mayor importancia en el desarrollo del proyecto:
Población de Base de Datos
Desarrollo de software
En la cual cada integrante desarrolla actividades que se complementan,de manera paralela con las actividades de los demás integrantes, para posteriormente presentar dichos avances al equipo.
No sin antes haber dado una breve introducción a las tecnologías utilizadas en el ciclo anterior y comprender el proyecto del cual se disponía, todo esto para detectar algunas de las vulnerabilidades del sistema y durante el transcurso del verano científico ir optimizando para un uso más preciso y sencillo.
En el caso particular de la Base de Datos, se busca optimizar el diseño de ésta, para evitar la redundancia de datos, ampliar los casos de uso y disponer de la información de una manera más precisa y concisa.
Por otro lado, el caso particular de la investigación radica en recopilar información útil para cubrir el proceso de la manufactura aditiva, dicha información se basa en las propiedades de las aleaciones, tales como propiedades térmicas, sus composiciones y datos mecánicos. Además, también se recopiló información de los distintos proveedores que hay en el mercado tanto nacional como internacional.
Por último, en el caso particular del software se busca aplicar reingeniería para optimizar los procesos de software desarrollados en veranos anteriores, así como crear nuevas funciones en el proyecto (casos de uso), esto con la finalidad de enriquecer la utilidad del programa de asistencia.
CONCLUSIONES
Durante esta estancia de verano se busca obtener los conocimientos necesarios para entender el proceso de la manufactura aditiva y la importancia de su presencia en la industria hoy en día. Dando la posibilidad de conocer más el lenguaje de programación Python y poner en práctica su aplicación en el desarrollo de servicios sustentados por Amazon, además de las propiedades térmicas, mecánicas y químicas de las Aleaciones utilizadas en el proyecto y el diseño de experimentos para el testeo de la Skill. Se espera que en próximos años se implementen más casos de uso al proyecto y pueda ser lanzado.
Cruz Hernández Danna Kristell, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dra. Yanis Toledano Magaña, Universidad Autónoma de Baja California
EXTRACCIóN Y EVALUACIóN DE COMPUESTOS ANTIVIRALES DE LAURENCIA OBTUSA CONTRA EL VIRUS DE LA INMUNODEFICIENCIA HUMANA.
EXTRACCIóN Y EVALUACIóN DE COMPUESTOS ANTIVIRALES DE LAURENCIA OBTUSA CONTRA EL VIRUS DE LA INMUNODEFICIENCIA HUMANA.
Cruz Hernández Danna Kristell, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Yanis Toledano Magaña, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA.
El virus causante del Síndrome de Inmunodeficiencia Adquirida (VIH/SIDA) se ha vuelto duran las últimas décadas un gran problema de salud pública, afectando tanto la población masculina como femenina, donde la mayoría de afectados son de escasos recursos. En México, solo en CDMX, el Estado de México y Jalisco concentran a más del 55 % del total de casos registrados con el virus. Se reporta que a principios del siglo XXI, se habían diagnosticado más de 40 mil casos, y se considera que por cada enfermo hay de cuatro a seis infectados con el VIH.
Durante los últimos años los tratamientos contra el VIH, han pasado de manera clandestina sobre pacientes con esta afección, teniendo un bajo índice de prevención, aunado a la presión social, es decir, la vergüenza de manejar la enfermedad bajo anonimato por el temor de ser juzgados, discriminados o estigmatizados del mismo grupo social.
Mientras los contagios no cesen, los métodos para la prevención y tratamiento de este afección deben ser creadas e implementadas.
Actualmente el uso de extractos vegetales y fúngicos han determinado una fuerte expectativa para la prevención de contagio. El estudio del reino vegetal y sus metabolitos secundarios han favorecido al conocimiento para el tratamiento del VIH.
La Laurencia obtusa, es una alga roja, económicamente importante desde el punto de vista ecológico.
Estas algas desempeñan un papel importante como abrigo de pequeños organismos, protegiéndolos de sus depredadores y sirviendo como lugar de fijación y desarrollo de sus huevos. De la misma forma es capaz de ser hospedera potencial para variedad de micros y macroalgas. Los compuestos fenólicos presentes le atribuyen su actividad antiviral.
METODOLOGÍA
METODOLOGÍA.
Cabe aclarar que en este apartado la metodología se describe como una propuesta a realizar, debido a la contingencia por COVID-19, la estancia se llevó a cabo en línea.
Muestra Vegetal.
La colecta para la muestra vegetal se realizará mediante buceo SCUBA en Isla Mujeres ubicada en el mar caribe, frente a la península de Yucatán al suroeste de México, colinda al norte con el Golfo de México y el Mar Caribe (Mar de las Antillas); al este con el Mar caribe (Mar de las Antillas); al sur con el Mar Caribe (Mar de las Antillas) y los municipios Benito Juárez y Lázaro Cárdenas y al oeste con el municipio de Lázaro Cárdenas (Secretaria de Turismo, 2016).
Todas las muestras deben ser lavadas con agua de mar, separadas manualmente de epifitas y materias extrañas y posteriormente serán conservadas en congelación a -20°C. (Laritza, Álvarez Vera, Morier Diaz, Valdés Iglesias, & Del abrrio Alonso, 2016)
Extracción del alga Laurencia obtusa.
Las algas serán molinadas y homogeneizadas con una solución hidroetanólica (50 %) en una relación 1:10. El extracto será mantenido a 10 °C, por 72h con agitación periódica y luego filtrado por lona, centrifugado a 10 000 xg y concentrado en un evaporador rotatorio a 50 °C hasta un nivel de sólido aproximado del 15 %. Serán secados por liofilización con N2 líquido para su posterior análisis y evaluación de la actividad.
Medio de crecimiento. (Cultivo celular).
Para el medio de cultivo celular se utilizará medio basal de Eagle (MBE) adicionado con 40 pg/ml de Pantum L24 específico para el crecimiento de linfocitos.
Se agita la muestra contenida en medio específico y se descarta el tejido. Seguidamente se centrifuga el medio líquido de forma que, en pellet que se forme contendrá los hongos, células, bacterias y sangre y será descartado. Mientras que el sobrenadante, conteniendo los virus, será inoculado sobre los diferentes cultivos celulares.
Inoculación.
Según la metodología de Os Science; Para la inoculación se incubará el cultivo celular con unos 200 microlitros del medio líquido unos 90 min. Posteriormente se retira el medio de inoculación y se añade medio fresco.
Los virus comienzan entonces a crecer.
Ensayo de actividad antiviral.
Se realizará la prueba de plaqueo para determinar el título del
virus producido. Posterior a una concentración del extracto vegetal diluido y el virus 1:10 y 1:5 se incubará una hora a 37° C, se inoculará 50 µL/pozo/duplicado en placas de 24 pozos preparadas una hora antes con una suspensión celular de 2,5x105 cel/ml, se incubará por cuatro horas y se adicionará 500 µl/pozo de medio overlayer. Si el extracto inhibe el crecimiento del 50% o más del número de virus inoculado se considerará como positivo a la prueba. (Sevilla, Huato, Mamani, Montoya, & Tarazona, 2020).
CONCLUSIONES
CONCLUSIONES.
En esta estancia se pudo adquirir conocimientos de índole clínico, tales como la la aplicación de partículas nanoscópicas a tratamientos de enfermedades víricas, que abre una puerta a más líneas de investigación. La estancia lamentablemente fue de manera virtual a lo que la metodología se describió como propuesta, por lo tanto no se pudo concretar un resultado preciso. Ante la bibliografía citada y literatura buscada, se puede afirmar que las algas rojas (Laurencia obtusa) tiene una actividad antiviral prometedora, de ser estudiada más a fondo y analizando sustancias como sus metabólicos secundarios podría dar un resultado positivo ante la inhibición de crecimiento del VIH.
Cruz Martinez Jorge, Universidad de Sonora
Asesor:Dra. María Mercedes Salazar Campoy, Universidad de Sonora
MODELACIóN DE PROCESOS METALúRGICOS "APLICACIóN DEL MODELO MATEMáTICO DE NúCLEO DECRECIENTE"
MODELACIóN DE PROCESOS METALúRGICOS "APLICACIóN DEL MODELO MATEMáTICO DE NúCLEO DECRECIENTE"
Cruz Martinez Jorge, Universidad de Sonora. Asesor: Dra. María Mercedes Salazar Campoy, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
En la actualidad la preservación del medio ambiente y del ecosistema, es uno de los problemas que se ha enfrentado la minería a lo largo de la historia, el cual se han visto en la necesidad de implementar tecnologías y la utilización de más reactivos químicos que nos ayuden a prevenir estos sucesos.
La lixiviación de metales, pero con un reactivo alterno al cianuro podría contribuir a la minería moderna, ya que lo mas importante, es que se utilice un reactivo no toxico y no contaminante, pero con una buena respuesta a la recuperación de metales
METODOLOGÍA
La utilización de las nuevas tecnologías y las herramientas que nos ofrecen a través de programas es tan importante y muy eficaz para la obtención de resultados con el cual podemos describir el comportamiento de la lixiviación con el reactivo alterno al cianuro
Los programas utilizados en este proyecto son Excel y Matlab, el cual se realizaron diferentes cálculos como el balance metalúrgico y la aplicación del modelo matemático de núcleo decreciente con el objetivo de tener resultados favorables
Control por reacción químico
Control por difusión en la capa
Control mixto
La aplicación de los modelos se realizó para el Ag, Au, Pd, Pt, para posteriormente obtener las gráficas deseadas
CONCLUSIONES
La aplicación del balance metalúrgico y del modelo de núcleo decreciente se podrá determinar el tipo de control con la relación de la energía de activación
Aplicación de modelos matemáticos es tan importante ya que con ello podemos contribuir a la modelación de la lixiviación con el objetivo de poder llevar un control adecuado.
Cruz Mendoza Diego Ivan, Instituto Tecnológico de Tláhuac
Asesor:Dr. Luis Antonio Mier Quiroga, Tecnológico de Estudios Superiores de Jocotitlán
DISEñO DE GRIPPER, BASADO EN ALAMBRES MUSCULARES, PARA UN ROBOT FANUC LR-MATE 200ID
DISEñO DE GRIPPER, BASADO EN ALAMBRES MUSCULARES, PARA UN ROBOT FANUC LR-MATE 200ID
Cruz Mendoza Diego Ivan, Instituto Tecnológico de Tláhuac. Asesor: Dr. Luis Antonio Mier Quiroga, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
A la hora de automatizar procesos, los costos de las herramientas del robot pueden ser de un alto costo, es por eso que, este proyecto está destinado para una empresa privada, dedicada a maquinados e industria del plástico con la que colabora el Tecnológico de Estudios Superiores de Jocotitlán, la cual solicito el apoyo para realizar un gripper ligero que ayude en el empaquetado de pinzas de plástico. El cual pueda ser adaptado a la muñeca del Robot Fanuc LR-Mate 200iD. Dicho gripper debe ser activado con las salidas del robot, empleando un circuito electrónico independiente del robot, para no causar daños al robot en caso de un corto circuito. El gripper deberá de estar diseñado para que se abra a través de alambres musculares (SMA), que deberá de tener una apertura para sujetar una pinza de plástico.
METODOLOGÍA
Al principio de la investigación se recopilo información a través de libros, manuales y documentos, con teoría fundamentada, donde desde un principio se investigó sobre el Robot Fanuc LR-Mate 200iD principalmente las dimensiones que tiene la muñeca para sujetar la herramienta (en este caso un gripper) y las salidas eléctricas que tiene el robot para realizar el circuito electrónico. Posteriormente se investigó sobre los alambres musculares (SMA), desde su funcionamiento, su estructura, los tipos de alambres y las diferentes aplicaciones que pueden llegar a tener, como lo son los actuadores, los cuales representan una enorme ventaja, ya que los actuadores diseñados con alambres musculares, no representan tanto peso y la manipulación de estos es sencilla, son silenciosos, no requieren de aceites, lubricantes, anticongelantes, mantenimiento constante, tiene una fuerza de tracción de hasta 3.5 kg por alambre muscular y su vida útil es demasiado larga, mientras no se rebase su módulo de Young. Los alambres musculares son sujetados a través de zapatas especiales, en este caso se utilizó una llamada anillo para cables eléctricos, de la marca DYNALLOY, donde podremos sujetar tanto al alambre muscular, como al cable que energizara y mandara la señal al alambre muscular.
Una vez recopilada la información necesaria, se pasó a desarrollar un prototipo para explicar su funcionamiento y entender mejor como trabajan las articulaciones del gripper. Posteriormente se diseñaron las piezas en el software SOLIDWORKS, empezando los dedos (la parte que sujeta a las pinzas de plástico), para esto se estudiaron las dimensiones de la pinza de plástico y la parte por la cual iba a ser sujetada por el gripper. Posteriormente se diseñaron las piezas de unión del cuerpo del gripper a los dedos del gripper, estas piezas juegan un papel muy importante ya que determinan cuanta apertura tendrá el gripper. La siguiente pieza a diseñar fue un coplee, el cual tiene el papel de mover articuladamente las piezas de unión cuando se mueva la pieza de empuje. A la hora de diseñar la pieza de empuje, se analizó los diferentes métodos para colocar dos alambres musculares con sus sujetadores, el cual uno jalaría hacia una dirección y el otro a la dirección contraria, esto para que nuestra pieza de empuje pueda avanzar y retroceder, dando así que el coplee mueva articuladamente las piezas de unión que abrirán los dedos del gripper, también se le diseñaron unos soportes laterales los cuales atravesaran el cuerpo del gripper para que le ayude como soporte y el coplee no tenga que cargar con todo el peso. El cuerpo del gripper se dejó casi al último, porque es el que se tiene que adaptar a las piezas realizadas anteriormente y que va a cargar con todo el peso de las piezas. Por último, se diseñaron unos soportes fijos que irán sujetados al cuerpo del gripper, ya que, si estos se hacían en uno solo con el cuerpo del gripper, iba a ser imposible colocar la pieza de empuje en su lugar.
Para unir todas las piezas se optó por utilizar un tornillo de 1/8 de pulgada con tuerca, excepto para los sujetadores del alambre muscular, ya que el anillo de los sujetadores es de 2,4 mm y se utilizaran tornillos milimétricos de 2 mm.
Para realizar la simulación, se utilizó el mismo software (SOLIDWORKS), el cual nos permite ensamblar todas las piezas diseñadas, se hicieron las pruebas correspondientes, sin el alambre muscular, pero tomando en cuenta el tipo de alambre (0,015 pulgadas de diámetro) y el tamaño necesario para que su módulo de Young este dentro de los parámetros cuando vuelva a su forma original, restando 0.75 cm de su tamaño a temperatura ambiente. Se observó que la apertura del gripper es de 4,1 cm y la pinza de plástico que se desea sujetar solo ocupa 3,5 cm, por lo tanto, es ideal y cumplirá con la tarea especificada.
Para el circuito electrónico, se utilizó dos optoacopladores conectados a dos salidas del controlador del robot, para que nuestra señal active el sistema del alambre muscular, para abrir o cerrar el gripper, así mismo el controlador del robot estará protegido contra cualquier falla, ya que, si llegara a ocurrir alguna falla, solo se dañaría el optoacoplador. Por el momento no se calcula el porcentaje de apertura del gripper, ni su fuerza, será un control digital donde solo se trabaje con 0 y 1 o en otras palabras con on/off. Por lo tanto, solo se requieren utilizar dos transistores como interruptores electrónicos, que permitan el flujo total de corriente requerido por el alambre para activarlo, o por el otro lado, al desactivar los transistores, impedirán el flujo de corriente.
CONCLUSIONES
A la hora de realizar este proyecto, desconocía lo que son los alambres musculares, pero al ir investigando en artículos, libros, documentos y sitios web, pude entender y conocer como están hechos los alambres musculares, como es que funcionan y sus diversas aplicaciones dentro de los actuadores.
El diseño del gripper se empezo desde 0 sin tomar ningun gripper de referecia empezando por las parte de agarre, hasta el armazon, a la hora de ir diseñando se hicieron pequeños cambios pero se llego al resultado esperado.
El circuito electrónico fue sencillo, ya que solo se estaba tomando la decisión de abrir y cerrar el gripper sin aplicarle ningún tipo de control sobre su apertura. Ya que solo será un diseño de prueba para observar si se puede aplicar algún cambio o mejora.
Cruz Pérez Jazmín, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
OBTENCIóN DE CATALIZADORES SóLIDOS VíA HIDROTERMAL A PARTIR DE DIFERENTES BIOMASAS LIGNOCELULóSICAS Y SU APLICACIóN EN LA PRODUCCIóN DE BIODIESEL.
OBTENCIóN DE CATALIZADORES SóLIDOS VíA HIDROTERMAL A PARTIR DE DIFERENTES BIOMASAS LIGNOCELULóSICAS Y SU APLICACIóN EN LA PRODUCCIóN DE BIODIESEL.
Cruz Pérez Jazmín, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
La demanda energética, el agotamiento de las reservas mundiales fósiles, el rápido aumento del precio del petróleo y el impacto negativo de los gases de efecto invernadero sobre el medio ambiente son unos de los principales problemas que enfrenta la humanidad actualmente, por lo que la comunidad científica ha buscado fuentes alternativas de energía (Rizwanul Fattah y col., 2020).
El biodiesel es considerado un sustituto ideal y prometedor del combustible diésel convencional debido a su biodegradabilidad, sostenibilidad y reducción de emisiones contaminantes al medio ambiente (Muhammad y col., 2021). Este biocombustible es un conjunto de ésteres alquílicos de ácidos grasos de cadena larga (C14-C24) que normalmente se obtienen a partir de los ácidos grasos de diversas fuentes de lípidos renovables como aceites vegetales, grasas animales y aceites usados (Mukhopadhyay y col., 2017).
Actualmente existen diferentes métodos convencionales para la obtención de biodiesel tales como microemulsión, craqueo térmico (pirólisis) y transesterificación (ácida, básica y enzimática) (Quah y col., 2019). Específicamente, la reacción de transesterificación (alcoholisis) es uno de los métodos más empleados y estudiados debido a su simplicidad y alta calidad del producto final (Singh y col., 2020). Dicho proceso consiste en la reacción entre una fuente de ácidos grasos y un alcohol de cadena corta preferiblemente en presencia de un catalizador (homogéneo o heterogéneo) para acelerar la velocidad de reacción y obtener una mayor formación de biodiesel (Fonseca y col., 2019).
Los catalizadores heterogéneos presentan una serie de ventajas tales como alta actividad, selectividad y adaptabilidad al agua debido a la presencia de un gran número de sitios ácidos o básicos activos (Rizwanul Fattah y col., 2020). Bajo este contexto, los catalizadores a base de carbono obtenidos a partir de biomasas abundantes en la naturaleza, residuos agrícolas y urbanos han resultado ser excelentes soportes catalíticos para la producción de biodiesel, siendo de bajo costo por su fácil disponibilidad (Rizwanul Fattah y col., 2020).
Para la producción de biodiesel se ha estudiado el uso de catalizadores heterogéneos a partir de biomasas lignocelulósicas por medio de la carbonización hidrotermal (HTC por sus siglas en inglés), siendo considerada un proceso alternativo y ecológico. Este método consiste en someter la biomasa utilizada a temperaturas (180-250 °C) y presión autógena para obtener como producto un material sólido rico en carbono llamado hidrochar (Mendoza-Martínez y col., 2021).
METODOLOGÍA
Para la síntesis de los catalizadores heterogéneos se emplearon diversas biomasas lignocelulósicas (endocarpio de coco, cáscara de nuez de macadamia y cáscara de naranja) como precursores de soportes a base de carbono. Las biomasas se molieron para reducir el tamaño de partícula y se tamizaron utilizando un número de malla de 40-100. Posteriormente, se lavaron con agua desionizada hasta que el pH de agua de lavado fue constante y se secaron en el horno a 100 °C durante 24 h.
Para la preparación de los catalizadores heterogéneos se planteó un diseño experimental tipo Taguchi L9 para cada una de las biomasas, las variables empleadas fueron: temperatura de HTC (180, 200, 220 °C), tiempo de HTC (12, 15, 18 h), concentración del agente modificador (1, 2, 4 M) y tiempo de impregnación (12, 18 y 24 h). El proceso de HTC se llevó a cabo en un reactor marca BAOSHISHAN cuyo volumen es de 100 mL. Se determinaron los rendimientos de HTC a cada uno de los soportes obtenidos.
Posteriormente, el soporte fue sometido a un proceso de impregnación húmeda empleando una solución de H2SO4 y una de KOH para la preparación de los catalizadores heterogéneos ácidos y básicos respectivamente, a las diferentes concentraciones planteadas en el diseño experimental. Específicamente, se pusieron en contacto 3 g de soporte con 30 mL del agente modificador en agitación constante a temperatura ambiente durante 24 h. Posteriormente, el catalizador se separó de la solución por medio de filtración, se lavó con agua desionizada para eliminar el exceso de los agentes modificadores en cada caso y se secó en un horno a 100 °C durante 24 h. Para evaluar el desempeño de los catalizadores, se llevó a cabo la transesterificación del aceite de cártamo comercial empleando una relación metanol:aceite de 15:1, una carga de catalizador con respecto al aceite del 10 %, a una temperatura y tiempo de reacción de 60 °C y 4 h respectivamente.
La cantidad de ésteres metílicos obtenida en la reacción se determinó de acuerdo con la norma europea EN 14103 por cromatografía de gases usando un cromatógrafo Thermo Scientific modelo Trace 1300 GC. El heptadecanoato de metilo como estándar interno se utilizó como base para el cálculo del porcentaje de formación de FAMEs.
CONCLUSIONES
Los catalizadores preparados a través de la HTC a partir de las diferentes biomasas lignocelulósicas empleadas y tratados químicamente con KOH presentan un gran potencial para la producción de biodiésel económica y sostenible alcanzando porcentajes de formación de biodiesel mayores al 95%, mientras que los modificados con H2SO4 presentaron un pobre desempeño debido a que requieren condiciones de operación más drásticas en comparación con los catalizadores básicos. La selección de la ruta de preparación es primordial para obtener catalizadores adecuados y competitivos para ser utilizados en la producción de biodiesel.
Cruz Romero Maricarmen, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
Carballo Gutiérrez José Adolfo, Instituto Tecnológico Superior de Huauchinango. Cruz Romero Maricarmen, Instituto Tecnológico Superior de Huauchinango. Riveros Ponce Josselin, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Dar a conocer la historia de una forma divertida y dinámica es un tema difícil así que este proyecto se enfoca en enseñar un poco de la historia, centrándonos en nuestro propio municipio y haciéndolo por medio de una forma poco peculiar y pensamos en los juegos virtuales, dado que es un tema de interés en las nuevas generaciones.
La Realidad Virtual (RV) es un entorno de escenas y objetos de apariencia real generado mediante tecnología informática que crea en el usuario la sensación de estar inmerso en él, uno de los softwares en el que se pueden crear estas escenas y objetos es Blender este es un programa informático multiplataforma, dedicado especialmente al modelado, iluminación, renderizado, la animación y creación de gráficos tridimensionales.
Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás. Nosotros queremos mostrarle un poco lo que es Huauchinango al mundo, es por ello que estamos diseñando en el programa Blender, la iglesia de Huauchinango, así como la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro).
METODOLOGÍA
Para hacer el personaje del danzante se investigaron referencia de todos los ángulos posibles para poder empezar a hacer un modelo boceto, este consta de esculpir con la herramienta metabolas. Una vez teniendo un molde se le dio más delineado en detalles como ojos, orejas, dedos, y músculos, una vez teniendo el modelo deseado, se empezó a hacer el diseño de ropa; para ello se utilizó la herramienta de capas, o caras, para poder hacer un objeto sólido a partir del modelo, como se hizo varias capas fue necesaria aplicar un solidificador y así pudiera tener una textura más cercana a tela. Para hacer la parte de faldas y penacho junto con las cintas se hicieron objetos formadas por mallas para no deformar al diseño. Una vez terminada la parte del diseño, se pasó a hacer la animación unidad con los huesos con cada extremidad del cuerpo humano.
Para el diseño de la iglesia de nuestra señora de la asunción, primero se llevó a cabo una investigación sobre las medidas de esta en cuanto a su estructura, pero no se obtuvieron muchos datos ya que no existen muchos registros sobre las medidas, pero se logró encontrar medidas de la cúpula, así como se hizo uso de la página de Google Maps para tener ligeras referencias sobre las medidas de la iglesia, entonces, una vez que se tenía una idea de como eran estas medidas se procedió al diseño en el programa Blender.
El primer paso para el diseño 3D fue el diseño de la estructura principal de la iglesia, que tiene una forma circular y que al elevarse reduce su tamaño como un cono, para esto se usó un plano circular que se extruyó y que se redujo su área mientras este se elevaba.
Luego se usó el mismo principio para el diseño de la cúpula de la Iglesia, solamente que para esta parte de la Iglesia al final no se hizo una superficie plana, sino que se siguió extruyendo y reduciendo el tamaño hasta que al final que tenía una superficie circular que emulaba la cúpula de la Iglesia. Después de esto se realizó la cruz que tiene en la parte superior de la cúpula. Esto se realizó con un cubo que se editó para que tuviera una forma más alargada después de esto se dividió para que pudiera extruirse solamente una zona de sus lados esto para hacer los brazos de la cruz.
Las últimas 2 zonas que se diseñaron fueron la estructura donde se encuentra la Virgen María que a su vez es el lugar donde los sacerdotes ofician la misa, también se diseñó la entrada haciendo uso de planos rectangulares que se modificaron a una forma mas parecida a un rombo.
Por último se agregaron texturas y color a la iglesia para que tuviera su color verde, así como sus vitrales característicos.
CONCLUSIONES
En este verano de investigación, se adquirieron una gran variedad de conocimientos en torno a el manejo de softwares multiplataforma de diseño y de animación. Algunos de estos conocimientos o habilidades adquiridas son el modelado de objetos 3D, así como la articulación de cuerpos y su animación para el movimiento de estos en animaciones 3D, desarrollando a su vez la capacidad de trabajo en equipo y la enseñanza desde un nuevo enfoque de la materia de historia, en este caso de la historia y las costumbres de Huauchinango, Puebla.
Cruz Sánchez Alejandro, Instituto Tecnológico Superior de Guanajuato
Asesor:Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato
ANáLISIS Y ESTIMACIóN DE VIABILIDAD DE PROCESOS DE TRATAMIENTO EN SIMULACIóN PARA LA DEGRADACIóN DE COMPUESTOS LIGNOCELULóSICOS PARA CONVERSIóN A BIOCOMBUSTIBLE (ETANOL)
ANáLISIS Y ESTIMACIóN DE VIABILIDAD DE PROCESOS DE TRATAMIENTO EN SIMULACIóN PARA LA DEGRADACIóN DE COMPUESTOS LIGNOCELULóSICOS PARA CONVERSIóN A BIOCOMBUSTIBLE (ETANOL)
Cruz Sánchez Alejandro, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La1°generacion: sector agrícola (aceites, azúcaresalmidones, maíz cebada, centeno variedades de semillas)(Bajpai, 2013; Salinas y Gasca, 2009), 2° generación: estructuras lignocelulósicas (paja de trigo, rastrojo maíz, bagazo caña azúcar) (Álvarez, 2009; Salinas y Gasca, 2009), 3° generación: vegetales no alimenticios de crecimiento rápido y alta energía y 4°biocatalisis a partir de bacterias modificadas (Álvarez, 2009).
En México, a raíz de la reforma energética promulgada en el año 2013, se abrió la posibilidad de producir biocombustibles a partir de caña de azúcar, sorgo dulce, agave (Agave americana L.), remolacha, jatropha (Jatropha curcas L.) e higuerilla (Riccinuscommunis L.) (Zafranet, 2015). Esto da pauta a la investigación para indagar acerca de qué tipo de biomasa lignocelulósica cuenta México para el desarrollo de esta tecnología, que estudios y trabajos se han realizado con la materia prima disponible o de otra manera si existe materia disponible pero se han realizado investigaciones fuera del país, que tan viable y factible puede ser la producción de la biomasa en el país y principalmente en el estado de Guanajuato, México.
METODOLOGÍA
Se realizo una búsqueda estratégica con la utilización palabras y oraciones formuladas con ayuda de operadores booleanos para una búsqueda más eficiente de información específica de artículos, documentos, archivos de estudios y libros de investigaciones para llevar un registro y anotaciones para formular la bitácora de control de la investigación (utilización de palabras y oraciones para evitar repeticiones, numero de resultado de búsquedas, resultados relevantes, información relevante del artículo, anotaciones personales de aportaciones del artículo, etc), posteriormente seleccionar aquellos estudios y trabajos previos que abarcan el tema o tienen algún tipo de relación con el mismo, leer y tratar de comprender en su mayoría que se enfoco a los tipos de tratamiento y procesos que existen y con qué tipo de materia prima se han realizado, con ello, se indago el tipo de materiales lignocelulósicos cuenta México y se opto por la elección de uno en especifico pada indagar si está disponible, aprovechable y si existen estudios de producción en México lo cual efectivamente existen trabajos previos de estudio de tratamiento de sorgo dulce en especial tanto dentro y fuera del territorio nacional. Los archivos encontrados algunos se enfocan en cuanto a la industrialización y estudio de mercado para viabilidad de emprendimiento de instalaciones de producción de bioetanol por demanda, y otros en la evaluación crecimiento, desarrollo y diferencias entre variedades de sorgo modificadas y cruzadas para el tratamiento de bioetanol, uno en especifico acerca del cultivo y producción en el estado de Guanajuato, México y un informe de planeación agrícola nacional del territorio mexicano con planificación 2017-2030, de igual forma se llevo lectura comprensión de los artículos para adición de la bitácora, así como información relevante en relación al tema, los cuales la mayoría de estos trabajos aportan el rendimiento de etanol obtenido pese al tratamiento del proceso, de acuerdo con estos estudios, el paso siguiente fue sondear acerca de programas y software simuladores para contribuir a una aproximación para mejora del proceso de producción de bioetanol con base a sorgo dulce como biomasa lignocelulósica el cual tuvo poco éxito por falta de permiso de software o adquirir licencias de paga para la utilización de los mismos, y en aquellos disponibles se encontraban limitados en funciones para realizar tal trabajo, mas delante, se opto por la búsqueda de metodología para calculo estequimetricoo balance de masa para un cálculo de aproximación en cuanto al rendimiento alcohólico, así mismo, en el transcurso de la exploración de estudio se generaron ideas de temas y planes de investigación en relación para complemento de la temática misma.
CONCLUSIONES
Existe evidencia de material celulósico disponible y producible en el territorio mexicano que es el sorgo dulce así como la producción en el estado de gto, México, y también evidencia de estudios enfocados al tratamiento y otros no tan centrados en el procesamiento, estos estudios centrados en el sorgo y variedades de los cuales se realizaron tanto dentro y fuera de México.
La modificación y cruza de variedades de sorgo dulce y la combinación de variedad de sorgo modificado aplicando metodología de cultivo, crianza y labranza celulósicos aplicando proceso tradicional estándar pueden ser objeto de estudio para mejora de la determinación de etanol pudiendo omitir la importancia del tratamiento para obtención de etanol según las investigaciones.
Es posible tener una estimación de rendimiento de bioetanol por cálculo estequiométrico o balance de masa como respaldo en caso de realización experimental del procesado para rendimiento de bioetanol para comparación y análisis de resultados teóricos y reales.
Mejor rendimiento por estimación de cálculo teórico lo obtuvo Cardona Fuentes, J. C. (2019) a pesar de el mayor numero es estudio que tuvo Williams-Alanís, H. et al (2017) da indicio a la posible tipo de crianza que se aplico, tipos de híbridos e inclusive el lugar de siembra y cuidado considerando que uno se realizo en México y otro en Colombia, donde posiblemente puede afectar, no obstante hay que recordar que como lo indica en sus respectivos informes son estimaciones de las variedades de sorgo estudiadas; El mejor rendimiento experimental y real se podría decir que lo obtuvo López I. et al (2020) por la producción a escala más pequeña y especifica en comparación de Chanta Torres, V. H. (2015), no obstante, es un indicativo de que la aplicación de pretratamiento en comparación del otro estudio que aporto centrarse en técnicas de cultivo y crianza para procesado, que ambas dan pauta para dar un seguimiento y aplicación para mejoras en los procesos y aplicaciones a gran escala.
Cruz Suarez Irwing, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
ADMINISTRADORES DE ENERGíA EN LOS VEHíCULOS ELéCTRICOS APLICADOS CON LóGICA DIFUSA
ADMINISTRADORES DE ENERGíA EN LOS VEHíCULOS ELéCTRICOS APLICADOS CON LóGICA DIFUSA
Cruz Suarez Irwing, Instituto Tecnológico Superior de Huauchinango. Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
Administradores de energía en los vehículos eléctricos aplicados con lógica difusa.
Cada día la tecnología crece a pasos agigantados, la ciencia genera muchos conocimientos y estos son aplicados en cada área de nuestra vida. Esto nos ha permitido crear tecnología que mejoran lo que conocemos hoy en día como vehículos, haciéndolos más eficientes y poco a poco mejorarlos hasta el punto de que se dejen utilizar los comunes motores de combustión interna, sustituyéndolos por motores eléctricos.
El transporte es una de las tareas que todos realizamos diariamente, ya sea para ir a la escuela, al trabajo, ir a comprar las cosas que necesitamos o simplemente salir a divertirnos; ¿Por qué no pensar en hacer más eficiente y amigable con el medio ambiente este transporte?
Con el avance de la tecnología en el ámbito automotriz estamos dejando de usar poco a poco los combustibles fósiles y estamos obteniendo nuestra energía de fuentes renovables, los vehículos eléctricos cada vez tienen un papel más importante en nuestra sociedad, cada vez se escucha más de nuevos vehículos eléctricos, la mayoría de las empresas grandes de automóviles están apostando a esta innovadora tecnología, por lo que la investigación presentada se mencionan los distintos administradores de energía que se usan para poder abastecer de energía al vehículo, se busca saber cuál es la mejor forma de abastecer al vehículo para que nos dé el mejor rendimiento posible con una carga.
METODOLOGÍA
Debido a que este verano delfín fue de manera en línea, nos enfocamos en investigar de distintas fuentes los más innovadores administradores de energía aplicado a los vehículos eléctricos. Inicialmente se estudió la configuración de un coche eléctrico, se especificaron las ventajas y desventajas al utilizar cierto tipo de baterías en los vehículos para así conocer cuál es la más viable en cuanto a peso y rendimiento.
Se mencionan los distintos tipos de fuentes que ayudan a mejorar la carga de los vehículos, como lo es el sistema de recuperación de energía conocido como sistema regenerativo de frenos, el cual es una técnica única que utiliza la energía cinética se forma al desacelerar, esto nos ayuda a cada vez que frenamos con la energía cinética que obtenemos la pasamos directamente a nuestras baterías, una ayuda muy grande que se tiene hoy en día para mejor la eficiencia también son los llamados supercapacitores, que son capacitores electroquímicos, que tienen una densidad de energía inusualmente alta en comparación con los condensadores comunes, generalmente miles de veces mayor que un condensador electrolítico de alta capacidad.
Las empresas buscan obtener la mejor combinación de tecnología para poder mejorar el rendimiento un claro ejemplo es el hecho de utilizar supercondensadores de manera conjunta a un sistema de baterías de litio, proporcionará una serie de ventajas, tanto en autonomía como en rendimiento y si además sumamos el frenado regenerativo obtenemos una muy buena combinación con nos brindara una gran eficiencia, es lo que se pretende con esta investigación, el conocer cuáles son las mejores alternativas para tener los mayores kilómetros recorridos sin necesidad de estar cargando constantemente.
CONCLUSIONES
Durante el desarrollo de la investigación conocí como funciona un vehículo eléctrico las distintas tecnologías que se usan para abastecer a sus motores y saber cuáles son los administradores de energía más óptimos para un vehículo de este tipo, que es el futuro al que se está apostando hoy en día ya que tiene mejores prestaciones con los vehículos de combustión interna, además, el doctor Pérez Pinal nos apoyó para guiarnos en esta investigación para así tener una mayor idea de los desarrollos tecnológicos más importantes de nuestro presente; con esta investigación me di cuenta de cómo hemos avanzado a pasados agigantados en la tecnología que a veces uno no se da cuenta de ello hasta que realiza investigaciones a fondo que le amplían el panorama del desarrollo tecnológico.
Con este verano me he motivado a seguir aprendiendo y en un futuro poder desarrollar tecnología que ayude a la sociedad y al medio ambiente, cuando se busca mejorar pensando en el medio ambiente es lo más importante por lo que seguiré aprendiendo lo más que pueda sobre las nuevas tecnologías aplicadas a los vehículos para un futuro poder desarrollar tecnología aplicada.
Cruz Vargas Ivonne, Instituto Tecnológico de Pachuca
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
Avila Sánchez Bryan Alberto, Instituto Tecnológico de Pachuca. Cruz Vargas Ivonne, Instituto Tecnológico de Pachuca. López Hernández Jacqueline, Instituto Tecnológico de Pachuca. Mera Campa Ammy Diana, Instituto Tecnológico de Pachuca. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
UUMBAL Agroforestal, es una empresa dedicada al establecimiento, manejo y aprovechamiento de plantaciones forestales de pino de manera sustentable. Debido a que en la empresa se presenta un desconocimiento de los diferentes indicadores de productividad, eficiencia y económicos dentro de la empresa, se detectan áreas de oportunidad en el área forestal específicamente en el proceso de producción de resina natural de pinos tropicales.
Del antecedente anterior, cabe señalar que debido a la falta de implementación de una metodología balanced scorecard, la empresa carece de un método de trabajo adecuado. Su propósito es medir la eficiencia operativa de la empresa, debido a que se han suscitado riesgos de calidad al no cumplir con las especificaciones de material y del proceso de producción del producto.
Finalmente, se logra evidenciar, que estos problemas en el proceso de operación y producción de la producción de resina, provoca cambios y pausas debido a razones inherentes al proceso.
METODOLOGÍA
La empresa UUMBAL agroforestal cuenta con cuatro fincas; Los pericos, Santa Elena, Chicoapilla y La piedra, de plantación de pino tropical para el proceso de obtención de resina, se analizó que por cada hectárea que poseen las fincas se cuenta con aproximadamente 1100 árboles con una distancia de 3 metros entre cada uno.
A partir de los datos obtenidos se definió que el proceso de producción de resina inicia después de 6 a 7 años de haber plantado el árbol, se procede con el retiro de la corteza hasta encontrar la albura de una de las caras del pino tropical para posteriormente realizar el bigote en donde se coloca la bolsa que capta la resina.
Una vez preparado el árbol se comienza a realizar el proceso de estriado que consiste en realizar una estría cada semana durante 6 u 8 semana, posteriormente se aplica una pasta estimulante en cada estría hasta a completar 7 estrías con un total de 630 gr de resina aproximadamente.
De acuerdo con la información adquirida se elaboró un Balance Scorecard el cual consiste en definir un sistema de gestión que proporciona retroalimentación sobre los procesos comerciales internos y los resultados externos con el fin de mejorar continuamente el desempeño y los resultados estratégicos.
CONCLUSIONES
De acuerdo al análisis y observación que se realizó durante la estancia de verano en el programa Delfín, se lograron adquirir conocimientos teóricos y posteriormente ponerlos en práctica, así como aplicar conceptos relacionados con productividad, eficiencia, a través del desarrollo de un Balance scorecard en el que fue posible identificar las áreas de oportunidad dentro de la empresa y así poder cumplir los objetivos orientados a la misión y visión de la empresa para garantizar una sincronización estratégica dentro de la misma.
Cuadros Acosta Julio Jimmy, Instituto Tecnológico Metropolitano
Asesor:Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia
PROCESAMIENTO DE SEñALES PARA EL DESARROLLO DE UN DISPOSITIVO DE REHABILITACIóN DE MANO MEDIANTE ELECTROMIOGRAFíA
PROCESAMIENTO DE SEñALES PARA EL DESARROLLO DE UN DISPOSITIVO DE REHABILITACIóN DE MANO MEDIANTE ELECTROMIOGRAFíA
Cuadros Acosta Julio Jimmy, Instituto Tecnológico Metropolitano. Asesor: Dra. Adriana del Carmen Téllez Anguiano, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
La parálisis cerebral infantil es una patología que es causada por un conjunto de trastornos del movimiento y la postura. Esta enfermedad es caracterizada por lesiones de múltiple causa que afectan los centros cerebrales que controlan el movimiento. Entre los posibles tipos, la parálisis cerebral espástica es la más común, en ésta los pacientes presentan músculos tensos o rígidos, lo que afecta el correcto neurodesarrollo de los pacientes. Actualmente, la parálisis cerebral infantil tiene una prevalencia de dos a tres personas por cada 1000 nacidos vivos, lo cual es un problema de salud pública debido a su alta frecuencia. Por esta razón, en estudios recientes se han planteado dispositivos con el objetivo de apoyar al personal fisioterapeuta en el proceso de rehabilitación y permitir una mejora en la calidad de vida en los infantes. Los dispositivos más comunes en este proceso son las ortesis estáticas, que buscan estabilizar las articulaciones de miembro superior, por el contrario, existe una brecha en el área de investigación respecto al desarrollo de ortesis dinámicas que permitan fortalecer y recuperar los movimientos de las articulaciones, por ejemplo, en las implicadas en apertura y cierre de mano. Es importante desarrollar movimientos de apertura y cierre de mano en personas con parálisis cerebral debido a que muchas actividades de la vida cotidiana requieren de movimientos sencillos de motricidad gruesa y fina de tipo agarre o pinza. basadas en una retroalimentación biológica simultánea a los procesos de rehabilitación. Es por esta razón que en este estudio se plantea la elaboración de un algoritmo clasificador de procesamiento de señales que permita apoyar el proceso terapéutico en un dispositivo ortésico para pacientes con atrofia o espasticidad en mano mediante un análisis de señales de electromiografía de superficie, que permita relacionar la información y caracterización de las señales con los movimientos de activación en la apertura y cierre de mano.
METODOLOGÍA
El proyecto se desarrolló en dos etapas principales, la primera etapa consistió en la generación de una base de datos de señales de electromiografía de superficie. En segundo lugar, la etapa siguiente consistió en el procesamiento, análisis y desarrollo del algoritmo clasificador de apertura y cierre de mano. La base de datos se generó mediante la adquisición de las señales con un dispositivo estándar de adquisición electromiográfica (Noraxon UltiumTM EMG, EE. UU.) a una frecuencia de muestreo de 2 KHz con una resolución ADC de 24 bits (Filtro de paso de banda de 10 Hz a 500 Hz, filtro muesca a 60Hz). Estas señales se adquirieron de forma bilateral con electrodos de superficie de Ag / AgCl bipolares, desechables y pregelificados (Ref.2228, 3M - 30 mm x 35 mm, 15 mm, distancia entre electrodos de 25 mm) en dos grupos musculares (Extensor digitorum y Flexor digitorum superficialis) involucrados en apertura y cierre de mano. El estudio se realizó con señales de electromiografía adquiridas en tres repeticiones de 10 movimientos generando 30 registros del movimiento de apertura y cierre de la mano derecha de dos sujetos sanos diestros masculinos de 26 y 28 años. Los dos canales de electromiografía fueron grabados simultáneamente con un canal de acelerometría ubicado en la articulación metacarpofalángica de la segunda falange (dedo índice), este canal es utilizado como control para entrenar el modelo clasificador a desarrollar. Luego, una vez generada la base de datos, en la segunda etapa del proyecto se utilizó el software PYTHON para realizar el preprocesamiento de las señales de electromiografía adquiridas, se aplicó un filtrado digital de tipo Butterworth de orden 5 entre 20Hz y 200Hz. Para el caso de la acelerometría se aplicó un filtro Butterworth de orden 2 entre 0.01Hz y 2Hz para eliminar las frecuencias altas y suavizar el trazado del ángulo de la articulación metacarpofalángica. Posterior al preprocesamiento, se computaron dos características en ventanas de 2000 puntos y un solapamiento de 100 puntos. Inicialmente, se implementó una característica basada en la envolvente de la raíz cuadrada del valor medio de los cuadrados, la segunda característica computada fue el valor medio de la varianza para cada ventana. Finalmente, se implementó un algoritmo que mediante la definición de un umbral permite identificar la activación de los músculos flexores o extensores en el movimiento de apertura o cierre de mano.
CONCLUSIONES
Entre los resultados principales, el algoritmo obtuvo un rendimiento de 94.74% de exactitud (Accuracy) para todos los movimientos. Esto permite sugerir el algoritmo desarrollado como un clasificador que permite realizar la clasificación de apertura y cierre de mano. Es importante destacar que los resultados de este estudio tienen diferentes limitantes para su generalización como es la contextura muscular que puede generar mayores o menores tazas de cambio entre las amplitudes y el reposo entre los sujetos analizados, además, se espera variaciones en el comportamiento de señales de electromiografía adquirida en pacientes con parálisis cerebral. Por esta razón, el umbral del algoritmo debe ser ajustado de acuerdo con un análisis intra-sujeto. En último lugar, basados en el rendimiento obtenido se sugiere un trabajo futuro para realizar la validación del algoritmo entrenado en un hardware fabricado específicamente con los parámetros resultantes del análisis en el dispositivo estándar (Noraxon) para el registro de las señales electromiográficas en los grupos musculares estudiados y la implementación en tiempo real (On-line) del algoritmo en actividades de terapia en miembro superior en pacientes con parálisis cerebral infantil.
Cuellar Rizo Jimena Lizeth, Universidad de Colima
Asesor:Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
Cuellar Rizo Jimena Lizeth, Universidad de Colima. Girón López Carolina, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo es en colaboración con la Dra. Noemí Yolada Velázquez Suárez y el compañero José Enrique Velasco Ortega.
El inicio de la pandemia ha causado grandes cambios significativos en diversos sectores, siendo la educación uno de los más afectados siendo transferida a un formato virtual en su totalidad, ocasionando deficiencias a todos los sectores educativos.
En el nivel superior, en especial las carreras afines a las ciencias exactas, debido a la necesidad del conocimiento teórico-práctico que estas requieren, así como la necesidad de un constante seguimiento por parte del docente que imparte dicha materia en esta modalidad evidenció la falta de material de apoyo. Por lo que en el verano de investigación se propusieron herramientas didácticas para apoyar a los estudiantes y facilitar el autoaprendizaje.
OBJETIVO GENERAL
Generar herramientas para una educación de calidad en las ciencias exactas.
METODOLOGÍA
Para realizar la investigación se realizó una encuesta alrededor de 500 estudiantes de nivel licenciatura con formación afín a las ciencias exactas, donde se pretendía conocer un contexto personal y académico de los encuestados, así como conocer la viabilidad del proyecto. Posteriormente se realizó un informe de resultados en donde se establecieron las áreas de oportunidad del proyecto, la experiencia de los estudiantes en la educación en línea y la viabilidad de este.
Una vez conocidos los resultados se asignó a cada uno de los equipos una de las áreas de las que resultaron con mayor deficiencia de comprensión, en el caso de mi equipo el área asignada fue física enfocada a termodinámica, electricidad y magnetismo.
Para ello, se analizaron los planes de estudios de las diferentes universidades de las materias antes mencionadas y basados en la experiencia de cada uno de los integrantes, en las necesidades de los encuestados se eligieron los temas más relevantes con lo que se realizaron infografías informativas, problemarios, formularios, y la recopilación de material de apoyo como softwares interactivos, canales informativos de videos, bibliografía y buscadores de libre acceso.
Una vez generado el material, se procedió a una prueba piloto enfocado al grado de aceptación, así como la posibilidad de mejorar su contenido antes de la entrega final.
Aplicada la encuesta se procedió a la revisión de los comentarios y opiniones, atendiendo los más frecuentes para hacer las mejoras sugeridas y de esta manera obtener un producto final de calidad y de agrado para los estudiantes que utilizarán el material disponible.
Por último, se esperó la autorización del investigador a cargo del proyecto para continuar con la elaboración del resumen y/o reporte de las actividades que se desarrollaron durante en la estancia.
RESULTADOS
La encuesta aplicada tuvo un alcance de 487 estudiantes, mencionando tener problemática con las siguientes áreas:
Matemáticas 33.5% (163/487)
Física 33.1% (161/487)
Química 22.6% (110/487)
Otros 10.8% (53/487)
A continuación se muestran los porcentajes de problemática de cada área en específico, según los temas de conflicto que los alumnos mencionaron:
Matemáticas (163)
Ecuaciones diferenciales 55.8% (91/163)
Calculo diferencial e integral 28.8% (47/163)
Algebra 9.2% (15/163)
Otros 6.2 % (10/163)
Física (161)
Electricidad y magnetismo 41% (66/161)
Termodinámica 37.9% (61/161)
Dinámica 9.9% (16/161)
Estática 7.5% (12/161)
Otros 3.7% (6/161)
Química (110)
Química orgánica 36.4% (40/110)
Fisicoquímica 32.7% (36)
Química analítica 11.8% (13/110)
Química inorgánica 10.9% (12/110)
Otros 8.2% (9/110)
Una vez identificadas las áreas de oportunidad a trabajar y realizado el trabajo para dar una solución a la problemática que se generó debido a la situación actual en la que nos encontramos, se creó una carpeta en Google Drive donde se ordenó de forma clara todo el contenido realizado. En este caso se trabajó el área de física con termodinámica, electricidad y magnetismo, donde se produjeron infografías, resúmenes, ejercicios resueltos y de práctica. Además se buscó simuladores, videos y bibliografía de apoyo para esta área. Posteriormente se aplicó una segunda encuesta con la finalidad de conocer el grado de aceptación del material, siendo este aceptado por los encuestados.
CONCLUSIONES
Durante la estancia de verano se logró adquirir diversos conocimientos acerca de las áreas que se identificaron como de oportunidad, ya que se analizaron a detalle cada una de las materias para poder plasmar la información en recursos de uso libre y que de esta manera resultara, para los estudiantes, más fácil su estudio y comprensión.
También se adquirieron y/o desarrollaron habilidades, aptitudes y competencias como la capacidad de resolución de problemas, trabajo colaborativo, proactividad, iniciativa, innovación, adaptación, comunicación, desarrollo de relaciones interpersonales y uso de información digital confiable que sin duda alguna servirán de apoyo para nuestro crecimiento personal y profesional.
Yo Carolina, sin duda alguna el haber formado parte del verano Delfín ha sido una de las mejores experiencias que he tenido como estudiante universitaria, ya que aparte de aprender cosas que no sabía, me dió la oportunidad de conocer profesores, compañeros de otras carreras y de otros estados.
Yo Jimena, la estancia de verano fue una experiencia agradable y gratificante, el acercamiento con investigadores y personas de diferentes áreas de formación me ha vuelto más crítica, ambiciosa y responsable.
Cuéllar Zavala Luis Héctor, Instituto Politécnico Nacional
Asesor:Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
Cuéllar Zavala Luis Héctor, Instituto Politécnico Nacional. Jiménez Maqueda Gualberto, Instituto Tecnológico de Tláhuac. Morales Tepole Jose Maria, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Actualmente el municipio de Huauchinango, Puebla, no cuenta con una modernización y ampliación del sistema eléctrico, lo cual a futuro puede provocar un colapso de este. Aunque en la localidad hoy en día no se está retribuyendo a la compañía suministradora de electricidad el pago del servicio eléctrico, en un futuro cuando se tenga que hacer dicho pago muchos ciudadanos necesitarán “moderar” y “monitorear” su consumo eléctrico así como visualizar en tiempo real cuánto están gastando por día y su equivalente en costo, en base a estos datos podrán gestionar y organizar el uso dispositivos eléctricos a fin de tener un beneficio reflejado en la facturación de dicho servicio.
METODOLOGÍA
Para el desarrollo de la simulación se emplean varias etapas:
Análisis: Se consideran los elementos a usar, al igual que las fases en las que se desarrollará cada acción.
Medición de corriente: En el IDE de Arduino se realizó el código que permite tratar la señal medida por el sensor y procesarla. En el código se establece el procedimiento para que en base a la corriente de entrada obtenida por el sensor se realicen los cálculos de corriente pico, corriente eficaz y en base a estas dos primeras obtener la potencia en Watts. El diseño del circuito electrónico y la simulación se realizan en Proteus, en el cual se empleó: Fuente de corriente alterna, una lámpara de 127 W, Sensor ACS712, filtros de 0.1 uF y 1 nF, alimentación de 5 VCD, Arduino Uno y display LCD
Medición de voltaje: Se realiza con el sensor de tensión para lo que empleamos el módulo FZ0430, el cual mide tensiones de 0 V a 25 V , para su uso es necesario implementar una fase de rectificación. Se consideraron los siguientes elementos: transformador de voltaje de 127 V a 12 V, puente rectificador a 30V y filtro de 1000 uF.
Al realizar la simulación, no se encontraron las librerías para el sensor FZ0430 el cual está integrado por un divisor de tensión, por lo que se optó por replicarlo usando dos arreglos resistivos en serie de 30 kΩ y 7.5 kΩ.
Medición de potencia: Por medio de programación se concentran ambas mediciones anteriores para poder el cálculo de potencia en Watts, y cumplir con el objetivo de un dispositivo que mida la potencia total en un intervalo de tiempo
Definición y creación de la aplicación: El usuario podrá consultar su consumo eléctrico al dirigirse al medidor, ya que el prototipo cuenta con una pantalla LCD en donde visualizará la potencia consumida. Si se quisiera verificar el dato del consumo desde su celular y guardar los datos registrados, se complementa el dispositivo con una aplicación. Los resultados que serán mandos mediante una red bluetooth del prototipo del medidor desarrollado, y se podrá observar el consumo en kWh durante un tiempo establecido, de este modo generar un historial de los consumos guardados. Durante el desarrollo de esta app se consideraron distintos parámetros destacando el tiempo de respuesta entre las comunicaciones de 0.8 segundos y un alcance estable de 18 m. La aplicación se encuentra integrada por las siguientes pantallas:
Pantalla de inicio: Se ingresa el nombre de usuario de acceso a la siguiente pantalla.
Segunda pantalla: Muestra un recuadro donde se visualizarán los registros y la información recibida al igual que sus botones de acción.
Pantalla de reporte: Muestra un reporte general del consumo además de un botón de regresar.
Desarrollo del físico del prototipo: Para presentar una propuesta mecánica del dispositivo se empleará el software SolidWorks en el que se elaboraron las piezas individualmente basándose en las medidas reales de cada componente. El diseño final de la carcasa que contendrá los elementos del prototipo estará conformada por cuatros paredes las cuales están diseñadas de material tipo plástico ABS:
Base. Se considera el espacio necesario a las medidas características de cada elemento (10 cm x 15 cm x 0.5 cm), el diseño está previsto para que físicamente sean fijados por medio de tornillos milimétricos.
Cara superior. Cuenta con perforaciones por medio de una matriz lineal, permitiéndonos el flujo de ventilación dentro de la carcasa para evitar posibles sobrecalentamientos en el circuito.
Cara inferior. Se diseñó un sub ensamblaje de un ventilador de 12 VC a 130 mA, el cual tiene como función disipar el calor generado en el interior de la carcasa. Para la fijación se usó un tornillo de rosca milimétrica, cabeza hexagonal M4, longitud de 6 cm.
Cara frontal: Se consideran sub ensamblajes, el primero considerado para la colocación de la pantalla LCD (fijada por medio de tornillos milimétricos) y las entradas de conexión para el sensor de corriente y sensor de voltaje.
Tapa izquierda: Cuenta con una serie de perforaciones para permitir una mayor ventilación.
Tapa derecha: Se diseñó un sistema mecánico que consta de un botón central, el cual permite una fácil extracción de la tapa.
CONCLUSIONES
La realización de la simulación no bastó de tener un análisis de los componentes que integran al circuito sino más allá en cuánto a cálculos, tanto de calibración de sensores como al replicar la estructura de un sensor comercial tal es el caso del sensor de voltaje FZ0430, que al no encontrarse dentro de las librerías del software Proteus, tuvo que llevarse a cabo un análisis de cuál era la estructura y su principio de funcionamiento para poder replicarlo. No obstante, al simular dicha réplica, estaba presentando variaciones considerables que ocasionaban un error en la medición del voltaje, por lo que se recurrió a simularse en otro software, posteriormente mediante un análisis de las mediciones registradas se pudo corregir dicho error desde el código de programación.
Gracias a esto fue posible verificar el funcionamiento del circuito diseñado para el dispositivo medidor y permitió corregir a tiempo errores antes de ser llevados a la parte física y de este modo reducir pérdidas tanto económicas como de tiempo. Se procedió a realizar una propuesta de aplicación ya que complementa la parte de la simulación del prototipo en general.
Cuenca Cuadros Victor Daniel, Universidad Antonio Nariño
Asesor:Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito
DISEñO EXPLORATORIO DE PLATAFORMA PARA INSTALACIóN DE TURBINAS EóLICAS DE EJE VERTICAL
DISEñO EXPLORATORIO DE PLATAFORMA PARA INSTALACIóN DE TURBINAS EóLICAS DE EJE VERTICAL
Cuenca Cuadros Victor Daniel, Universidad Antonio Nariño. Asesor: Post-doc Miguel Fernando Montoya Vallejo, Escuela Colombiana de Ingeniería Julio Garavito
PLANTEAMIENTO DEL PROBLEMA
En Colombia para el año 2018 el 82% de la generación eléctrica dependía de la generación hidráulica. Esto se debe a la gran riqueza hídrica del País; no obstante, hoy en día la realización de grandes proyectos hidroeléctricos se ha convertido en una tarea casi que imposible por el impacto medioambiental y los costos excesivos requeridos para su construcción; añadiéndole a esto la tendencia mundial de generación de energía eléctrica está enfocándose en tecnología que garantice la sostenibilidad ambiental y económica mundial.
Como solución para el uso de energías renovables que sean amigables con el medio ambiente, se plantea el uso de la energía eólica, siendo esta una fuente no convencional de energía renovable que después de la década del 70 se ha incrementado su uso, observando un crecimiento sostenido hasta la actualidad a tal punto que hoy en día es la tecnología de generación de electricidad de mayor impacto a nivel mundial, contando con equipos de gran capacidad adaptativa, mayor eficiencia y menores costos, factores que anteriormente eran limitantes para el acceso a esta tecnología.
La escuela colombiana de ingenieros Julio Garavito cuenta con 3 aerogeneradores de eje vertical, a pesar de contar con los implementos la institución actualmente presenta una problemática basada en la configuración de posición de estos aerogeneradores debido a que no se cuentan con la infraestructura necesaria para la movilización y disposición de estos; con esta investigación se busca solucionar esto por medio del diseño de una base para facilitar el desplazamiento de los aerogeneradores, donde se puedan ubicar en distintas posiciones estratégicas sin la necesidad de desmontarlos para cambiarlos de posición. Se planteará un diseño optimo y practico apoyándonos del software SOLIDWORKS dónde se realizarán modelados 3D y simulaciones de tensión que permitan verificar el correcto funcionamiento del diseño.
METODOLOGÍA
Etapa 1: Conformación del marco teórico
Se realizará una investigación orientada en analizar y comprar los beneficios y debilidades de cada uno de los modelos de aerogeneradores preexistes, con la finalidad de ampliar el conocimiento y afianzar el fin de esta investigación; se realizará una revisión bibliográfica con respecto a soporte aerogeneradores AND configuraciones aerogeneradores.
Etapa 2: Diseño conceptual de la plataforma
Se identificarán las normativas vigentes que se deben cumplir en el manejo y distancia necesaria que debe haber entre los 3 aerogeneradores para su correcto y óptimo funcionamiento, para así iniciar la construcción de un boceto a mano alzada de la plataforma enfocándonos en la utilización de la menor cantidad de recursos, facilidad de montaje y uso.
Etapa 3: Selección de materiales y diseño geométrico en el software
Se investigarán los catálogos de perfiles y vigas existentes que cuenten con el aspecto técnico previamente diseñado, centrándonos para su selección en características como espesor, dimensiones, material y facilidad de acceso.
Una vez identificado el perfil a utilizar se realizará la inclusión del diseño a el software SOLIDWORKS y de allí se harán ajustes correspondientes para llegar al modelo final; haciendo uso de herramientas del sistema como lo son el moldeado, reducción de dimensiones y acoplándose al diseño del generador.
Etapa 4: Simulación
Se ejecutará un estudio de simulación en el software SOLIDWORKS con el fin de colocar aprueba el diseño planteado basándonos en el factor de seguridad y a su vez estudiar los puntos críticos del soporte. El estudio se realizará planteando distintas configuraciones de posición para estimar la viabilidad de cada posición.
Etapa 5: Procesamiento y análisis de resultados.
Una vez obtenidos los resultados de la simulación se procederá hacer un análisis de estos mismos y poder concluir si el diseño planteado cumple con los requerimientos y normativas que se esperaban.
CONCLUSIONES
Simulación
Se realizó la simulación del diseño en 2 distintas configuraciones, tales como en diagonal y en fila centrados.
Como punto de sujeción se colocó en las partes inferiores de cada uno de los pies de la plataforma para el deslizamiento; los puntos de carga se ubicaron en la parte superior de cada uno de los soportes móviles.
Simulación estática:
Nota: las simulaciones de tensión y desplazamiento en cada punto de carga se implementó una fuerza de 200 N
Diagonal
Simulación de tensión: El factor de seguridad que encontramos en esta simulación según von Mises es de 7.81
Simulación de desplazamiento: Punto máximo de desplazamiento es de 6.323 mm
Fila centrados
Simulación de tensión: El factor de seguridad que encontramos en esta simulación según von Mises es de 5.87
Simulación de desplazamiento: Punto máximo de desplazamiento es de 5.265 mm
Simulación de frecuencia:
Se puso aprueba el diseño en 5 modos diferentes de frecuencia donde podemos destacar que los modos 1 y 2 son los modos de frecuencia natural de la estructura y el material.
Diagonal
N. de modo - Frecuencia (Hertz)
1 - 4.0891
2 - 4.4317
3 - 4.8406
4 - 5.2222
5 - 5.3963
Fila centrados
N. de modo - Frecuencia (Hertz)
1 - 4.3497
2 - 4.5089
3 - 5.7315
4 - 5.8614
5 - 6.2449
Cuevas Aldana Arturo, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango
SISTEMA DE GENERACIÓN DE FICHAS PARA FACILITAR EL ACCESO A LA CONEXIÓN DE INTERNET
SISTEMA DE GENERACIÓN DE FICHAS PARA FACILITAR EL ACCESO A LA CONEXIÓN DE INTERNET
Cuevas Aldana Arturo, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Carmen Jeannette Sampayo Rodríguez, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Las Tecnologías de la Información y Comunicación (TIC) actualmente cuentan con una integración cada vez mayor en diversos ámbitos de la sociedad humana, principalmente en la educación, ofreciendo mayor información y contenidos audio visuales e interactivos que facilitan y refuerzan el aprendizaje en los alumnos.
En una escuela primaria, con aproximadamente 650 alumnos más maestros, administrativos y directivos de la institución, se necesita de conexión a internet para poder interactuar y aprovechar los beneficios al máximo que las TIC pueden ofrecer. Sin embargo, el acceso simultáneo y en cualquier momento mediante una cuenta de usuario global para todos los maestros y alumnos a la red propicia un fallo constante y una reducción significativa de la velocidad de internet para cada usuario, afectando la experiencia de uso y reduciendo las expectativas del aprovechamiento del conocimiento.
En la agenda 2030, se establece como objetivo número 4 una educación de calidad, siendo la problemática mencionada un impedimento para aportar a este objetivo. Por lo que durante el verano de investigación se desarrolla un sistema capaz de crear y administrar fácilmente cuentas de acceso a la red de forma temporal, que permitan la conexión a internet solo en momentos en que sea necesaria, mantenido un ancho de banda mayor y mejorando la experiencia de uso.
METODOLOGÍA
Se analizaron las instalaciones de red de la escuela primaria Federal Alberto Jiménez Valderrabano, con localización en la Colonia El Paraíso en Huauchinango Puebla, verificando que herramientas de software son propicias para las condiciones del equipo de red y de cómputo de la institución.
Al terminar el análisis de la factibilidad, se declinó por desarrollar el sistema de software generador de fichas para el acceso a internet, mediante la metodología de desarrollo de software ágil Scrum, cuyas fases se llevaron a cabo iniciando con el análisis, para lo cual se realizaron entrevistas al personal y analizando los datos obtenidos se enlistaron las funciones básicas que el sistema debe cumplir. Las cuales se muestran a continuación:
Insertar, modificar, consultar y eliminar Usuarios y Administradores.
Insertar, modificar, consultar y eliminar perfiles para las fichas a crear.
Permitir un login de los administradores del sistema.
Buscar por filtros los usuarios y las fichas registradas.
Generar fichas con un usuario, contraseña y tiempo específico desde de los perfiles de ficha de un usuario elegido por el administrador.
Insertar y eliminar las fichas generadas.
Generar un archivo en formato PDF y TXT de fichas generadas.
Generar un archivo en formato PDF de corte que permita resumir las fichas generadas y saber si han sido entregadas.
Una vez realizada la fase de análisis, se procedió al diseño del sistema, entre lo que se encuentra, el diseño de la lógica, el diseño de la base de datos, para la cual se utilizó una herramienta CASE para la creación de un diagrama UML de entidad-relación y el diseño de las interfaces graficas mediante el software de maquetado Just in Mind en su versión gratuita, buscando siempre la comodidad de los usuarios al utilizar el software.
Después de la fase de diseño, se inició con la implementación de los diseños previos en un software especializado para el desarrollo de software. En base a los requerimientos obtenidos, se eligió el desarrollo del software mediante la tecnología .NET, con el lenguaje de programación C# y con la ayuda del entorno de desarrollo integrado Visual Studio en su versión Community 2019. El Sistema Gestor de Base de Datos elegido para la administración y manejo de los datos fue SQL Server 2019 en versión Express. También está considerada la librería de software iText 7 Community, permitiendo la integración de funcionalidad PDF en el sistema de software.
Posterior a la fase desarrollo, se comenzó con una fase de pruebas, verificando el correcto funcionamiento de cada opción y herramienta ofrecida por el sistema, para posteriormente, pasar a una fase de implementación de prueba en la institución mencionada anteriormente, comprobando si el sistema cumple con las funciones básicas que fueron solicitadas y necesarias para resolver la problemática. Todas las observaciones y posibles errores en la lógica se corrigieron mejorando el rendimiento del software.
Se creo también un manual de usuario, explicando las funciones del software y cuáles son las posibles situaciones en las que este se pueda encontrar, permitiendo el manejo adecuado y la fácil percepción de los conceptos manejados. También se creó un manual técnico, con los datos necesarios para permitir que más desarrolladores puedan unirse al proyecto y entender el funcionamiento interno del sistema para mejorar y posiblemente ampliar sus capacidades en un futuro.
Una vez se tengan resultados sobre la mejora de la conexión a internet para los alumnos y maestros de la escuela primaria, se procederá a la realización de un informe, en el cual se expondrán los beneficios de utilizar el software y los inconvenientes que haya podido generar a la hora de implementarse con la comunidad educativa.
CONCLUSIONES
Durante la estancia de verano se logró ampliar y aplicar conocimientos técnicos sobre el desarrollo de software en un caso real, haciendo uso de software libre y herramientas para llevar a cabo la correcta administración de los datos almacenados.
Con respecto a la aplicación del sistema, las pruebas realizadas por el personal indican que cumple con las funciones necesarias para crear y administrar las cuentas de los usuarios, sin embargo, al ser un proyecto que requiere su implementación con la comunidad estudiantil en clases presenciales en la institución, aun no se pueden obtener resultados sobre la eficiencia del sistema.
Se espera que la fácil creación y administración de cuentas temporales para alumnos, maestros y administrativos de la institución primaria contrarresten la problemática planteada y mantengan conexiones a internet más fáciles y fluidas.
Cuevas Becerra Natalia Ximena, Universidad Antonio Nariño
Asesor:Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
NANOFIBRAS POLIMéRICAS DOPADAS CON NANOPARTíCULAS DE óXIDOS SEMICONDUCTORES PARA SU APLICACIóN EN LOS MATERIALES CEMENTANTES
NANOFIBRAS POLIMéRICAS DOPADAS CON NANOPARTíCULAS DE óXIDOS SEMICONDUCTORES PARA SU APLICACIóN EN LOS MATERIALES CEMENTANTES
Cuevas Becerra Natalia Ximena, Universidad Antonio Nariño. Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Debido a que la nanotecnología está, en este punto, articulada principalmente en términos visionarios y futuristas, es difícil aplicar métodos estándar de evaluación de tecnología y aún más difícil considerarla en los cursos de ética en ingeniería. [1] La nanotecnología forma parte importante de la investigación a nivel mundial teniendo en cuenta las diferentes utilidades que esta misma ofrece, ya sea para mejorar los insumos a nivel de ingeniería o para utilidades en la salud. Las investigaciones se encuentran en desarrollo con la finalidad de incluir a las nanopartículas y Nanofibras en los métodos constructivos, materiales y diseños de obras, para mejorar algunos aspectos como la durabilidad de los materiales, incrementar la resistencia mecánica de estructuras, eliminar contaminantes mediante fotocatálisis, etc. Para sintetizar Nanofibras, el método de electrospinning es ideal, debido a que es una técnica sencilla, de bajo costo y se generan Nanofibras sin defectos. Por otra parte, para sintetizar nanopartículas se ha utilizado en los últimos años la síntesis verde, el cual busca sustituir reactivos peligrosos por agentes naturales. Cada uno de estos nanomateriales actúan de diferente manera en los materiales cementantes (mejorando algunos aspectos), lo interesante sería dopar las Nanofibras con nanopartículas, con el objetivo de combinar las propiedades en un solo material.
En la investigación desarrollada en el verano científico se trabajó con el futuro dopaje de nanopartículas semiconductoras en Nanofibras poliméricas y su aplicación en los materiales cementantes.
METODOLOGÍA
La metodología presentada en el verano científico fue el proceso que siguió el investigador Dr. Manuel Chinchillas, quien fue mi asesor durante la estancia de verano científico del programa delfín. Esta metodología fue enseñada por su parte por medio de técnicas de aprendizaje como teoría, fotos, videos, pláticas, etc. Lo cual sirvió para mi desarrollo en el ámbito de la investigación y mi preparación.
1.1 Síntesis de nanofibras
Para realizar la síntesis de las Nanofibras primero fue necesario crear una solución polimérica de Polifloruro de vinilideno (PVDF) al 18% en una solución de Dimetilformamida (DMF). Después, esa solución se colocó en una jeringa y se insertó en la bomba infusora del equipo de electrospinning. Los parámetros utilizados fueron 18 Kv de voltaje aplicado, 20 cm de separación entre la ajuga y el plato colector y una velocidad de 0.4 ml/min.
1.2Síntesis de nanopartículas
Las nanopartículas se sintetizaron utilizando la síntesis verde con un agente reductor de toronja. Primero fue necesario crear el extracto de toronja, después se agregó Cloruro de estaño al extracto y se agitó. Posteriormente se le dio un tratamiento térmico para evaporar el agua del extracto y al final se colocó en un horno a 400 °C durante 2 horas. Finalmente el material resultante fue triturado en un mortero de ágata obteniendo así las nanopartículas de SnO2.
1.3Dopajes a futuro de nanopartículas en las nanofibras para su aplicación en el concreto.
Debido a la contingencia generada por Covid-19, esta parte de la investigación se desarrollará más adelante, ya que se pueda ingresar a los laboratorios. La metodología a seguir es similar a la mostrada en la síntesis de Nanofibras, a diferencia que en la solución polimérica se agregarán 3 porcentajes de Nanopartículas de SnO2 (0.1, 0.5 y 1 gr). Una vez que las nanopartículas se agreguen en la solución polimérica se iniciará el proceso de electrospinning para la obtención de Nanofibras dopadas con nanopartículas.
1.4Aplicación de las Nanofibras dopadas en los materiales cementantes
Una vez que se cuente con las Nanofibras dopadas con nanopartículas, se agregarán a una pasta de cemento para evaluar las propiedades mecánicas. Los porcentajes de adición serán 0.1, 0.5 y 1% en peso del cemento.
CONCLUSIONES
1RESULTADOS
1.1FT-IR, SEM y TEM
Se realizó la caracterización de las Nanofibras y de las nanopartículas mediante Espectroscopia infrarroja (FT-IR), Microscopia electrónica de barrido (SEM) y Microscopia electrónica de transmisión (TEM). El FT-IR realizado a las Nanofibras de PVDF mostró la vibración de los enlaces moleculares del polímero como C-F, C-C y C-H. Además, se realizó el estudio a las nanopartículas de SnO2 identificando la vibración de Sn-O. Mediante SEM se logró observar la morfología de las Nanofibras, el tamaño aproximado y la aglomeración. Y, por último, el estudio de TEM mostró la morfología de las nanopartículas, el tamaño promedio y su forma.
2CONCLUSIONES
Durante el verano científico, el asesor investigador el Dr. Manuel de Jesús Chinchillas Chinchillas nos mostró los procesos, técnicas, metodologías, resultados de sus investigaciones en desarrollo, etc. Con sus conocimientos pudimos desarrollar el proyecto de buena manera y así guiarnos por un camino de aprendizaje. Debido a la situación que atravesamos en este verano provocado por la pandemia de Covid-19 no se nos fue posible ingresar al laboratorio y experimentar de manera presencial. Pero también se propuso una metodología de trabajo a futuro que se realizará al reanudarse las clases presenciales. Este proyecto continúa con el dopaje de las Nanofibras y su aplicación en los materiales cementantes para mejorar las propiedades de durabilidad y propiedades mecánicas.
Cuevas Juárez Josué Elías, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
MODELADO DE UN SISTEMA ROBÓTICO MÓVIL CON CONFIGURACIÓN TIPO ACKERMAN
MODELADO DE UN SISTEMA ROBÓTICO MÓVIL CON CONFIGURACIÓN TIPO ACKERMAN
Cuevas Juárez Josué Elías, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El interés por el diseño e implementación de robots móviles se ha incrementado en las últimas décadas debido a las aplicaciones industriales y de uso cotidiano por lo que se requiere de sistemas de control confiables que hagan posible la realización de las tareas encomendadas. Antes de implementar un sistema de control y realizar experimentos costosos se requiere de herramientas de simulación que permitan validar su correcto funcionamiento.
Existen diversas configuraciones utilizadas en robótica móvil tales como: la geometría diferencial, skid-steer, triciclo y tipo Ackerman. La geometría Ackerman es la configuración estudiada en este trabajo de investigación debido a que es la más utilizada en los automóviles de uso personal convencionales.
En el presente trabajo se implementó el modelo cinemático y se realizó una simulación en Matlab/Simulink para verificar el comportamiento del sistema.
METODOLOGÍA
Se elaboró el modelo CAD del robot móvil a escala 1:10. El robot tiene montado un motorreductor que se encarga de dar tracción las ruedas posteriores. Además, utiliza un servomotor colocado en el chasis para actuar y dirigir al mecanismo de direccionamiento en las ruedas delanteras. Posteriormente, se exportó el modelo mediante Simscape, la cual, es un conjunto de bibliotecas utilizada para el diseño y simulación de sistemas mecánicos constituidos por cuerpos rígidos y que son conectados por articulaciones que obedecen a la dinámica Newtoniana con la finalidad de trabajarlo en Matlab/Simulink. Dentro de Simulink, se implementó el modelo cinemático de la bicicleta para aproximar el comportamiento del robot. Finalmente, mediante el uso de un controlador Stanley en lazo cerrado se buscó seguir trayectorias establecidas por puntos guías (waypoints). El uso de los sensores se asume que es ideal, es decir, no se contempla ruido ni imprecisiones en el proceso.
CONCLUSIONES
Mediante el entorno de experimentación establecido, se validó el uso del modelo cinemático de la bicicleta, el cual, pese a la simplificación que realiza en la geometría del vehículo, permite utilizar eficazmente técnicas de control para realizar los desplazamientos deseados.
Cupul Balam Gladis del Rosario, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío
PELETIZACIÓN DE LA MADERA Y EL SARGAZO PARA LA FORMULACIÓN DE UN BIOCOMBUSTIBLE COMBINADO
PELETIZACIÓN DE LA MADERA Y EL SARGAZO PARA LA FORMULACIÓN DE UN BIOCOMBUSTIBLE COMBINADO
Cupul Balam Gladis del Rosario, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío
PLANTEAMIENTO DEL PROBLEMA
Los desperdicios en los aserrados son un problema por la acumulación y el espacio que ocupa ya que se vuelven inservibles y la madera tarda en descomponerse de forma natural por su dureza (componentes químicos), darles un valor agregado en la elaboración de un biocombustible solido es una opción viable. Aprovechar los residuos forestales del estado de Quintana Roo es rentable por ser económico por los traslados y distancias cortas ya que implican menos consumo de gasolina.
Por otra parte el arribo del sargazo en junio de 2018, alcanzó más de 20 millones de toneladas en el mar Caribe y el océano Atlántico central (M. Wang et al., 2019). Únicamente en las costas del Caribe Mexicano, los reportes de la Secretaría de Ecología y Medio Ambiente (SEMA) de Quintana Roo indican que la biomasa algal retirada de las playas ascendió a las 528 mil toneladas en el 2018 (Mar & Espa, 2019). Y 803 toneladas de sargazo en los meses de mayo a julio de este año 2020 datos por parte de la Secretaría de Marina-Armada de México (Semar) por consiguiente la llegada de sargazo es un problema ambiental.
El sargazo afecta al turismo por desprendimiento de olores desagradables que se generan durante la descomposición de la materia orgánica. Además de la producción del ácido sulfhídrico y metano que son tóxicos para el medio ambiente.
Una de las opciones es elaborar pellets compactando madera y sargazo, y así contribuir con el aprovechamiento del alga junto con los residuos forestales, y ocuparlo en biocombustible para la generación de energía en forma de calor, cabe mencionar que este proyecto es con fines ambientales.
METODOLOGÍA
Las técnicas metodológicas de caracterización para la biomasa son clasificadas en diferentes categorías y se dividen en las siguientes secciones:
Muestreo y almacenamiento
Análisis aproximado o proximal o inmediato
Análisis final o elemental
Análisis térmico
Caracterizaciones físicas o mecánicas. Resistencia a la compresión y flexión.
Caracterizaciones físicas y fisicoquímicas. Tamaño de partícula, porosidad, superficie específica, grupos funcionales superficiales, etc.
Caracterizaciones estructurales y texturales la estructura cristalina y la morfología de la superficie. (Nzihou, 2020).
Se realizará la recolección y almacenarán las muestras de sargazo:
Se recolectará en mar abierto
Se introducirá en hieleras que contengan agua de mar para preservar la frescura
Se limpiará, y lavará con agua de la llave
Se dará un segundo lavado con agua destilada para retirar el exceso de sales
Se empaquetará en bolsas de plástico con cierre hermético, limpias, nuevas y
Se almacenarán en lugar limpio seco a temperatura ambiente, se preservará en recipientes lejos de la luz solar (Chew et al., 2016).
Se fijará un tamaño de particula
Se fijará un contenido de humedad de 9, 12 y 15
Se realizará análisis en el TGA para madera, sargazo y pellets para el comportamiento de la combustión.
Se realizará análisis en el SEM Y XRD para estudio de sus cenizas para la busqueda de metales y formación de oxidos.
CONCLUSIONES
La recolección se realizó en mar abierto, el 18 de octubre 2020 entre las 12 y 13 horas se consideraron 2 lotes de dos bancos diferentes, con ubicación de 21° 17.525ˈN. 86° 45.072ˈW y 21° 17.345ˈN. 86° 45.0558ˈ W. El sargazo fue resguardado en 3 hieleras de diferentes tamaños que contenían de acuerdo a su capacidad, la mitad de agua de mar tomado del mismo lugar de recolección Selección e identificación
Las muestras contenían una variedad de algas sargazo: Sargassum flutains, Sargassum natans, Sargassum spp, pasto marino entre otros tipos de algas, vegetación, y camarones pequeños. Se procede a separar y seleccionar el sargazo de interés contando con mayor cantidad de sargazo spp.
Es importante mencionar que no se logra separar por especie ya que no se contaba con cantidades significativas por la variedad de algas y encontrándose en mayor proporción sargazo spp ya que el tipo de sargazo contiene rizoide (Noiraksar & Ajisaka, 2008). Sargassum fluitans y Sargassum natans no cuentan con rizoide o ápices ya que durante todo su ciclo de vita están flotando por eso se considera pelágicos (Amaral-Zettler et al., 2017; Arellano-Verdejo et al., 2019; Gavio et al., 2015).
Secado del sargazo
Se pone a secar el sargazo en una estufa (horno) a 70°C por 24 horas, se resguardaron en bolsas con cierre hermético para su conservación.
Se obtuvieron 3 bolsas con sargazo secado a 70°C rotuladas en A, B y C, una bolsa con sargazo secado a 80°C identificada como bolsa D.
Las muestras ya secadas fueron cortadas con un tamaño de partícula de aproximadamente .5 mm, para ser caracterizadas en el TGA (Análisis termogravimétrico, TA instruments SDT 650).
Resultado y análisis del estudio termogravimétrico
En la muestra D al iniciar la combustión fue más estable hasta 217°C que fue donde libero energía, se podría deber en comparación con las muestras A y B, por componentes estructurales a los 80°C como los alginatos y fucoidano componentes de la membrana celular del sargazo se inicia la degradación de dichas moléculas a partir de los 70 a 150 °C por cuestiones de la importancia de la compactación en la pelletización se busca establecer la temperatura a los 70°C.
En este estudio se pretende conservar los componentes estructurales de fucoidano y algino, ya que podrian favorecer el proceso de compactación en particular el alginato ya que su principal función es actuar como hidrogel ya que la humedad es una variable que se debe controlar para una compactación eficiente.
Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro
Asesor:Dr. Noel Enrique Rodríguez Maya, Instituto Tecnológico de Zitácuaro
HACIA LA GENERACIÓN DE UN MODELO DE PREDICCIÓN DE DESEMPEÑO ACADÉMICO DOCENTE PARA UNA INSTITUCIÓN MEXICANA
HACIA LA GENERACIÓN DE UN MODELO DE PREDICCIÓN DE DESEMPEÑO ACADÉMICO DOCENTE PARA UNA INSTITUCIÓN MEXICANA
Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Dominguez Olvera Leonardo Daniel, Instituto Politécnico Nacional. Asesor: Dr. Noel Enrique Rodríguez Maya, Instituto Tecnológico de Zitácuaro
PLANTEAMIENTO DEL PROBLEMA
La educación superior es un pilar muy importante en la formación integral de las nuevas generaciones de estudiantes; es una herramienta fundamental que permite transmitir conocimiento a los estudiantes para la adquisición de las competencias necesarias para afrontar los retos profesionales. Por lo anterior, la educación superior debe adaptarse a los retos actuales para poder transmitir los conocimientos y que estos sean adquiridos.
Uno de los principales retos para el logro de los objetivos académicos es la actualización docente; los docentes sin importar el grado académico, se deben estar actualizando, no solo por los nuevos escenarios de educación en sus diferentes modalidades, si no que también se debe considerar que la tecnología avanza día a día y se debe fortalecer su formación profesional y su práctica docente. Otro de los factores importantes a considerar es la empatía con la que los docentes desarrollan las actividades con los estudiantes; la empatía permite a los docentes abordar su práctica con otros elementos más cercanos y prever diversas situaciones socioemocionales con los estudiantes.
METODOLOGÍA
La metodología con la que se va a trabajar será el Proceso Estándar de la Industria Cruzada para la Minería de Datos (CRISP-DM, Cross Industry Standard Process for Data Mining), la cual va enfocada a la explotación y análisis de los datos .
El modelo consta de 6 etapas las cuales son:
1.Comprensión del negocio: Se enfoca en la comprensión de los objetivos y exigencias del proyecto. Posteriormente convierte ese conocimiento de los datos en la definición de un problema de minería de datos y en un plan preliminar diseñado para alcanzar los objetivos.
2.Comprensión de los datos: Se encarga de la recolección de datos inicial y continúa con las actividades que permiten familiarizarse primero con los datos, identificar sus problemas de calidad, descubrir conocimiento preliminar en los mismos, y/o descubrir subconjuntos interesantes para formular hipótesis.
3.Preparación de datos: Cubre todas las actividades necesarias para construir el conjunto de datos final (los datos que serán provistos por las herramientas de modelado). Las tareas de preparación incluyen la selección de los datos, la limpieza de éstos, la construcción de nuevas variables, la integración de los datos y el formateo de los mismos.
4.Modelado: Se aplican las técnicas de minería de datos a los datos. Se aplican varias técnicas de modelado y los parámetros de uso de las mismas se afinan hasta alcanzar los valores óptimos.
5.Evaluación: se evalúan los modelos anteriores para determinar si son útiles a las necesidades. En esta etapa los modelos ya están construidos y deben tener una alta calidad desde una perspectiva de análisis de datos.
6.Despliegue: implica la explotación de los modelos dentro de un entorno de producción.
CONCLUSIONES
Lo fundametal fue la extracion de los datos, lo cual no fue sencillo ya que se tuvieron que leer varios artículos para poder saber que datos si eran relevantes y cuales no nos aportaban, esto fue nesesario para conformar de un dataset con datos cualitativos y cuantitativos de los docentes que forman parte del objeto de estudio. Después de la generación del dataset, se tiene que realizar la limpieza de datos y verificar que los datos sean válidos. El modelo predictivo será entrenado con este dataset de tal manera que no esté sobre entrenado y que permita generalizar las predicciones. Se tiene contemplado tener un porcentaje de precisión cercano al 100%. Obtenido lo anterior, se realizará un pronóstico de cómo serán los periodos lectivos y de esta manera mejorar los resultados académicos a través del seguimiento y la integración de los modelos para la toma de decisiones. Todo esto se hace con la finalidad de ayudar a la institución educativa para mejorar el rendimiento académico de los estudiantes-docentes; si se mejora el desempeño académico de un docente hay una alta probabilidad de que el alumno mejore.
Davila Contreras Eduardo, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
Davila Contreras Eduardo, Tecnológico de Estudios Superiores de Jocotitlán. López Sánchez Saira Anel, Tecnológico de Estudios Superiores de Jocotitlán. Martínez Hernández Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Mateo Mateo Amairani, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Se ha diagnosticado que la ambigua manera de operar para la obtención de resina del pino por parte del trabajador (Resinero) es muy tardado, asociado con el rendimiento promedio de trabajo del mismo, ya que suele pasar por distintas fases antes de su obtención, lo primero que se realiza es la preparación del pino, en este punto se procede al accionamiento de manera manual, ejecutando el alisamiento y desprendimiento de la corteza más fina del pino con un rayador, y con ayuda de un estriador practicar las incisiones que originan en este caso el exudado de resina, por ende se pretende con la implementación de un diseño de herramental ergonómico, reducir tiempo de demora y facilitar el mayor flujo de obtención de resina, aumentando gradualmente la productividad, y eficiencia de la empresa respecto a la obtención de su materia prima, consiguiendo hasta un índice del 30% de efectividad comparado con el método tradicional, lo que permitirá consigo la obtención de resina pura y fina, sin residuos sólidos que alteren su composición original, permitiendo que la incorporación de herramental automatizada sea favorable al proceso de obtención de resina garantizando seguridad en el proceso.
El fin de estudiar esta área de oportunidad que se ha observado en la empresa UUMBAL Agroforestal. Ubicada en la región Sur de Veracruz, es optimizar el proceso de recolección de resina con la ayuda de herramientas automatizadas con el fin de mejorar la productividad y el rendimiento empresarial.
Con la ayuda del software SolidWorks, será posible la creación del prototipo específicamente de un estriador y rayador, ya que son las herramientas principales que hacen posible la obtención de resina, cumpliendo del mismo modo con las especificaciones, tolerancias, diámetros, longitud y profundidad de corte según lo establecido como protocolo de operacionalidad, así como el requerimiento general de los materiales que componen al prototipo, evaluando las técnicas de instrucciones realizadas como mecanismo inherente al proceso.
METODOLOGÍA
Según su finalidad, dicho proyecto de investigación se clasifica como una investigación aplicada, debido a que aborda un problema de la vida real, y pretende dar respuesta a las diferentes áreas de oportunidad, dicho lo anterior se llevara a cabo una serie de pasos sistematizados con el fin de cumplir con los objetivos establecidos al inicio. Por ende, se plasmarán los pasos que se llevaron a cabo para la ejecución de dicho diseño de prototipo de herramental.
Se realizó bajo un modelo de seis etapas para el diagnóstico y diseño principal del herramental específicamente de un estriador y rayador. A continuación, se describe cada etapa de la metodología.
1.- Conocer la Empresa UMMBAL Agroforestal
Primeramente, como punto importante se debe identificar el proceso productivo de recolección de resina para así tener la descripción del uso del herramental que utilizan los colaboradores y todo lo que aborda el proceso generando un conocimiento más amplio abordando tanto debidamente los tiempos para la productividad de la resina.
2.- Análisis de los procesos productivos de herramental
Inspeccionar cada componente individualmente del herramental para la recolección de resina y cómo interactúan para producir resultados para ver cómo se genera el rendimiento en cuanto al tiempo de la recolección de este para así conocer la capacidad del proceso y ver que beneficio se está generando a la productividad en cuanto a su uso.
3.- Diseño de herramental ergonómico
Obtener datos nominales en cuanto al herramental utilizado, mediciones de las operaciones realizadas para poder diseñar el bosquejo del herramental ergonómico tomando como puntos clave, desempeñar con eficacia la función que se pretende de ella, proporcionar las dimensiones del usuario y de la herramienta y por último reducir la fatiga y lesiones del colaborador.
4.- Implementación de diseño de prototipo
Se podrá implementar el uso del prototipo con mejoras, dentro de la empresa UMMBAL Agroforestal, específicamente de un estriador y un rayador, que cumpla con las especificaciones de corte, profundidad y longitud, así como la operación de cosecha, evaluando la funcionalidad y aprovechamiento para valorar su exitosa aplicación
5. Caracterización del diseño de herramental
Se realiza un diagnostico general de los tiempos requeridos para cada operación además de evaluar y analizar minuciosamente el rendimiento total y la productividad, así como el nivel de fatiga del operador y/o resinero.
6. Análisis de mejora
Se realiza una evaluación de resultados de beneficios obtenidos tras las mejoras aplicadas, así como una comparación de las herramientas tradicionales ocupadas actualmente por la empresa y las que se añadieron como mejora, proyectando resultados de uso y componentes del herramental establecido para las operaciones de estriado y rayado.
CONCLUSIONES
Durante este periodo de investigación se tuvo la oportunidad de poder colaborar en la realización del herramental para la extracción de resina en el Agroforestal UUMBAL Veracruz. El proceso de elaboración de este trabajo fue sumamente interesante ya que se dio a conocer todo el proceso acerca de la extracción de resina. Se observó que los colaboradores estaban expuestos a sufrir de fatiga a través de su jornada laboral debido al desgaste físico que los herramentales exigen.
Esto ocasiona que no se obtenga el rendimiento esperado durante la jornada de trabajo, con el diseño de nuevo herramental se pretende aumentar la productividad a través de un diseño más ergonómico y mecanizado que permita al colaborador tener un menor desgaste físico para tener un mayor rendimiento y que esto se vea reflejado en la productividad de extracción de resina.
Dávila Corona Noel, Universidad de Colima
Asesor:Dr. Iván Félix González, Instituto Mexicano del Petróleo
PLATAFORMAS COSTA AFUERA, ESTRUCTURAS FLEXIBLES
PLATAFORMAS COSTA AFUERA, ESTRUCTURAS FLEXIBLES
Dávila Corona Noel, Universidad de Colima. Asesor: Dr. Iván Félix González, Instituto Mexicano del Petróleo
PLANTEAMIENTO DEL PROBLEMA
El creciente aumento en la demanda de energía, basada principalmente en los hidrocarburos, hace que estos se agoten y sean cada vez más difíciles de encontrar. Por esa razón la exploración se ha dirigido hacia otros sitios poco explotados tales como los mares y los océanos. Esa actividad se denomina Costa Afuera y significa en el mar, alejado de la costa, para indicar la localización de un recurso o proceso productivo.
La categoría Costa Afuera incluye la exploración, desarrollo y explotación de los recursos de petróleo y gas. Las fases principales del desarrollo incluyen los estudios geofísicos iniciales de amplias zonas para identificar los posibles bloques de exploración. Después se realiza la perforación de los pozos desde barcos o plataformas temporales para probar las posibles trampas estratigráficas, definidas como estructuras geológicas que impiden la migración del petróleo a la superficie, y originan acumulaciones locales de petróleo.
Luego se inicia la perforación de pozos de desarrollo desde plataformas de producción fijas y la construcción de la infraestructura de transporte y procesamiento. Las unidades de producción pueden ser de varios tipos: plataformas con pozos múltiples de producción y reinyección, tanques de almacenamiento, separadores y equipos de apoyo. Usualmente, se realiza el transporte a través del oleoducto y ocasionalmente, por barcaza o buque tanque, hasta las refinerías y/o instalaciones de procesamiento de gas que se encuentran en tierra.
Es así como se crea la idea de diseñar este tipo de estructuras de manera "flexible", para poder alcanzar lugares cada vez más profundos. El realizar las estructuras con un diseño "flexible" ayuda a la resistencia de la misma, ya que la fuerza más grande a la que están sometidas este tipo de estructuras es la de la corriente del mar y el oleaje; y el hecho de diseñarlas de esta manera le brinda mayor fortaleza y aguante ante estas fuerzas, llegando más profundo y ahorrando mucho dinero en material.
METODOLOGÍA
"Complaint Towers" significa estructuras flexibles. Entonces, las Complaint Towers son diseñadas como estructuras fijas que son apoyadas en el fondo del mar. Adicionalmente, este diseño al ser una estructura flexible tiene desplazamientos importantes en condiciones de operación y en condiciones extremas de tormenta. Una parte importante de la estructura se encuentra por debajo del espejo del mar, por lo que las fuerzas actuantes estarán dominadas por el oleaje y la corriente. Debido a que los desplazamientos son grandes en este tipo de estructuras, es bastante importante considerarlo al momento de realizar el diseño de estas.
Para poder alcanzar eso, las características de la masa y resistencia en las Complaint Towers son ajustadas de acuerdo a las normas, para regular las vibraciones naturales en estas mismas, con respecto a las frecuencias del viento y del oleaje. En general, las Complaint Towers con tubos flexibles tienen un periodo natural de 30 a 33 segundos. A diferencia de, las plataformas fijas en condiciones de aguas poco profundas tienen un periodo de tan solos 3 a 4 segundos.
Durante mi estancia de verano de investigación del Programa Delfín con el Dr. Iván Félix González, se realizó un pequeño ejemplo de una estructura flexible para poder obtener los valores de las fuerzas ambientales a las que está sometida esta estructura. Se propuso una estructura con una altura de 370 metros, de los cuales 350 m se encuentran desde el fondo marino hasta el espejo del agua, y 20 metros desde el espejo del agua hasta la parte inferior de la primera cubierta de la estructura, donde se alojan los equipos de producción.
Con una distancia de 60 metros entre cada soporte vertical, una separación de 30 metros entre cada soporte en horizontal, y con soportes en diagonal cada 2 separaciones. El diámetro de los soportes en vertical siendo de 2 metros, de los soportes en horizontal siendo de 1.5 metros, y soportes en diagonal siendo de 1.3 metros.
Durante la estancia se generó código de programación en Octave, para obtener las fuerzas actuantes en la estructura y en los módulos sobre cubierta, en este caso las ambientales, que se le aplican a nuestro ejemplo de estructura flexible desde los 4 lados de la misma. Como se mencionó previamente, este código se desarrolló en el programa Octave, el cual es un software libre (licencia GNU).
En dicho programa se tomaron en cuenta las fuerzas ambientales debidas a viento y corriente. Las fuerzas de viento en los módulos de producción son las más sencillas de obtener, pero la fuerza de la corriente fue más complicada, ya que abarca muchos elementos en la subestructura que se encuentra por debajo del nivel medio del mar (en nuestro caso 350 m).
Es una longitud bastante grande, por lo que se dividió la estructura en muchos elementos, para poder obtener las fuerzas que se le aplican en diferentes puntos de la misma, además de que la corriente marina no será la misma a 10 metros de profundidad, que a 300 metros. La estructura se identificó por nodos, para tener los puntos de referencia en el mismo nivel y poder calcular las fuerzas de corriente.
CONCLUSIONES
Durante mi estancia en este Verano de Investigación logré adquirir conocimientos en el área no sólo de Estructuras Flexibles, si no que en todo lo que abarca a las plataformas Costa Afuera. Aun cuando apenas voy a ingresar a 5to semestre de mi carrera, este verano de investigación lo disfruté mucho, ya que me interesa mucho toda el área de la Ingeniería Civil relacionada a la Hidráulica. Con ayuda del Dr. Iván pude conocer el proceso al momento de realizar el diseño y determinar los cálculos de una plataforma Costa Afuera, además de conocer muchos términos de los cuales no estaba familiarizado.
Aun cuando completamos el código para la obtención de las fuerzas, sí considero que 7 semanas fue relativamente poco tiempo para todo lo visto, y que sí me faltó comprender un poco más el código, que es donde llego tener un poco más de problemas. Pero aún con todas las complicaciones de esta modalidad virtual, siento que fue un verano de investigación exitoso, y le doy las gracias al Dr. Iván por su paciencia y sus enseñanzas.
Daza Ortiz Yorvis Jose, Universidad de Pamplona
Asesor:Mtro. Sabino Martinez Juarez, Benemérita Universidad Autónoma de Puebla
TERRITORIALIDAD WAYUÚ UN CASO DE ESTUDIO EN LA GUAJIRA, COLOMBIA
TERRITORIALIDAD WAYUÚ UN CASO DE ESTUDIO EN LA GUAJIRA, COLOMBIA
Daza Ortiz Yorvis Jose, Universidad de Pamplona. Asesor: Mtro. Sabino Martinez Juarez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La Guajira es un departamento habitado en gran parte por los indígenas Wayuú, los cuales se ubican en 3 partes del territorio, alta Guajira, media Guajira y baja Guajira. La territorialidad Wayuú configura el territorio desde una dimensión de apropiación simbólica, y ésta relaciona los sitios sagrados que posibilitan la construcción del territorio Wayuú desde su cosmovisión. Sin embargo, en la Guajira no se contempla el enfoque de territorialidad Wayuú en los instrumentos de planificación territorial y se niega la territorialidad como un mecanismo de control del territorio por parte del estado, lo que ha causado una segregación y exclusión tanto social como espacial, llevándolos a pésimas condiciones de desarrollo integral y consecuentemente el debilitamiento en las prácticas culturales, sociales y económicas de las comunidades indígenas.
Según lo expresa Licona, Torres y Urizar (2016) consideran que:
comprendemos a la territorialidad fundamentalmente como aquel proceso de representación que posibilita construir al territorio como símbolo, es decir, a la manera de un sistema de representaciones simbólicas con sus respectivas prácticas cotidianas estructuradas en relación a un sistema de valores diversos, comunicados y en tensión histórica que permiten reproducir y transmutar la vida social en el territorio; así la territorialidad es un modo de vida que funciona como una estrategia social de singularidad en el mundo, en una temporalidad específica frente a los otros y de enunciación de un sí mismo (p. …)
En el caso de la comunidad Wayuú la territorialidad tiene que ver con aspectos simbólicos, expresados desde la cosmovisión y demarcadas por sitios sagrados de gran importancia, así mismo existe una tipología social sagrada que clasifica los lugares en prohibidos, encantados y comunales. Creando un fuerte vínculo sagrado entre los Wayuú y la tierra.
METODOLOGÍA
La ruta de investigación es la cualitativa con enfoque etnográfico, el cual consiste en elaborar una representación coherente de lo que piensan y dicen los nativos, de modo que esa "descripción" no es ni el mundo de los nativos, ni el modo en que ellos lo ven, sino una conclusión interpretativa que elabora el investigador. En primera instancia, se parte de la revisión de textos con enfoques teóricos relacionados con el territorio desde la perspectiva cultural y la cosmovisión. Dicha revisión teórica se dividió en cuatro fases: 1. Pueblos Originarios, 2. Territorio, 3. Métodos e instrumentos y 4. Territorios indígenas. En segunda instancia, se investiga acerca del territorio wayuú y su cosmovisión en relación con los principales sitios sagrados para visibilizar los símbolos que subyacen dentro de este territorio indígena. Queda abierta la posibilidad de trabajo de campo debido a la contingencia sanitaria de la COVID-19.
CONCLUSIONES
Se adquirió conocimientos teóricos sobre el concepto de territorio y pueblos originarios, principalmente desde la perspectiva cultural que hace emerger las formas de apropiación simbólica del espacio en los territorios indígenas contemporáneos.
Las entidades territoriales y los instrumentos de planificación del departamento de La Guajira, deberían integrar la Territorialidad Wayuú como un elemento esencial para la organización de su territorio, considerando las determinantes espaciales del territorio a partir de sus tradiciones, creencias y raíces ancestrales, así como los sitios sagrados.
Se relacionó el tema de los pueblos indígenas con los Objetivos de Desarrollo Sostenible (ODS), las cuales pretenden ser un instrumento a nivel mundial para erradicar la pobreza y disminuir las desigualdades y vulnerabilidades. En su Objetivo 10, trata sobre Reducir las desigualdades y garantizar que nadie se queda atrás, entre ellos los pueblos indígenas del mundo. Sin embargo, en la realidad no se ve reflejado las metas, a nivel local la población Wayuú vive constante desigualdad donde sus derechos territoriales son quebrantados, generando pobreza y una ruptura en sus tradiciones a nivel social y cultural.
Por otro lado, se vincula el Objetivo 11 que emplea las ciudades y comunidades sostenibles y en su meta 11.1 contempla que, de aquí a 2030, asegurar el acceso de todas las personas a viviendas y servicios básicos adecuados, seguros y asequibles y mejorar los barrios marginales. No obstante, la no adecuada planificación territorial se presenta en gran parte de los asentamientos Wayuú, lo que genera un aumento de las necesidades básicas insatisfechas, crecimiento descontrolado y segregación espacial. A nivel local estas metas deberían contemplar, Promover el desarrollo armónico y equilibrado, brindándoles los bienes y servicios básicos que garanticen un incremento de su calidad de vida, con estricto respecto a sus valores culturales, ancestrales, usos y costumbres.
También, Plantear políticas a nivel departamental que brinden asistencia técnica para desarrollar instrumentos que permitan el uso adecuado del territorio, dándole prioridad a las comunidades indígenas de crear prácticas que dirijan la conservación ambiental y aprovechamiento de las potencialidades y ventajas de la tierra, así cumplir con lo planteado del Objetivo 11 de Desarrollo Sostenible
de Hoyos Carrillo Soraya, Universidad Pontificia Bolivariana
Asesor:Dr. Jose Bonilla Cruz, Centro de Investigación en Materiales Avanzados (CONACYT)
METAMATERIALES AUXéTICOS NANOCOMPUESTOS CON RESPUESTA PIEZOELéCTRICA VíA DWI
METAMATERIALES AUXéTICOS NANOCOMPUESTOS CON RESPUESTA PIEZOELéCTRICA VíA DWI
de Hoyos Carrillo Soraya, Universidad Pontificia Bolivariana. Asesor: Dr. Jose Bonilla Cruz, Centro de Investigación en Materiales Avanzados (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las impresiones 3D juegan un papel muy importante en la innovación, ya que con la ayuda de nuevas tecnologías se han podido generar nuevos materiales de impresión en el campo de investigación, por tanto, es un tema que muy pocos tocan, ya que no ha tenido tanto auge. Es por esto, que este estudio es importante a nivel científico, ya que es enfocado en la obtención de nuevas resinas que contengan nanocompuestos y a su vez sean piezoeléctricos, para lograr que los materiales, en este caso auxéticos, sean conductores.
METODOLOGÍA
La metodología empleada se basó en encontrar una receta que fuese compatible con el objetivo final de hacer una resina con nanocompuesto de grafeno imprimible. Para ello se hizo la búsqueda de documentos bibliográficos para así tener una idea del proceso a realizar, luego se realizaron diseños auxéticos en SolidWork. A partir de ahí, se utilizó 0.7g, 2g de grafeno (Gnp), 5%, 7% de tolueno, con respecto a 8g y 9 g de la resina Lexel, para la obtención de las propiedades piezoeléctricas, posteriormente se imprimieron muestras de control en la máquina Hyrel, para analizar la receta de impresión y a partir de ahí su conductividad.
CONCLUSIONES
De la presente investigación se ha logrado recopilar análisis de recetas de impresión 3D en la máquina Hyrel, basada en los distintos diseños y sus características de impresión. Posterior a la impresión se verificó si la resina al 10% cumplía con los parámetros de conductividad y esta no tuvo resultado satisfactorio, es por esto qué se implementó una nueva receta al 20%, donde se llegó a la conclusión que dicha resina si es conductora. Cabe mencionar que gracias al Verano de Investigación científica he reforzado mi formación académica y puse en conocimiento conceptos básicos aprendidos en mi carrera profesional.
de Jesus Castro Edgar, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
Cortés Duarte Mateo, Universidad Tecnológica De Bolívar. de Jesus Castro Edgar, Tecnológico de Estudios Superiores de San Felipe del Progreso. García Uriburu Castro Sebastián Alejandro, Instituto Politécnico Nacional. Trinidad Hernández Luis Antonio, Instituto Tecnológico de Tláhuac. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Mundialmente, e incluso personalmente, se conocen los problemas que el SARS-CoV-2 ha estado ocasionando desde comienzos del 2020. Uno de los problemas que puede resaltarse más es la falta de comunicación directa con otras personas, es decir, el tipo de contacto social que se experimentaba antes de la pandemia. Esto afectó totalmente la manera en la que se realizaban las actividades diarias, como los deberes o hábitos.
Se decidió poner énfasis en la falta de comunicación detallada que se puede presentar al momento de realizar las compras, o "ir al súper". El principal objetivo por el que se buscó desarrollar este proyecto fue el ayudar a las personas a tener una experiencia de compras más amena en el ámbito de dudas, o de asistencia al momento de hacer las compras.
METODOLOGÍA
Para proseguir, será necesario aclarar algunos conceptos esenciales que harán más fluida la lectura:
Archivo JSON (JavaScript Object Notation o Notación de Objetos de JavaScript): es un formato ligero de intercambio de datos que resulta sencillo de leer y escribir para los programadores y simple de interpretar y generar para las máquinas.
API: Es una serie de protocolos y definiciones utilizada para estructurar el software de aplicaciones. API significa Interfaz de Programación de Aplicaciones (Application Programming Interface).
Chatbot: es un sistema computacional cuyo objetivo es sostener una conversación con un usuario humano usando lenguaje natural, es decir el lenguaje que usamos diario a diario cuando hablamos con otras personas.
Python: Python es un lenguaje de programación flexible y diseñado para ser fácil de leer. Es un lenguaje orientado a objetos y de alto nivel.
Para comenzar el desarrollo del proyecto, fue necesario utilizar un chatbot rudimentario cuyo nombre es "ChatVoice". Este chatbot tenía las bases esenciales de un chatbot ya construidas, y, de igual manera, estaba programado para poder almacenar variables, como nombres, gustos, hechos, entre otras cosas más. La principal razón por la que se optó por utilizar un "esqueleto" ya producido fue el tiempo de duración de la estancia. Desarrollar un "esqueleto" propio habría relentizado el desarrollo del proyecto.
Para que ChatVoice pudiese actuar de la manera deseada - encontrar productos, comparar precios, indicar existencias, etc. - fue necesario realizar una API, o base de datos, que pudiese brindar al chatbot la información necesaria para operar en un supermercado, esto es, la lista de productos, su ubicación en la tienda, su existencia, entre otros detalles.
Por otro lado, no resultaría suficiente tener una base de datos con la cual el chatbot tuviese conocimiento, sino que se necesitaría un archivo que le pudiese brindar información sobre las costumbres y hábitos de escritura en los diversos países hispanohablantes. Es por ello que se escribió un archivo JSON que contuviera esos modismos entre países de habla hispana, por ejemplo, las diferencias de saludos y despedidas, las diversas maneras de preguntar sobre productos, entre otros modismos.
Código
La base de datos y el archivo de intercambio de datos (JSON) , al ser dos cosas independientes, se aunaron por medio de un código desarrollado en Python, el cual utilizó librerías diseñadas para el procesamiento del lenguaje natural (NLP por sus siglas en Inglés).
Específicamente, las librerías utilizadas fueron:
spaCy: es una biblioteca de procesamiento de lenguaje natural Python diseñada específicamente con el objetivo de ser una biblioteca útil para implementar sistemas listos para producción.
Esta librería se empleó para que el chatbot pudiese identificar el sustantivo en una oración y compararlo con los productos preestablecidos en la base de datos para poder a continuación brindar una respuesta al usuario.
NLTK: esta librería se empleó para segmentar o tokenizar las palabras que el usuario introdujera.
Ejemplo:
//Se tiene un texto como este: Hello, nice to meet you. Greetings. from nltk.tokenize import sent_tokenize mytext="Hello, nice to meet you. Greetings." print(sent_tokenize(mytext)) //La salida será la siguiente: ['Hello, nice to meet you.','Greetings.']
Se presentaron problemas de compatibilidad con el idioma español en la nueva versión de la librería spaCy. En su lugar, se trabajó con la versión anterior a la más reciente - versión 3.0 - .
CONCLUSIONES
A lo largo de la estancia, se adquirió nuevo conocimiento teórico y práctico sobre la creación de chatbots. No obstante, hay mucho conocimiento por abordar, por ejemplo, la implementación de redes neuronales (aprendizaje automático o Machine Learning), o la implementación del procesamiento del lenguaje natural, ambas desarrolladas por los estudiantes y no hechas previamente debido al tiempo que esas áreas de estudio requieren para ser implementadas de manera eficaz.
El chatbot asistente de compras logró mostrar un funcionamiento acorde a lo que se estaba esperando. El asistente puede resolver dudas y preguntas relacionadas a precios y localizaciones.
Este proyecto puede extenderse a más áreas, como a la asistencia en negocios de otra índole, como tiendas de ropa, o tiendas de videojuegos, ya que, lo único que se necesita es dotar al asistente con los detalles sobre cada artículo.
Bibliografía:
Barrera, A. (S/F). JSON: ¿Qué es y para qué sirve?. julio 21, 2021, de next_u. Sitio web: https://www.nextu.com/blog/que-es-json/
Datademia. (S/F). ¿Qué es Python?. julio 24, 2021, de Datademia Sitio web: https://datademia.es/blog/que-es-python
Mayo, M. (2018). Comenzando con spaCy para procesamiento de lenguaje natural. julio 25, 2021, de Ciencia y Datos Sitio web: https://medium.com/datos-y-ciencia/comenzando-con-spacy-para-procesamiento-de-lenguaje-natural-e8cf24a18a5a
Meza, V.(2017). ¿Qué es un chatbot?. julio 20, 2021, de Ivan Vladimir Meza Ruiz. Sitio web: https://turing.iimas.unam.mx/~ivanvladimir/page/curso_chatbots_s1/
de la Cerda Villaseñor Flavio, Universidad de Guadalajara
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
CREACIóN Y DESARROLLO DE MECANISMOS DE UN ANIMATRóNICO PARA LA CONSERVACIóN DE LA LENGUA NAHUATL
CREACIóN Y DESARROLLO DE MECANISMOS DE UN ANIMATRóNICO PARA LA CONSERVACIóN DE LA LENGUA NAHUATL
de la Cerda Villaseñor Flavio, Universidad de Guadalajara. Melo Muñoz Luis Enrique, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
La lengua Nahuatl se consolidó como uno de los pilares más importantes en la historia de México, teniendo un gran peso político y una imponente distribución geográfica. Esta lengua se ha ido abandonado con el paso del tiempo debido al acelerado crecimiento de las ciudades, lo que conlleva a la reducción de las zonas indígenas, y por ende de los pobladores que tenían el dominio de este lenguaje. El objetivo de este proyecto es crear un animatrónico didáctico que recreará los movimientos faciales humanos durante el habla, generando una reconstrucción del lenguaje Nahuatl por medio de diversos mecanismos enfocados principalmente en los oculares y mandibulares en software de diseño 3D. Esto para la preservación, concientización y distribución de la lengua Nahuatl, buscando mantener vivo no solo el lenguaje, sino también toda la tradición, cultura e historia que representa.
METODOLOGÍA
El desarrollo de este trabajo conllevó una investigación previa, se busca que el animatrónico sea lo más familiar posible a un humano, esto con la finalidad de generar una presencia con cierta amenidad y facilitar la interacción de las personas con el animatrónico. Está pensado para colocarse en el Instituto Tecnológico Superior de Huauchinango, lo que conlleva a realizar un diseño que resulte familiar a la población, además de que preserve la esencia de la cultura en la región, que como se pudo analizar anteriormente, estadísticamente Puebla es el lugar con más hablantes de Nahuatl en el país.
El animatrónico cuenta con mecanismos que permiten el movimiento ocular de ambos ojos de manera independiente entre sí, lo que conlleva el uso de la parte superior anterior del cráneo. También, existe una placa de control en donde se colocan ciertos electrónicos como una placa Arduino y las fuentes de voltaje para los motores. Esta placa se coloca de manera vertical en la parte medial del cráneo, paralela a los ojos. Esta distribución permite tener libre la parte inferior del cráneo, desde el paladar hasta el cuello, ya que no habrá mecanismos que muevan este último. Así mismo, se cuenta con la mayor parte posterior del cráneo libre. La parte que más destaca de este trabajo fue la mandíbula, esta conlleva una gesticulación donde a través del trabajo de investigación previamente realizado se logró identificar un mecanismo que fura capaz de imitar un movimiento mandibular que necesario para que el animatrónico pueda tener una pronunciación más fluida.
CONCLUSIONES
En el transcurso de este verano de investigación los conocimientos adquiridos fueron invaluables, desde investigación previa para el análisis del funcionamiento biomecánico tanto de la mandíbula como de los globos oculares, hasta la manipulación de software de diseño 3D en el cual se buscó recrear los movimientos funcionales de las zonas anteriormente mencionadas.
Gracias a el trabajo y modalidad de seguimiento conllevado durante el verano se desarrolló un carácter autodidacta e investigativo por medio del cual se conllevaron a cabo trabajos de investigación y diseño del modelado mandibular y ocular del animatrónico que asemejan a los movimientos humanos, para crear un ambiente de confianza en la interacción de la población y el animatrónico con la finalidad de preservar el Nahuatl y todo el trasfondo cultural e histórico.
de la Concha Zamora Edgar, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Dunstano del Puerto Flores, Universidad de Guadalajara
ESTUDIO, DISEñO E IMPLEMENTACIóN DE
CONTROLADORES PID DIGITALES
ESTUDIO, DISEñO E IMPLEMENTACIóN DE
CONTROLADORES PID DIGITALES
de la Concha Zamora Edgar, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los controladores digitales, los cuales hacen posibles que los sistemas industriales como brazos robóticos, calderas, fuentes de alimentación eléctrica de energías renovables, etc, funcionen adecuadamente dentro de los parámetros que la empresa considera libres de peligro para las personas que tienen contacto con ellos, y ofrezcan un servicio o generen un producto final que no genere inconvenientes, cada vez se encuentran más cerca de la vida diaria de las personas y en mayor cantidad.
METODOLOGÍA
Para el desarrollo del controlador digital, se utilizará una tarjeta Arduino UNO genérica de la marca Arduino. La tarjeta tiene integrada el microcontrolador Atmega328P, el cual trabaja con un cristal de cuarzo de 16 MHz y un voltaje de alimentación recomendado por el fabricante en un rango de 5 V a 12 V. El software que se utilizó para programar el microcontrolador del arduino fue el Arduino IDE, y para comprobar el correcto funcionamiento de las operaciones matemáticas a programar en la tarjeta fue el software Matlab. Para llevar a cabo las mediciones y análisis del desarrollo del algoritmo, se utilizó un osciloscopio DSO512P.
La primera función para analizar en el microcontrolador es su modulación por ancho de pulso. Esta herramienta es ampliamente utilizada para controlar la cantidad de energía con la que un sistema trabaja. Esa cantidad es determinada por la duración de los pulsos, (ancho del pulso / ciclo de vida útil/ ciclo de trabajo) los cuales tienen una amplitud constante. Se observó que su PWM, por defecto, está configurado para trabajar con 8 bits a una frecuencia de 490 Hz. Para propósitos de implementación, se decidió utilizar el puerto 11 de la tarjeta arduino UNO. Ese puerto trabaja con el TIMER2, el cual puede seleccionar una de las 7 frecuencias de trabajo que ocupa el PWM que se obtiene en su salida, a comparación del TIMER1 y TIMER0 que tienen 6 opciones de frecuencia de trabajo. La máxima frecuencia de PWM que se obtiene de ese timer es 31,372.55 Hz, por lo que se considera la máxima dinámica posible para diseñar el microcontrolador. Esa frecuencia indica que cada 31.88 us se puede modificar el ancho de pulso.
La segunda función para analizar de la tarjeta arduino fue su convertidor analógico-digital (ADC). Dicho módulo, se programó el tiempo mínimo que le toma para hacer el proceso de conversión completo (desde tomar el dato analógico hasta guarda la codificación digital de dicho en una variable) para observar su precisión en la medición de la señal analógica. Con éxito, se comprobó que funcionó correctamente con un tiempo de 6.5 us al utilizar 10 bits para guardar el valor leído y codificado.
Otro módulo para analizar fue su comunicación serial con el protocolo RS-232. Su medición se halló con la velocidad de transmisión de datos, la cual se mide en baudios por segundo. Se probaron las frecuencias que marca la hoja de datos del microcontrolador para observar cuál es la máxima velocidad que tiene una buena resolución en la transmisión o recepción de datos. Esa velocidad fue la de 115200 baudios por segundo. Esto indica que se transmite un bit cada 8.68 us, por lo que trasmitir el número 1000 tarda 174 us aproximadamente, lo cual coincide con el valor de 20/115200. Con esto, se consideró el valor de 174 us como el tiempo que tarda en mandarse un valor leído por el ADC del arduino.
Una vez estudiado esos módulos, se procedió a buscar la frecuencia de trabajo con la que trabajará el PWM de la tarjeta en su puerto 11 para programar el algoritmo de control. La medición se llevó a cabo con el osciloscopio, y se detectó que esas 3 instrucciones se ejecutan en un tiempo de 185 us, el cual en frecuencia equivale aproximadamente a 5406 Hz. Esto conllevó a seleccionar una frecuencia menor y cercana al valor de 5406 Hz, la cual es 3921.16 Hz, misma que se puede programar en el TIMER2 de la tarjeta arduino. Ese valor de frecuencia es equivalente aproximadamente a 255 us, lo cual indica que mi algoritmo de control tiene un tiempo de 255 us - 185 us = 70 us para desarrollarse y funcionar correctamente. Ese valor de tiempo se conoce como paso de integración.
Al terminar de caracterizar la tarjeta con los parámetros esenciales para desarrollar un controlador digital con el protocolo de comunicación serial RS-232, se necesita comprobar que el microcontrolador es capaz de programar la función de transferencia de un proceso, considerando que es un sistema lineal.
Las funciones de transferencia a trabajar en el arduino fue un sistemas lineales. Esto fue con el propósito de seleccionar el método de discretización de la función matemática del sistema que se controlará con el algoritmo de control a seleccionar.
Los 2 métodos utilizados fueron el retenedor de orden zero (ZOH) y el método Tustin. Con ayuda de Matlab y el osciloscopio, se observaron las ventajas que el método Tustin tiene sobre el ZOH, la principal fue que la planta al ser simulada en la tarjeta fue que no presenta retardo alguno al aplicar una entrada escalón unitario.
Al finalizar estas pruebas, se observó que la tarjeta digital está lista para comprobar que la función de transferencia que se obtenga al identificar un sistema industrial; además, está lista para implementar cualquier controlador digital que se deseé comprobar para analizar su rendimiento y funcionamiento.
CONCLUSIONES
Durante el tiempo del Programa Delfín se obtuvo una caracterización adecuada de la tarjeta con ayuda de la metodología de diseño propuesto por el profesor a cargo. Cada tarea realizada cumplió con las metas a alcanzar en cada explicación teórica que se presentó, por lo cual se adquirieron nuevos conocimientos teórico-prácticos para la implementación del controlador. Se espera a futuro que la metodología se adecue a diseños de algoritmos de control que permiten utilizar de forma óptima el desempeño que un sistema puede tener para un correcto funcionamiento y ahorro de energía.
de la Cruz de la Cruz Zulema, Instituto Tecnológico de Tepic
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
EVALUACIóN FíSICO MECáNICA MEDIANTE LA PRUEBA DE FLEXIóN Y PRUEBAS NO DESTRUCTIVAS EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON SUSTITUCIóN PARCIAL DE ARENA POR PET Y SUSTITUCIóN DE PARCIAL DE CEMENTO PORTLAND POR CENIZA DE BAGAZO DE CAñA
EVALUACIóN FíSICO MECáNICA MEDIANTE LA PRUEBA DE FLEXIóN Y PRUEBAS NO DESTRUCTIVAS EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON SUSTITUCIóN PARCIAL DE ARENA POR PET Y SUSTITUCIóN DE PARCIAL DE CEMENTO PORTLAND POR CENIZA DE BAGAZO DE CAñA
de la Cruz de la Cruz Zulema, Instituto Tecnológico de Tepic. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En primer lugar, es importante mencionar como en nuestras ciudades actuales, el mundo de la construcción ha venido involucrando elementos para el desarrollo moderno, esto ha derivado en gran parte la contaminación ambiental presente desde su extracción hasta la ejecución de la obra, aportando significativamente a la destrucción de la capa de ozono y el calentamiento global por la producción de gases nocivos, como lo son el CO2, mencionado por cabrera (2018).
Son tendencia de producción y consumo la situación de la industria de las resinas de polietileno en México, en la publicación de NTR periodismo crítico, se menciona que solo se recicla el 15% anuales de 800 mil toneladas de Pet, cifra que es preocupante porque el 85% termina sin tratamiento alguno en relleno sanitarios, bosques, playas y océanos generando impactos negativos en costas del pacifico norte del país,(Álvarez, 2016) derivado de esto se identifica la necesidad de garantizar la durabilidad del concreto, conservación de materiales y reciclaje de materiales cementantes como lo es la ceniza de bagazo de caña como reemplazo parcial del cemento portland (landa, 2019)
Por lo tanto surge la idea de generar combinaciones a los morteros con base de cemento, generando adición de Pet y sustitución ceniza de bagazo de caña, logrando con esto que la mezcla presente una reducción de cemento con respecto al agua y a la arena, obteniendo garantizar mejoramiento de las propiedades físicas y mecánicas del mortero, verificando que los procesos sean de calidad y cumplan con las normativas mexicanas ONNCCE, que direcciona y estipula los porcentajes de fluidez y de resistencia según cada espécimen.
METODOLOGÍA
Esta investigación está desarrollada en cuatro fases, como objetivo se propone analizar y comparar la resistencia de los especímenes de mortero con adición de PET y sustitución de ceniza de bagazo de caña, a edades diversas de análisis.
Fase 1: Calidad del material: Iniciamos con el cuarte y selección del material para garantizar la obtención de la muestra significativa y de tamaño adecuado, para la prueba obtenida en el banco de materiales. Se realizó el análisis de granulometría, donde pasamos la muestra significativa por una serie de mallas o tamices. Determinamos la capacidad máxima de absorción que tiene la arena al estar saturada por 24 horas con agua expresada en porcentaje. A partir de la arena saturada, obtuvimos el volumen de las partículas de arena.Con estos porcentajes se realizamos las pruebas de fluidez, estableciendo la relación de agua cemento según la combinación a realizar para lograr que el mortero sea más manejable plástico y dúctil.
Fase 2: Colado de especímenes: Se elaboraron 4 morteros este año, se estableció la relación agua cemento (a/c) de 800 ml de agua por1 kl de cemento portland y 2.750 de arena, en la combinación con Pet se realizó una adición del 10% que equivale a 100gr de, la variación con ceniza de caña se realizó una sustitución del 10% al cemento al ser un material cementante y en la combinación de Pet y ceniza 900gr de cemento con sustitución del 10% de ceniza que son 100gr, adición de 100gr de PET, con la misma relación en gua y arena. Se realizaron especímenes prismáticos de mortero con las 4 combinaciones, por lo cual se hicieron las diferentes mezclas para cada espécimen, utilizando todo lo necesario para el colado de los especímenes como son asegurar los moldes para posteriormente engrasarlos, realizar las mezclas y para el proceso del colado se cubrió en 2 capas, en cada capa con la ayuda de un pisón se realizando 8 apisonamientos en un sentido y 8 en sentido contrario en modo de zic zac por lo que al finalizar cada capa se dio de 3-5 golpes para vibrar al molde de cada lado hasta ver que ya no tenga burbujas la mezcla, posteriormente se hace la segunda capa con el mismo procedimiento y finalmente con la espátula enrazar la superficie del molde.
Después de 24 horas de haber fraguado las mezclas el mortero de testigo y con adición de Pet, se empleó un procedimiento de curado de concreto para evitar que el agua de la mezcla del concreto se evapore en forma rápida o para reintegrar al mismo la perdida de humedad. Pasadas las 72 horas los morteros de ceniza y los combinados de ceniza y Pet fueron introducidos a curar y posterior mente analizar a las edades de 7, 14 y 28 días.
Fase 3: Pruebas no destructivas: Pasados los 7 días iniciales del curado, se extraen del curado las pruebas saturadas se toman los pesos en una balanza digital con capacidad de 3000 gramos, paralelo a esto se realiza la prueba de resistividad eléctrica en masa que se obtiene de los especímenes, se llevaron a cabo mediante el método uniaxial de dos puntos, dicho método se basa en colocar dos electrodos en la superficie del mortero, donde se mide la diferencia de potencial entro ambas placas metálicas (Juela, 2020). Se tomaron las dimensiones de las áreas de las caras de contacto y las fórmulas para realizar las pruebas de resistencia de cada mortero.
Fase4: Pruebas destructivas, resistencia a la compresión en Flexión: A los 7, 14 y 28 días se realizaron las pruebas destructivas a las 4 combinaciones se hizo la prueba de flexión, con la ayuda del equipo mecánico la maquina universal forney en una base de fierro con dos apoyos a los costados y aplicando una carga uniforme en el centro del espécimen, obteniendo así el valor real de la carga a la que fue sometida en kg.
CONCLUSIONES
Después de haber realizado las pruebas las pruebas destructivas y no destructivas a cada espécimen de las 4 combinaciones y haberlos probado en sus 3 ciclos que son a los 7, 14 y 28 días, se obtuvo como resultado que la adición que tiene la Ceniza de bagazo de caña es el más eficiente, ya se observó que a los 7 y 14 días no es tan eficiente, pero a los 28 días es el más efectivo, por lo tanto como conclusión se cumplió el objetivo de poder hacer diferentes mezclas para disminuir el uso del cemento portland como material de construcción, así como los contaminantes que produce que en su ejecución deriva a la destrucción de la capa de ozono y el calentamiento global por la producción de gases nocivos CO2, y se puede disminuir con la ayuda de adicionarle o sustituirle materiales reciclados a los morteros como en este caso que se estuvo trabajando con Pet y Ceniza de bagazo de caña.
de la Cruz Márquez Galilea Itzel, Universidad Autónoma de Zacatecas
Asesor:Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla
PROYECTO PARA LA SíNTESIS Y CARACTERIZACIóN DE UN RECUBRIMIENTO AUTORREPARABLE A BASE DE RESINA EPóXICA/NANOFIBRAS DE CELULOSA/óXIDO DE GRAFENO DOPADO CON NANOPARTíCULAS DE ZINC PARA APLICACIONES ANTICORROSIVAS.
PROYECTO PARA LA SíNTESIS Y CARACTERIZACIóN DE UN RECUBRIMIENTO AUTORREPARABLE A BASE DE RESINA EPóXICA/NANOFIBRAS DE CELULOSA/óXIDO DE GRAFENO DOPADO CON NANOPARTíCULAS DE ZINC PARA APLICACIONES ANTICORROSIVAS.
de la Cruz Márquez Galilea Itzel, Universidad Autónoma de Zacatecas. Asesor: Dr. Jenaro Leocadio Varela Caselis, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La corrosión ha sido un problema recurrente que ha causado innumerables pérdidas económicas, ambientales y humanas desde la antigüedad (During, 2018). Los esfuerzos de los investigadores y la industria por encontrar nuevas opciones para la formulación de recubrimientos anticorrosivos y autorreparables han aumentado en las últimas décadas gracias a la necesidad de utilizar materiales baratos, abundantes, no tóxicos y ecoamigables, aunado a la paulatina prohibición de los componentes antes utilizados para esta función. Se ha reportado la síntesis de recubrimientos autosaneantes contra la corrosión a base de resinas epóxicas utilizando como reservorio nanofibras de celulosa, obteniendo resultados prometedores tanto de velocidad como de control en la liberación de inhibidor (Yabuki et al., 2014, 2016). También se ha utilizado óxido de grafeno en resinas epoxi (Ma et al., 2020) como reservorio, dando buenos resultados, entre otras aspectos, gracias a su buena capacidad de adhesión a sustratos metálicos. También se sabe de la efectividad de utilizar nanopartículas de metales como zinc y su buen desempeño como inhibidores de la corrosión (Mohammadkhani et al., 2020). Debido a lo anterior, en este trabajo se propone la síntesis de un recubrimiento anticorrosivo novedoso con capacidad de autorreparación a base de resina epóxica/nanofibras de celulosa /óxido de grafeno dopado con nanopartículas de zinc.
METODOLOGÍA
Se realizó una investigación documental basándose en bibliografía científica publicada después de 2006 en editoriales como ScienceDirect y ElSevier. Primero se investigaron y comprendieron los conceptos básicos relacionados con el fenómeno de corrosión, la protección que se le puede dar a los metales para evitarla, recubrimientos inteligentes autorreparables y su funcionamiento para finalmente integrar lo anterior en recubrimientos anticorrosivos autorreparables. Posteriormente se estudió el estado del arte en la cuestión. Fue así como se eligió la resina epóxica como matriz polimérica y las formas de nanocelulosa y óxido de grafeno se eligieron como punto focal en el proyecto, al ser ambos nanomateriales relativamente nuevos con mucho potencial en el campo, y una gran perspectiva de sinergia al utilizarse juntos como nanorreservorio en la propuesta de recubrimiento, por no mencionar la sensibilidad de los enlaces superficiales de ambos a los cambios de pH. Los iones de zinc como inhibidor de la corrosión se eligieron debido a la gran cantidad de estudios que han reportado su buen desempeño en la protección anticorrosiva y la compatibilidad con el reservorio ya planteado para insertarlo en su superficie. Finalmente, integrando toda la información recabada anteriormente, se procedió a desarrollar una propuesta de proyecto de síntesis y caracterización.
CONCLUSIONES
Se propuso el desarrollo de un proyecto para la síntesis de un recubrimiento avanzado anticorrosivo para la protección de sustratos metálicos, y se eligió una resina epóxica como polímero base para este fin, por sus propiedades mecánicas y aditivas. La propuesta actual plantea llevar a cabo en primer lugar la síntesis del compuesto Nanofibras de celulosa/ Óxido de Grafeno, posteriormente dopar el nanocompuesto resultante con iones de zinc e integrar en la resina epóxica por un método mecánico. La metodología experimental sugerida es realizar la síntesis y analizar cada compuesto obtenido con técnicas como espectroscopía infrarroja con transformada de Fourier (IR) y microscopía electrónica de transmisión (TEM). La caracterización electroquímica se propone llevar a cabo con sustratos revestidos previamente dañados para ocasionar corrosión localizada, variando en ellos la presencia de zinc, óxido de grafeno y nanofibras de celulosa en una solución de cloruro de sodio, mediante espectroscopía de impedancia electroquímica (EIS) que es una técnica adecuada para evaluar recubrimientos orgánicos, y finalmente microscopía electrónica de barrido (SEM) para observar la morfología de la superficie y los daños ocasionados por la corrosión al final de las pruebas.
de la Cruz Ochoa Paula Adriana, Universidad de Guadalajara
Asesor:Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
EVALUACIóN Y COMPARACIóN DE MéTODOS PARA LA ESTIMACIóN DE LA ACUMULACIóN DEL DAñO EN MATERIALES COMPUESTOS LAMINADOS
EVALUACIóN Y COMPARACIóN DE MéTODOS PARA LA ESTIMACIóN DE LA ACUMULACIóN DEL DAñO EN MATERIALES COMPUESTOS LAMINADOS
de la Cruz Ochoa Paula Adriana, Universidad de Guadalajara. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
En los últimos años, ha habido un rápido crecimiento en el uso de materiales compuestos reforzados con fibra en aplicaciones de ingeniería. Particularmente en las industrias automotriz y aeroespacial, su uso está asociado con una reducción de peso, el consiguiente ahorro de combustible y una mejora en el rendimiento. Sin embargo, hay un serio obstáculo para el uso generalizado de estos materiales; su sensibilidad a las cargas de impacto, eventos que pueden ocurrir en servicio o durante las actividades de mantenimiento, resultando en el daño de la matriz, fractura de la fibra y desunión de fibra-matriz. El daño por impacto se considera la causa principal de la delaminación en servicio en los materiales compuestos, además, este tipo de daño no es fácil de detectar, ya que en la mayoría de los casos no hay evidencia de su presencia en las superficies exteriores. Efectivamente, la energía del impacto se absorbe a través de notables mecanismos de daño interno sin signos exteriores detectables por inspección visual. El fenómeno se ha convertido en una fuente de interés, motivación y preocupación que ha promovido una intensa labor de investigación cuyo resultado se refleja en los centenares de publicaciones especializadas que han aparecido en las últimas tres décadas, y la gran cantidad de técnicas experimentales para la inspección que existen en la actualidad.
De entre las técnicas que han sido ampliamente utilizadas en la caracterización del daño, tan sólo unos pocos métodos son capaces de revelar con distintos grados de precisión la distribución y morfología del daño a través del espesor. En general, estos métodos son clasificables en dos grupos: técnicas destructivas y no destructivas. A pesar de la diversidad de métodos de inspección, ninguno de ellos proporciona toda la información requerida para la caracterización del fenómeno. Asimismo, su uso exige estrictas condiciones de aplicabilidad, la más significativa es el requerimiento de una inspección de la superficie completa, y aunque algunas de las técnicas se prestan a la automatización, raramente se reduce el tiempo efectivo de inspección.
A pesar de que ya se cuenta con modelos para realizar una estimación de la acumulación del daño con un buen porcentaje de veracidad y repetitividad, todavía existen incógnitas sobre las variables de mayor importancia en la propagación del daño. El desarrollo de modelos basados en las variables de diseño del material compuesto permite la adaptación de éstos a diferentes configuraciones con un buen porcentaje de estimación de daño.
METODOLOGÍA
A partir de un exhaustivo análisis de la información de la literatura especializada, se hizo una recopilación y síntesis de la información disponible sobre los métodos para la estimación de la acumulación del daño en materiales compuestos laminados. Se evaluaron y compararon 13 métodos de acuerdo a los alcances y las limitaciones que tienen para detectar los siguientes tipos de defectos: delaminación, vacíos, humedad, irregularidades en el espesor de la resina, ondulación de la fibra, rotura de la fibra, porosidad y agrietamiento de la matriz. Lo anterior permitió clasificar los métodos según su nivel de aplicación:
Métodos primarios: termografía infrarroja, shearografía e inspección ultrasónica.
Métodos condicionales: imagen radiográfica y análisis modal.
Métodos cualitativos iniciales: inspección visual e impacto acústico.
Métodos excluidos: métodos penetrantes, corriente de Focault, emisión acústica, fibras ópticas, radar de penetración terrestre y prueba de carga rápida.
La identificación de los métodos con un rango superior de aplicación se hizo con el objetivo de proponerlos para que sean tomados como referencia en investigaciones experimentales futuras que pretendan desarrollar las bases de metodologías para la estimación de la acumulación del daño en materiales compuestos laminados en función de las variables de diseño, ya que se sabe que la complejidad en estos materiales se debe a que el daño depende del diseño del laminado en términos de secuencia de apilado, espesor de la capa, naturaleza de las fibras, tipo de refuerzo, etc. Por lo tanto, también se consideró ideal determinar las variables de diseño del material con mayor influencia en la acumulación del año. Después de una detallada búsqueda en numerosos trabajos se encontró que la principal variable de diseño podría ser la secuencia de apilado de las diferentes capas que conforman el laminado, sobre todo porque ha demostrado tener una influencia más que significativa en la resistencia a impacto.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre materiales compuestos laminados, comprendiendo que su sensibilidad a las cargas de impacto es un problema que demanda un profundo conocimiento del fenómeno, abordando aspectos como la evaluación de la resistencia del material al impacto y de la tolerancia para soportar el daño inducido. Finalmente, se determinaron cuáles métodos de estimación de la acumulación del daño tienen un rango superior de aplicación en estos materiales, así como las variables de diseño con mayor influencia sobre éste, de manera que la información presentada pueda ser tomada como referencia en futuras líneas de investigación; esto resulta de gran importancia si se considera que en la actualidad se están invirtiendo grandes esfuerzos en estrategias dirigidas al desarrollo y diseño de materiales compuestos menos susceptibles a la aplicación de cargas súbitas, optimizando la configuración de los laminados.
de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PROCESAMIENTO DE SEñALES
PROCESAMIENTO DE SEñALES
de la Cruz Piña Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PLANTEAMIENTO DEL PROBLEMA
Debido a la presente pandemia a causa de Covid-19 que actualmente vivimos en nuestra sociedad hemos experimentado cambios bruscos dentro de nuestra vida cotidiana, además de muchas consecuencias negativas, volver poco a poco a la normalidad ha sido complicado dentro de instituciones educativas y aunque aún no se reanudan las clases para las escuelas de nivel superior el personal docente y administrativo ha regresado en su mayoría a laborar. Sin embargo, el riesgo de propagación del COVID-19 se incrementa en la medida que aumenta el contacto cercano con otras personas. Cuanto mayor sea la cantidad de personas con las que interactúan los docentes y el personal administrativo, es cuanto más prolongada sea la interacción, mayor será el riesgo de propagación del COVID-19. Por lo que se aplican el procedimiento de Monitoreo de salud y pesquisa de posibles casos Covid-19, el cual contempla: Mantención de pediluvios (limpiapiés empapados con desinfectante), los cuales deben ser usado por toda la comunidad escolar se exige uso de mascarilla, provisión de alcohol gel a cada persona que ingrese a los recintos, y se le debe indicar dónde está el más próximo lavamanos provisto con jabón. Lo anterior, siempre que requiera inevitablemente entrar como una medida de salud además de la consulta sobre posibles síntomas y segregación en caso de pesquisar personas con síntomas y actuación en caso de que concurran al establecimiento u oficina contactos confirmados una denegación de acceso y aviso en caso de presentarse un trabajador con cuarentena obligatoria. Pero todo ello lo sigue haciendo el personal que labora dentro de la institución es por ello que de acuerdo a lo planteado anteriormente se elaboró un prototipo el cual tiene como principal objetivo que algunos de estos protocolos se puedan realizar de forma automática dentro de un programa para así evitar el uso de personal que realice las tareas.
METODOLOGÍA
Para el prototipo se pretendía utilizar el siguiente sensor un dispositivo que integra un pulsioxímetro y un monitor de frecuencia cardiaca, es la evolución del sensor MAX30100 fabricado por Maxim Integrated. Posee dos Leds: un led rojo (660nm) y un led infrarrojo (920nm), un fotodetector, óptica especializada, filtro de luz ambiental entre 50 y 60Hz, y un conversor ADC delta sigma de 16 bits y de hasta 1000 muestras por segundo. Además, posee un sensor de temperatura interno para compensar los efectos de la temperatura en la medición. Debido al tiempo y algunas complicaciones que se tuvieron con este sensor se realizaron algunas pruebas, pero no fue posible hacer el uso de este sensor. Sin embargo, se sustituyó por leds de colores verde, amarillo y rojo, que son los colores de semáforo de riesgo epidemiológico un sistema de monitoreo para la regulación del uso del espacio público de acuerdo con el riesgo de contagio de COVID-19
El programa que realiza lo siguiente para que el usuario pueda ingresar a la institución se hace un número de preguntas, las cuales contienen que ingrese la temperatura, la oxigenación, si ya se aplicó la vacuna contra el COVID-19, si se ha tenido contacto con alguna persona con síntomas de COVID-19, si ha tenido fiebre, sí ha presentado la pérdida del olfato o el gusto, si ha presentado algún dolor de garganta o algún malestar muscular importante. Debido a las preguntas que el usuario contesta el programa hace una evaluación para realizar comparación y de acuerdo con dos valores sí y no, donde se le dio el valor de uno y la respuesta es igual a sí y el valor de cero si es no; de acuerdo con estas comparaciones y a los colores anteriormente mencionados. El Rojo, pues, sería que si presenta varios de los síntomas o si da varias respuestas con un valor de 1 y consecuentemente se le niega el acceso a la instalación y se le recomienda a acudir a un médico. En cambio, si el usuario respondió que está vacunado o de acuerdo menos preguntas con valor de 1 y no representa riesgo para para el personal se le asigna el color amarillo y puede acceder a las instalaciones, pero que se le recomienda acudir al médico para tener algún seguimiento. Finalmente, si no presenta síntomas o está vacunado se le asigna el color verde, y puede acceder a las instalaciones. El programa fue realizado en. Lenguaje java haciendo el uso de un Arduino todo esto dentro de una simulación haciendo, las pruebas necesarias.
CONCLUSIONES
Con lo anteriormente mencionado los resultados obtenidos de acuerdo con el programa fueron una respuesta de tiempos del usuario de 0.05 segundos para que el programa cargue, y un tiempo aproximado de 50 segundos para que el usuario conteste las preguntas y finalmente un tiempo de 40 segundos para que el programa compare las respuestas y se mande el mensaje final donde al mismo tiempo el led se enciende. En cuanto al sensor MAX30102 se pretendía que el usuario no ingresara su temperatura ni su oxigenación ya que sería medido con el mismo, debido al tiempo no fue posible concretar esta acción, pero se queda como un prototipo que puede seguir continuando ya que además de que los tiempos mostrados y la medición de lo mencionado los accesos serían más rápidos y sin necesidad del contacto con el personal que le de acceso a las instalaciones de la institución.
de la Luz Crisanto Ricardo, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Dra. Selene García Nieves, Instituto Tecnológico Superior de Las Choapas
SITIO WEB PARA EL APRENDIZAJE DE OPERACIONES BáSICAS CON NúMEROS NATURALES.
SITIO WEB PARA EL APRENDIZAJE DE OPERACIONES BáSICAS CON NúMEROS NATURALES.
de la Luz Crisanto Ricardo, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dra. Selene García Nieves, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los estudiantes de nivel básico primaria presentan dificultades de análisis, compresión para la resolución de operaciones básicas lo que se ve reflejado en un bajo rendimiento académico, de acuerdo al Plan Nacional de Evaluaciones de Aprendizaje (PLANEA) quien se encarga de evaluar el aprendizaje de los alumnos en el nivel matemáticas en cuatro niveles de aprendizaje (Nivel I más bajo a Nivel 4 más alto), en donde en sexto año de primaria se observan grandes deficiencias de aprendizaje, muestra que 59% de los alumnos se encuentran en el nivel I (más bajo) el cuál es denominado insuficiente dando a conocer que los alumnos no saben resolver operaciones básicas (Suma, resta, multiplicación y división) con números naturales.
Estos datos son comparados de la misma fuente de entre 2015 y 2018 los cuales muestran que en el año 2015 el promedio fue de 500 puntos y en 2018 fue de 503 tenido solo un aumento de puntos, asimismo tenemos la comparativa de la puntuación promedio a nivel nacional comprendida entre 2015 y 2018 notando la diferencia de tres puntos y teniendo un error estándar de 1.8 lo que nos indica que el aprendizaje a través de tres años no ha aumentado en los alumnos. Las deficiencias en el aprendizaje de las matemáticas son un problema de impacto económico y social; económicamente, debido a que se atrasa el periodo de vida académica de un alumno provocando gastos elevados. Socialmente, ya que al reprobar una materia pueden desertar de la escuela y volverse vulnerables a delinquir, aumentando el índice de delincuencia y desempleo en la localidad.
METODOLOGÍA
Para la elaboración del proyecto se utilizó la metodología RUP (Proceso Unificado de Desarrollo), a continuación se describe como se aplicaron las 4 fases de la metodología RUP en la realización de este proyecto que tiene como objetivo Desarrollar un sitio web para que los alumnos de 6to grado de primaria aprendan a resolver problemas de operaciones básicas, utilizando HTML y CSS junto con el lenguaje de programación JAVASCRIPT.
FASE DE INICIACIÓN. Obtención de Requerimientos: Durante esta fase se realizó la obtención de requerimientos utilizando las técnicas de entrevista, observación, u sustracción de información de fuentes confiables se tomarán como base los temarios de los libros de matemáticas de sexto grado de primaria, así como los requerimientos que se obtengan en reunión con maestros de sexto grado.
FASE DE ELABORACIÓN: Análisis y diseño: El análisis y diseño de un sitio web se inició, pero es en esta fase de elaboración en donde deberá estar completamente terminado. Se realizó la arquitectura de un sitio web, esta arquitectura se llevó a cabo mediante un diseño de interfaces. Posteriormente se realizaron los diseños y el uso de HTML, CSS y el lenguaje de programación JAVASCRIPT. El diseño de interfaces del sitio web consta de cinco páginas (Inicio, Suma, Resta, Multiplicación y División) de las cuales los apartados de Inicio, Suma y Resta se encuentran totalmente en función, la página Inicio tiene información y videos de las operaciones básicas, las páginas de Suma y Resta presentan infomación del tema, video para un aprendizaje visual y ejercicios para que los niños realicen, sin embargo se sigue trabajando con las dos páginas restantes que son de división y multiplicación,
FASE DE CONSTRUCCIÓN: Implementación (Desarrollo del sitio web): Se inició con el desarrollo del código del sitio web, para esto se usó el programa Visual Studio Code ya que tiene soporte de compilación con diferentes tipos de lenguajes de programación, el uso de Visual Studio Code contribuye al desarrollo del sitio web ya que se desarrollará para equipos con sistema operativo Windows. También se hizo uso de Chrome o Microsoft Edge ya que cualquiera de estos dos navegadores nos permite ver en tiempo y forma como va quedando el diseño así como tener la experiencia de editar y ejecutar el código al mismo tiempo y llegar al mayor público posible. Despliega tu proyecto de sitio web en una amplia gama de dispositivos portátiles y que se llevan en la cabeza para sistemas operativos Windows IOS que cuentes con cualquiera de los navegadores Chrome, Microsoft Edge etc., Android que nos permitirán interactuar y navegar con nuestro sitio web. Al término de esta fase se contaba con el diseño de interfaces y con las primeras codificaciones de su uso, se continuó con el desarrollo del sitio web, haciendo uso de Visual Studio Code que nos ayuda a insertar los códigos de lenguaje de programación y poder ir ejecutando en tiempo real los cambios y como se ve visualiza en los navegadores de internet.
FASE DE TRANSICIÓN: Pruebas funcionales: Se realizaron las pruebas funcionales de lo que se desarrolló del sitio web para el aprendizaje de operaciones básicas. De las cuales se puede observar y ejecutar el funcionamiento de la transición de una página a otra, de encontrar el contenido como lo son videos y poder reproducirlos sin problemas, ejecutar el uso de una calculadora para realizar operaciones y así también el poder trabajar resolviendo ejercicios de matemáticas insertando números faltantes o signos en las operaciones.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la deficiencia de aprendizaje que tienen los alumnos para resolver operaciones básicas y tecnologías emergentes de programación para ponerlos en práctica con una nueva enseñanza a traves de definiciones más claras de los conceptos, de ejercicios dinámicos, videos, imágenes, ejemplos, sin embargo, al ser un tema extenso aún se encuentra en la fase de prototipo para seguir elaborando y mejorando. Se esperan que se continúe desarrollando más actividades para que sea un sitio de aprendizaje más dinámico.
de la Rosa Martínez Ricardo, Instituto Tecnológico de Reynosa
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
APLICACIÓN DE REALIDAD AUMENTADA CON MARCADOR DIGITAL Y OBJETO 3D ANIMADO
APLICACIÓN DE REALIDAD AUMENTADA CON MARCADOR DIGITAL Y OBJETO 3D ANIMADO
de la Rosa Martínez Ricardo, Instituto Tecnológico de Reynosa. Jimenez Cañada Fatima Lizeth, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El incremento de los requerimientos que los clientes imponen a las industrias alrededor del mundo, como lo son procesos más rápidos, estructurados y seguros (Nasirian & Khanesar, 2016) para los operarios, con calidad y reduciendo costos, han obligado a la industria a transformarse en lo que ahora conocemos como la industria 4.0, donde distintas áreas del conocimiento convergen para dar lugar a nuevas alternativas en pro de la ejecución de sus operaciones. Las situaciones más comunes que ejemplifican lo mencionado líneas arriba pueden ser, por ejemplo, robots móviles programados transportando materia prima, herramientas y/o productos terminados por toda una nave industrial, grandes cantidades de información acumulada en espacios independientes a los centros de trabajo que permiten a los robots tomar mejores decisiones, la realidad virtual y realidad aumentada como herramientas de entrenamiento y verificación en operaciones complejas que podrían poner en riesgo la integridad humana, entre otras.
Muchas de las herramientas para desempeñar los procesos mencionados en el párrafo anterior fueron concebidas y diseñadas a partir del comienzo de la cuarta revolución industrial, sin embargo, han continuado tomando forma, por ejemplo, en otros sectores (Krevelen, V & Poelman, R., 2010) como la industria de los videojuegos y el entretenimiento, buscando ofrecer a los usuarios una experiencia envolvente en la que se puedan sentir involucrados sin necesidad de interaccionar directamente con los elementos de un videojuego, por ejemplo.
Una de las tecnologías con mayor potencial para ser explorada en otros escenarios es la Realidad Aumentada (a partir de ahora solo RA) en conjunto con la Realidad Virtual (a partir de ahora solo RV) y la simulación, cuyos atributos combinados podrían permitir al usuario crear elementos intangibles que se relacionen con su entorno y otros objetos en tercera dimensión (a partir de ahora solo 3D), también en RA.
METODOLOGÍA
De acuerdo con lo anterior se propone diseñar y desarrollar una aplicación en RA, portable para dispositivos con sistema operativo Android, que genere un objeto en 3D capaz de interaccionar con su entorno, así como con otros objetos en RA "disparados" o generados por otros dispositivos con la misma aplicación.
En una primera instancia se realizó una investigación en diversas fuentes de información como la Librería electrónica científica en línea del motor de búsqueda Scielo, así como en el motor de búsqueda de Google Académico, lo que posteriormente nos condujo a conocer los componentes generales de la RA, como lo son los marcadores físicos, digitales, los objetos en 3D no tangibles o reales para ‘crear’, es decir, ‘hacer visibles’, en el dispositivo donde se ejecute la aplicación, algunos softwares de desarrollo de RA como lo son BuildAR, ARToolKit y Unity, además de algunos de los factores de afectan la funcionalidad de los marcadores físicos.
Después se diseñó una aplicación de RA en el entorno de Unity, específicamente la versión 2020.1.6, y haciendo uso de las herramientas AR Fundation, que al estar compuesta de funciones centrales de ARKit, ARCore, Magic Leap y HoloLens, así como funciones propias de Unity, permite crear aplicaciones listas para ser ejecutadas por diferentes plataformas de RA.
Específicamente se utilizaron las funciones de ARKit y ARCore, además de la implementación de un código abierto y un modelo inicial de una araña en 3D, que se encuentra también disponible de forma gratuita en la tienda Asset Store de la página web de Unity.
El objeto en 3D, que es visible en la pantalla del dispositivo que ejecuta la aplicación de RA, es dotado de un tamaño en unidades de medida del software de Unity donde 1 unidad es igual a 1 metro, y este cuenta con animaciones como la de saltar, atacar con sus patas frontales, así como morir y moverse.
CONCLUSIONES
Se diseñó una aplicación ejecutable de extensión ‘.apk’ para móviles con sistema operativo Android, con capacidad de ser soportada desde móviles con Android 7 (Nougat) y hasta la versión de Android 11. Cuando el usuario ejecuta la aplicación aparecerá en la pantalla de su dispositivo, si este está apuntando su cámara a una superficie plana, el indicador virtual que, al ser presionado en la pantalla, hará visible al objeto en RA, en este caso, una araña.
Aunque la aplicación continua en desarrollo, el alcance que posee hasta ahora, nos permitirá añadir algunos otros componentes como un control virtual, para dotar de capacidad de traslación al objeto 3D, así como una posible comunicación con otros dispositivos, en donde el objeto en RA pueda interactuar con otros objetos en RA que sean generados por otras aplicaciones.
Los elementos que componen el diseño de la aplicación de RA permiten la adición de otros elementos del mismo tipo, por ejemplo, otro tipo de animaciones, además, su estructura permitirá la adición de elementos diferentes como controles de movimiento.
El uso de la plataforma nos otorgó algunos conocimientos y aptitudes iniciales, de la industria 4.0, donde la RA tiene una parte fundamental y, cuando se presenten necesidades de mejora para la aplicación en el futuro estaremos familiarizados con la plataforma teniendo plena conciencia de sus herramientas y componentes, permitiendo con esto ofrecer una aplicación del agrado del consumidor o usuario de la aplicación.
La RA representó un reto para ambos, pues nunca habíamos trabajado con un software especializado para la creación de aplicaciones de este tipo. Aún así, el trabajo que desarrollamos en equipo conjuntamente en el diseño, resolución de errores y problemas debidos a las características de los equipos donde se elaboró la aplicación, nos permitió desarrollar habilidades y destrezas para la continuación de este proyecto de investigación y para poder continuar dando forma a la aplicación de RA, en la cual deseamos incluir elementos que permitan a la aplicación ser más intuitiva y que el objeto en 3D que se genere, pueda relacionarse con su entorno.
de Lira Rivera Alanis Samara, Instituto Tecnológico de Nuevo Laredo
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PROPUESTA DE GUíA METODOLóGICA SEIS SIGMA PARA PYMES EN áREA DE SERVICIO
PROPUESTA DE GUíA METODOLóGICA SEIS SIGMA PARA PYMES EN áREA DE SERVICIO
de Lira Rivera Alanis Samara, Instituto Tecnológico de Nuevo Laredo. Mariñelarena Gómez Ezequiel, Instituto Tecnológico de Nuevo Laredo. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en el sector de servicios, desde el punto de vista Nacional e Internacional, asimismo, se diseñó una propuesta de una guía que pueda servir de base para la implementación de la metodología DMAIC. Por lo que, el problema que se abordó fue la necesidad de difundir la metodología seis sigma de manera genérica en los distintos sectores, entre ellos el de servicios; ya que se identificó la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las PYMES, de manera sencilla y práctica.
METODOLOGÍA
La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva en los casos documentados, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, comprende la integración de las buenas prácticas en un cuadro comparativo y el diseño de una propuesta de guía metodológica para en un futuro fomentar su implementación de una forma sencilla y práctica.
CONCLUSIONES
Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, una propuesta de guía metodológica para fomentar la implementación de seis sigma en el área de servicios.
del Castillo Valencia Juan, Universidad de Sonora
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
ANáLISIS DE LA CITOTOXICIDAD DE NANOPARTíCULAS DE óXIDO DE HIERRO PARA LA ENTREGA DE MEDICAMENTOS A TRAVéS DE LA BARRERA HEMATOENCEFáLICA
ANáLISIS DE LA CITOTOXICIDAD DE NANOPARTíCULAS DE óXIDO DE HIERRO PARA LA ENTREGA DE MEDICAMENTOS A TRAVéS DE LA BARRERA HEMATOENCEFáLICA
del Castillo Valencia Juan, Universidad de Sonora. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las nanopartículas de óxido de hierro han sido altamente utilizadas en diversos estudios del área biomédico. Se han empleado estas nanopartículas es la entrega de medicamentos a través de la barrera hematoencefálica, debido a sus propiedades altamente restrictivas. Los investigadores han desarrollado diferentes nanopartículas con el fin de aumentar la recepción de medicamentos. Sin embargo, es necesario minimizar la citotoxicidad en las células endoteliales que conforman la barrera.
La citotoxicidad producida por las nanopartículas depende de varios factores como el tamaño, la forma, la concentración, la línea celular, la carga superficial, entre otras. El impacto de la carga superficial de las nanopartículas o potencial zeta en la citotoxicidad de células endoteliales es aun especulativo. Por lo anterior, surge la siguiente cuestión, ¿Cuál es el impacto del potencial zeta de nanopartículas de óxido de hierro en la citotoxicidad en células endoteliales de la barrera hematoencefálica?
El objetivo de esta revisión de alcance es responder la pregunta anterior, a partir de una correlación entre la citotoxicidad medida a partir de la viabiliad celular en líneas celulares de células endoteliales humanas, y el potencial zeta de nanopartículas de óxido de hierro.
METODOLOGÍA
Se utilizó el protocolo PRISMA ScR (Preferred Reporting Items for Systematic Reviews and Meta-analysis Protocols for Scoping Reviews) para desarrollar una revisión de alcance con una búsqueda de estudios sistemática.
Criterios de inclusión:
Artículos escritos en inglés o español
Uso de nanopartículas de óxido de hierro
Presentar potencial superficial (zeta potential)
Presentar un análisis de viabilidad celular en una línea celular de células endoteliales humanas
Precentar viabilidad celular en porcentaje
Incluir la concentración y tiempo utilizados en el análisis de viabilidad celular
Presentar el tamaño hidrodinámico de las nanopartículas
Criterios de exclusión:
Artículos de revisión o Reviews
Realizar análisis de viabilidad celular in vivo o ex vivo
Presentar línea celular de células cancerígenas, enfermas o que no sean endoteliales.
Presentar línea celular no humana
Utilizar nanopartículas cuya base no sea de óxido de hierro
Utilizar concentraciones de nanopartículas menores a 1 µg/mL
Realizar análisis de viabilidad celular con una duración menor a 24 horas
Se utilizó la base de datos "Web of Science" para extraer los estudios a partir de la siguiente estrategia de búsqueda:
"drug delivery" AND (BBB OR "blood-brain barrier") AND ("iron oxide nanoparticles" OR Fe3O4)
Los artículos encontrados fueron filtrados a través del diagrama de flujo de PRISMA, a partir de un proceso de identificación y selección.
CONCLUSIONES
En el proceso de selección e identificación se obtuvieron finalmente cinco artículos. Los datos extraidos son la composición, el potencial superficial, la viabilidad celular, la concentración, el tamaño hidrodinámico y la línea celular.
Debido a que la concentración es el factor más sensible de la citotoxicidad en el análisis de viabilidad celular, se agruparon los datos de los análisis cuya concentración y duración fueran iguales.
Se realizó una tabla con los análisis cuya concentración fuese de 100 µg/mL y duración de 24 horas. Estos fueron cuatro de los cuales dos tienen una carga superficial positiva y los otros dos una carga superficial negativa.
En conclusión, solo se puede observar una mayor viabilidad celular en las nanopartículas cuya carga superficial es negativa. Sin embargo, no se puede realizar una correlación debido a la falta de datos, pues solo se obtuvieron cuatro análisis de viabilidad celular.
del Razo Real Ricardo Adolfo, Instituto Politécnico Nacional
Asesor:Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
DESARROLLO E IMPLEMENTACIóN DE UN ALGORITMO PARA OPTIMIZAR PROCESOS DE SOLDADURA EN CELDAS MULTIROBOT
DESARROLLO E IMPLEMENTACIóN DE UN ALGORITMO PARA OPTIMIZAR PROCESOS DE SOLDADURA EN CELDAS MULTIROBOT
Angel Salazar Ventura Baruc, Instituto Politécnico Nacional. del Razo Real Ricardo Adolfo, Instituto Politécnico Nacional. Asesor: Dr. Jesus Antonio Romero Hernandez, MANUFAI SAS de CV
PLANTEAMIENTO DEL PROBLEMA
La deformación por soldadura desfavorece los procesos de unión de metales, sin embargo, la deformación de los metales es algo intrínseco en estos procesos de manufactura; nadie queda exento pues es natural que se presente una deformación con el aumento de temperatura y calor producido durante la fusión de 2 materiales, es por eso por lo que una selección de una secuencia de soldadura óptima favorece la reducción de la deformación en la pieza.
No resulta factible realizar el análisis de elemento finito para cada secuencia de todas las combinaciones posibles al tener múltiples cordones de soldadura, ya que el número de combinaciones posibles puede llegar a ser del orden de millones, lo cual se vuelve un problema muy grande, donde involucra dos factores importantes en la industria que son el tiempo y costo, por lo que la selección de una secuencia de soldadura adecuada utilizando algún algoritmo generaría cambios significativos en cuanto a la calidad de la pieza final y evitaría costos de arreglos por causa de la deformación, entre otros beneficios.
Por esta razón, durante el verano de investigación fue desarrollado un algoritmo para optimizar un proceso de soldadura de una pieza en una celda robótica con dos robots modelo Fanuc ARC Mate 120ic. El proceso de soldadura de esta pieza se compone de 14 cordones que deben ejecutar los robots, además de eso, la pieza es soldada en 3 posiciones diferentes, esto para que los robots puedan posicionar la pistola de soldadura a 45° del cordón.
METODOLOGÍA
La simulación del proyecto fue llevada a cabo en el software de RoboDK, ya que la empresa MANUFAI cuenta con licencias activas de este software, además, fue utilizado Python como el lenguaje de programación para realizar el algoritmo. El proyecto se dividió en módulos para tener una forma organizada de trabajo, por lo que se utilizaron 4 módulos principales, donde 3 de ellos ya habían sido comenzados previamente y el cuarto se implementó desde el comienzo.
En el software de RoboDK™ fue diseñada la celda robotizada de soldadura, para lo cual se hicieron 3 programas diferentes, uno por cada posición de la pieza. Los 14 cordones de soldadura fueron importados como trayectorias de puntos y en cada posición se seleccionaron los cordones de soldadura que pudieran ser ejecutados de acuerdo con la orientación de la pieza, para esto se tomó en cuenta que la pistola de soldadura fuera posicionada a 45 grados para poder ejecutar el cordón. Una vez seleccionados los cordones para cada posición, lo que se comprobó fue que el robot fuera capaz de llegar a esa posición y que fuera capaz de ejecutar la trayectoria completa del cordón sin que se diera una colisión. De esta manera, se filtraron cordones para posiciones de la pieza y posteriormente para los robots, dejando menos combinaciones posibles para el algoritmo.
En el primer módulo del proyecto lo que se programó fue la tarea de saber si el brazo robótico puede cumplir con la trayectoria hacia cierto cordón. Toma como entradas la cantidad de robots y cantidad de cordones de soldadura a ejecutar, los cuales deberán coincidir con los que tenemos de acuerdo con el proyecto de RoboDK. Esto lo hace para cada una de las tres posiciones de la pieza, esto quiere decir que lo hace para los tres programas generados de RoboDK. El resultado del Módulo MR01 es entregar una matriz con 0 y 1 donde el 1 significa que ese robot puede ejecutar correctamente el cordón evaluado, cabe señalar que hay direcciones de cordón de soldadura que por precaución del cuidado de la pieza no se pueden ejecutar, este módulo filtra estos cordones y les asigna un 0 automáticamente en la matriz de resultados. Esta matriz es la entrada necesaria para el siguiente modulo.
El segundo módulo desempeña la tarea donde a partir de la matriz de salida del módulo anterior, tomara los valores donde sí es posible realizar la soldadura del cordón y los ingresa a un algoritmo diseñado que entregará como resultado todas las permutaciones posibles de cordones de soldadura y robots, con base en la matriz de entrada, para cada posición de la pieza.
El tercer módulo desempeña la función donde a partir de las permutaciones obtenidas por el módulo anterior, se ejecutará la simulación de cada una de ellas para comprobar colisiones entre robots al momento de ejecutar la simulación de éstos con sus respectivos cordones dados por la combinación simulada, esto se hace para cada una de las posiciones de la pieza, se da como resultado una lista con las permutaciones donde hay colisión, una lista de permutaciones exitosas en la cual los robots trabajan sin verse afectador por una colisión y además, se da una lista de tiempos de ejecución de las permutaciones fallidas y exitosas y el tiempo total de simulación para cada una de las posiciones.
El cuarto módulo es para comprobación de las permutaciones exitosas libres de colisión del modulo anterior. Lo que hace es leer un archivo de texto de las permutaciones exitosas que se deseen simular, vuelve a simular dichas permutaciones y entrega como resultado una lista donde se puede ver la permutación, un 0 y 1 en caso de haber colisión y por último el tiempo de ejecución de esa permutación, además se exportan tres videos, una para cada posición de la pieza, para visualizar las simulaciones de las permutaciones exitosas.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos de un proceso de soldadura en una celda multirobot aplicado en un caso práctico, y se tuvo una familiarización con la industria de este campo, además de que se ampliaron los conocimientos de programación en Python y RoboDK, así como de lógica para desarrollar algoritmos. Se logró reducir considerablemente el número de combinaciones posibles al orden de las decenas, facilitando la implementación de algoritmos para la toma de decisiones de la mejor secuencia a implementar. Queda como trabajo a futuro la implementación de inteligencia artificial aplicada a un quinto módulo para la elección de la mejor secuencia de soldadura en una pieza utilizando celdas multirobot.
del Toro Llamas Cesar Alonso, Instituto Tecnológico de Colima
Asesor:Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
DIAGNÓSTICO DEL BIOCLIMA PARA DETERMINAR LOS REQUERIMIENTOS DE CLIMATIZACIÓN DE EDIFICIOS EN MÉXICO
DIAGNÓSTICO DEL BIOCLIMA PARA DETERMINAR LOS REQUERIMIENTOS DE CLIMATIZACIÓN DE EDIFICIOS EN MÉXICO
del Toro Llamas Cesar Alonso, Instituto Tecnológico de Colima. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La principal problemática que presenta una edificación con relación al confort térmico, tiene que ver con la necesidad de enfriar o calentar los espacios, debido a la variedad de climas dentro de una misma región e incluso en la ciudad, que ha generado que se implementen sistemas de climatización convencional, sin embargo, dicha tecnología ha generado un impacto negativo en el medio ambiente y un aumento en el consumo energético que impacta directamente en la economía.
De acuerdo al Atlas de Bioclima de México (Morillón, 2004), se determina que el problema del país es el calor, se presenta durante la mayor parte del año, y en dos terceras partes del territorio, sin embargo, el frío es otra problemática latente en algunas regiones.
METODOLOGÍA
La metodología empleada se basa en el análisis de cada bioclima del país, para determinar los requerimientos de climatización de edificios, que permitan generar espacios confortables y una reducción en el consumo energético. Realizar un análisis de datos estadísticos de edificios en diferentes partes del país, para determinar el nivel de confort térmico. Finalmente se propondrá una adecuación bioclimática, entre las estrategias existentes de climatización vs las propuestas.
CONCLUSIONES
El análisis del bioclima en México permitirá el uso de alternativas renovables de climatización en los edificios del país. A partir de estas alternativas se obtendrá una disminución en el uso de los sistemas de climatización que generan un excesivo consumo energético y un impacto negativo en el medio ambiente, además definir estrategias de diseño bioclimático.
del Valle Chairez Jennyfer, Instituto Tecnológico Superior de Ciudad Acuña
Asesor:Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PROPUESTA DE GAMIFICACIóN EDUCATIVA CON FRACCIONES ALGEBRAICAS"
PROPUESTA DE GAMIFICACIóN EDUCATIVA CON FRACCIONES ALGEBRAICAS"
del Valle Chairez Jennyfer, Instituto Tecnológico Superior de Ciudad Acuña. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La realizacion de este proyecto es poder minimizar los problemas de las nuevas generaciones, el estrés y el trauma pueden interrumpir el procesamiento cognitivo, reducir las habilidades del funcionamiento ejecutivo de los estudiantes y alterar la regulación emocional. Todo eso hace que sea difícil aprender, pensar y participar de manera significativa. Es por ello que este proyecto es acerca de una aplicación de gamificación educativa en fracciones algebraicas , que pretende aportar una nueva estrategia para el desarrollo de las destrezas en matemáticas, La inclusión de las Tecnologías de la Información y Comunicación (TIC) como principal plataforma de juego es kahoot
METODOLOGÍA
El objetivo es usar los juegos apoyado en las nuevas tecnologías y los elementos para la transmisión del conocimiento a las nuevas generaciones . Ya que es necesario un cambio en el que el estudiante sepa comprender, analizar, seleccionar, interactuar inteligente y competentemente con la realidad
Kahoot! es una herramienta muy útil para profesores y estudiantes para aprender y repasar conceptos de forma entretenida, como si fuera un concurso. La forma más común es mediante preguntas tipo test, aunque también hay espacio para la discusión y debate.
CONCLUSIONES
En conclusion Kahoot también es una técnica de aprendizaje que traslada todo el potencial de los juegos al ámbito educativo para mejorar los resultados, el objetivo es aplicar las reglas básicas para operar con las fracciones algebraicas e identificar las similitudes con las reglas aplicadas a fracciones algebraicas, por otro lado Identificar dentro de una fracción algebraica los términos semejantes que se puedan simplificar de una manera divertida y eficaz. En cuanto al test creado , los resultados obtenidos fueron favorables, esto debido que los usuarios que lo respondieron, lo hicieron de una forma fácil, sencilla y satisfactoria, esto nos ayuda a que en un futuro los docentes que creen estos test lo harán de una forma fácil , mientras que los alumnos también podrán responderlo de una forma sencilla, aumentando asi su desarrollo y desempeño tambien el estudiante aprendera a comprender, analizar, seleccionar, interactuar inteligente y competentemente con la realidad.
Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia
Asesor:Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
PROGRAMACIóN Y SENSADO EN EL SISTEMA ROS PARA UN ROBOT DE MANEJO DIFERENCIAL MEDIANTE UN ORDENADOR REDUCIDO Y DE BAJO COSTO
PROGRAMACIóN Y SENSADO EN EL SISTEMA ROS PARA UN ROBOT DE MANEJO DIFERENCIAL MEDIANTE UN ORDENADOR REDUCIDO Y DE BAJO COSTO
Delgado Aguilar Brian Angel, Instituto Tecnológico de Morelia. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
Los robots son sistemas capaces de interactuar con cualquier entorno debido a las especificaciones de su diseño y a las capacidades de percibir el ambiente que los rodea. Entre los usos del sensado más importantes está la detección y evasión de obstáculos, ya que este permite proteger la integridad del robot al momento de ejecutar diversas tareas.
Es común llevar el proceso de control en un robot de manejo diferencial, que es un robot que cuenta con dos ruedas, cada una con un motor independiente, estos robots pueden ser controlados por medio de sus velocidades lineal y angular, mediante estas variables de control, el robot será capaz de ejecutar 3 primitivas de movimiento básicas: movimiento en línea recta, movimiento de rotación en sitio y movimiento en arco de circulo. Para que un robot realice todos estos procesos es necesario contar con una unidad de procesamiento que permita la adquisición de datos de sensado y enviar señales que varíen las velocidades a los motores y le permitan tener una velocidad de reacción aceptable.
En este proyecto, se busca, adaptar un ordenador Raspberry Pi 4 para ser la unidad de procesamiento de un robot de manejo diferencial que trabaje sobre el sistema operativo de robots más importante en la comunidad científica actual, como lo es el sistema ROS.
METODOLOGÍA
Se instaló el sistema operativo Ubuntu 20.04.2, debido a su compatibilidad con el sistema operativo ROS. La versión inicial del sistema operativo instalada fue el server, acción que se realizó utilizando el software de la compañía Raspberry llamado Raspberry Pi Imager. El sistema operativo se instaló en una tarjeta microSD de 32 GB. Posteriormente se conectó la Raspberry a una conexión Ethernet, con lo que se utilizó un upadate y upgrade con el fin de actualizar la Raspberry, y después de un reinicio se descargó la versión desktop.
Antes de seguir con la instalación de ROS, se instaló la conexión ssh para permitir trabajar en la Raspberry de forma remota. Después se procedió a instalar ROS en el sistema operativo Ubuntu instalado. La versión de ROS compatible para este sistema operativo es ROS Noetic.
Después de instalar ROS, se creó una carpeta de nombre catwin_ws, espacio utilizado para trabajar con los proyectos de ROS. Dentro de la misma se crearon la carpeta robot_ros, que es dentro de la que se almacenan los códigos ejecutables,y messages, carpeta que contiene archivos .msg que son utilizados para crear mensajes desde los diferentes nodos de ROS a través de este software, y permiten compartir la información necesaria entre nodos. Para finalizar con la creación de este espacio de trabajo se utilizó el comando catkin_make para construir el código del espacio de trabajo.
Una vez instalados el sistema operativo y el sistema ROS, se inicializaron los puertos GPIO de la Raspberry, para lo cual fue necesario la instalación de una librería para controlarlos. Se obtuvo un diagrama de los puertos de la Raspberry para verificar el tipo de entradas y salidas con el fin de realizar las conexiones. Para controlar los motores no fue necesario instalar librerías adicionales, se realizó únicamente con el control de los puertos proporcionado por la librería GPIO.
Para el sensado de distancia se utilizaron 5 sensores laser vl53l0x, mismos que se controlan utilizando I2C. Para poder hacer uso de los mismos se instaló su librería específica desde adafruit.
Finalmente, para el sensado de los encoder tampoco fue necesario instalar una librería adicional, por lo que únicamente fue necesario conectarlos.
Para la comunicación de los diferentes sensores entre ellos y el control, se utilizaron los nodos de ROS, y la información se transmite a través de mensajes personalizados, creados en códigos con la terminación .msg. Adicionalmente, el nombre de estos archivos tuvo que añadirse al archivo CMakeLists.txt y posteriormente ejecutar el comando catkin_make para poder utilizar los mensajes personalizados.
Los sensores utilizados fueron 5 sensores de distancia laser vl53l0x y 2 encoder F249. Para el control de los motores se utilizó un puente H. Para alimentar los motores se utilizaron dos baterías de litio, mientras que la raspberry se alimentó con una powerbank. Los datos de los sensores de los sensores se observan en la consola.
Gracias al uso de ROS, la integración de los diferentes módulos para el control diferencial del robot se realizó de manera sencilla trabajando con nodos, mensajes y tópicos. En total los nodos utilizados son 4, el de los sensores laser, los encoders, el control y lo motores.
CONCLUSIONES
Durante la estancia se logró operar un robot de manejo diferencial utilizando una Raspberry Pi, con el sistema operativo de Ubuntu, sobre el que se corrió el sistema ROS, para manejar distintos módulos de sensado y actuadores. Esto sirvió para un control básico de desaceleración. Para trabajos futuros se sugiere mejorar el hardware, en especial las baterías de los motores, y también se plantea implementar códigos de control retroalimentado para ejecutar tareas de navegación y exploración sobre diversos entornos.
Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa
Asesor:Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
Barradas Diaz Jesus Uriel, Instituto Tecnológico Superior de Xalapa. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Orozco Morales Lorena, Universidad Tecnológica de Pereira. Asesor: Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En este trabajo de investigación la base es el agua, este es un recurso natural que es esencial para el hombre. En el caso de presas como la de valle de bravo las fuentes de agua en embalse posibilitan el desarrollo de una gran cantidad de actividades para la comunidad, además de recreación y de servicios. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso, pero hacerlo de forma tradicional implica tomar muestras, enviar a un laboratorio y realizar un análisis, lo cual significa tiempo excesivo, desperdicio de mano de obra y poco económico. La propuesta de la investigacion es realizar un dispositivo que pueda efectuar una medición de la calidad del agua en tiempo real que permita tener una base de datos actualizada con la información necesaria de cuál es el comportamiento de los datos, además de que esta sea autosuficiente energéticamente. El objetivo es el uso del IoT como herramienta para la comunicación de datos en tiempo real, usando la tecnología LoRa. En conjunto con un sistema de comunicaciones basado en un sistema Bluetooh, además de que las mediciones se harían con el uso de sensores, los cuales interactuaran entre sí en cada momento como medición-análisis-comunicación, esto necesitará una alimentación suministrada por un conjunto de celdas conectadas a una tarjeta programaba Raspberry. El desarrollo del dispositivo pretende conformar una plataforma que ponga las bases en cuanto a que estrategias o tecnologías se pueden usar en mejorar o regular la calidad del agua del embalse. Este dispositivo estaría en una Boya dentro del lago para tener un control en tiempo real.
METODOLOGÍA
-Análisis: Hacer lainvestigación documental en artículos, revistas, compañías y patentes registradasque conduzca a la selección dela metodología ideal de diseño para el dispositivo.
Realizar la selección de los elementos que conformaran al dispositivo, sensores, elementos de comunicación, ordenador o placa y plataforma de desarrollo de software.
Seleccionar la fuente de poder para los elementos que conformaran al dispositivo, tomando en consideración su correcto funcionamiento
-Síntesis: Diseñardispositivo de forma diagramática, realizando la conceptualización en diagramas de flujo y de bloques.
Seleccionar los elementos para la fuente de poder, celdas y conexiones eléctricas.Realizar el algoritmo de programación de medición, recolección, comunicación y análisis de datos a través de la plataforma seleccionada.
Modelar y simular la boya que contendrá el dispositivo de medición, a través del CAD/CAE
CONCLUSIONES
-Evaluación: Construir de la boya junto con el dispositivo de medición, conformando los elementos previamente diseñados y seleccionados.
Realizar pruebas de medición en un ambiente controlado para evaluar el funcionamiento de sensores, ordenador o placa y comunicación.
Evaluar el correcto funcionamiento de la boya que contendrá al dispositivo en cuestión.
Conformar la boya de medición con todos los elementos previamente testeados para su puesta en marcha
Delgado Olvera Luis Enrique, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN CIUDAD JUAREZ CHIHUAHUA
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN CIUDAD JUAREZ CHIHUAHUA
Delgado Olvera Luis Enrique, Instituto Tecnológico de Ciudad Juárez. García Chavarría Ricardo, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En 2011 se da a conocer la Cuarta Revolución Industrial en la Feria de Hannover que es la Feria Industrial más grande del mundo, surgiendo un nuevo paradigma económico (Deutschland, 2014). El concepto forma parte de una estrategia de alta tecnología del gobierno alemán que describen la producción industrial en general donde, los elementos del sistema productivo están interconectados entré sí digitalmente. Después de 10 años, a este respecto Taboada y Sámano en Martínez, Álvarez y García (2020) afirman textualmente que:
… a diferencia de lo que en otros países y en distintos grados viene sucediendo - en particular en Alemania desde 2013 (Schroeder, 2017), en México, no hay una estrategia integral para participar y prepararse para los fuertes cambios de índole diversa que derivarán de esta fuerte transformación o revolución.
De acuerdo con el Clúster Industrial de México, durante 2020, las regiones con mayor crecimiento en digitalización de la industria en México fueron:
El corredor del Bajío y Guadalajara.
En el Norte: Monterrey, Tijuana, Ciudad Juárez y Hermosillo.
En el centro el Estado de México
Por una parte, hay crecimiento en la digitalización de los procesos en México, pero no a la velocidad que se requiere, de acuerdo con la Secretaría de Economía de Tijuana (El Imparcial, 2020). La principal debilidad es la falta de recurso humano técnicamente habilitado en industria 4.0, considerando aspectos de teoría, práctica, contexto y normatividad. México es de las 12 economías más importantes del mundo en lo que a la industria manufacturera respecta, por su valor de producción y diversidad, con un sector industrial considerado robusto. Sin embargo, el sector corre el riesgo de rezagarse debido a la carencia de talento calificado y se ubica en el lugar 46 al considerar a los países más preparados para la industria 4.0. En nuestro país apenas 5% de las empresas conocen y aplican la industria 4.0 (Campa, 2019).
METODOLOGÍA
Esta tesis aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) de Ciudad Juárez, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Durante la estancia de verano se logró obtener mediante los encuestados y la información cualitativa la conclusión de que ciudad Juárez tiene los recursos educativos en cuanto a docentes e instalaciones para contar con profesionistas bien preparados para manejar los retos que trae consigo la cuarta revolución industrial; cabe resaltar que una inquietud que los profesionistas y docentes tienen respecto a su campo laboral es la poca remuneración que perciben a pesar de que se están capacitando constantemente.
Delgado Rodríguez Paul Alberto, Instituto Tecnológico de Tepic
Asesor:Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León
ÍNDICE DE SIMILARIDAD EN ESQUEMAS DE PROTECCIóN DIFERENCIAL DURANTE CORRIENTES GEOMAGNéTICAS INDUCIDAS (GIC).
ÍNDICE DE SIMILARIDAD EN ESQUEMAS DE PROTECCIóN DIFERENCIAL DURANTE CORRIENTES GEOMAGNéTICAS INDUCIDAS (GIC).
Bernal Ortega Eduardo de Jesús, Universidad Autónoma de Baja California. Delgado Rodríguez Paul Alberto, Instituto Tecnológico de Tepic. Asesor: Dr. Ernesto Vázquez Martínez, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La protección diferencial es uno de los más efectivos medios de protección de transformadores y otros equipos. En su forma más simple, la protección diferencial dispara al detectar una diferencia entre las corrientes entrantes y salientes dentro de la zona protegida. El relé diferencial puede tener una mayor sensibilidad a las fallas que otros tipos de relés pues opera solamente con la diferencia de la corriente y no con la corriente total que fluye por el circuito.
El índice de similaridad entre dos señales de corriente es obtenido a partir de la formula de Similitud de Cosenos, la cual toma como referencia el ángulo existente entre las dos señales. Como su nombre lo indica, revela la similaridad entre dos formas de onda a partir de una serie de muestras definidas.
METODOLOGÍA
En este proyecto, se explora el uso de índices de similaridad de las formas de onda de corrientes en el dominio del tiempo, con el objetivo de implementarlo en la protección diferencial para la detección de corrientes geomagnéticas inducidas (GIC) en el neutro, y poder desconectar el transformador antes de que falle.
Tormentas solares crean fluctuaciones temporales en el campo magnético de la Tierra causando perturbaciones en los sistemas eléctricos instalados. Al presentarse corrientes geomagnéticas inducidas en los equipos de los sistemas eléctricos de potencia son provocados disturbios, calentamientos, corrientes armónicas y otros fenómenos que afectan los equipos y sus esquemas de protección.
Para comprender el uso de los índices de similaridad se realizaron simulaciones de las diferentes fallas internas por cortocircuito disponibles en el software y herramienta de simulación PSCAD/EMTDC. Para continuar simulando una GIC con una fuente de corriente directa inyectada en el neutro del transformador (Y aterrizada-Y aterrizada).
CONCLUSIONES
Al observar que este modelo detectó y discriminó de forma adecuada los eventos de fallas internas de los de fallas externas, podemos concluir que este método puede ser efectivo en un escenario más complejo como lo puede ser una perturbación del orden de una corriente geomagnética inducida; asegurando así la protección al sistema eléctrico y al desempeño de sus protecciones. Los efectos de las corrientes geomagnéticas que causan en, por ejemplo, un transformador, pueden ser devastadoras y esta herramienta brinda una buena alternativa para detectarla y tratarla como si de una falla interna se tratase.
Diaz Aldaba Esmeralda, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
IMPLEMENTACIóN DE UN MODELO DE OPTIMIZACIóN-SIMULACIóN PARA LA MINIMIZACIóN DE ENTREGAS TARDíAS EN UNA EMPRESA PROVEEDORA DE MATERIAL DE MRO
IMPLEMENTACIóN DE UN MODELO DE OPTIMIZACIóN-SIMULACIóN PARA LA MINIMIZACIóN DE ENTREGAS TARDíAS EN UNA EMPRESA PROVEEDORA DE MATERIAL DE MRO
Diaz Aldaba Esmeralda, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Uno de los problemas más comunes en la cadena de suministro es la entrega de mercancías desde las bodegas o fabricas a sus clientes sin hacer un estudio previo, lo cual tiene como consecuencia costos más elevados en combustible, mantenimiento y problemas en los tiempos de entrega.
La empresa Impulsora de Suministros y Mangueras S de RL de CV (ISM) provee material de MRO a industrias maquiladoras bajo pedido a 150 clientes, los cuales se ponen en contacto con uno de los tres vendedores cada vez que requieren de su servicio. Por la mañana se hace la entrega de materiales a los clientes y por la tarde se compra el material que se ordenó en el día, dando un tiempo de 2 a 5 días hábiles para la entrega. Actualmente la empresa tiene problemas en la entrega de materiales ya que hay ordenes entregadas fuera del plazo de entrega acordado con el cliente.
METODOLOGÍA
Para llevar a cabo la investigación se aplico la metodología de optimización-simulación.
La cual consta de los siguientes pasos:
Definir los objetivos de la optimización. Los cuales permitan minimizar el problema planteado.
Seleccionar los factores que resultan significativos sobre la variable de respuesta Y=minimizar el número de entregas tardías.
Establecer la región de operabilidad de manera aleatoria en el apartado de DOE de minitab.
Construir el modelo de simulación. Utilizando el programa de simulación Arena.
Seleccionar un entorno experimental. Diseñando un modelo de primer orden 2k y de segundo orden, diseño general compuesto (DCC) usando el método de escalamiento descendente ya que se desea minimizar el número de entregas tardías.
Elaborar un modelo matemático. Haciendo uso del programa mititab.
Localizar el óptimo buscado para la respuesta.
Verificar experimentalmente vaciando los datos en el proceso diseñado en arena.
CONCLUSIONES
El enfoque de optimiazacion-simulacion que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para revolver diversos problemas en el campo de la ingeniería industrial, que requiere determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos.
Durante la estancia virtual de investigación del programa DELFIN XXVI Verano de Investigación Científica y Tecnológica del Pacifico, se estudio la metodología de optimización/simulación, y se esbozó su aplicación al problema de minimización de entregas tardías en una empresa proveedora de material MRO, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y sociedad, mediante la generación de conocimiento.
Diaz Cab Gerardo Mauricio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
COMPARACIóN DE HERRAMIENTAS PARA EL DESARROLLO DE APLICACIONES WEB Y MóVILES.
COMPARACIóN DE HERRAMIENTAS PARA EL DESARROLLO DE APLICACIONES WEB Y MóVILES.
Diaz Cab Gerardo Mauricio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Rosa Angelica Rosales Camacho, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
El interés en realizar esta investigación, nace de la importancia de conocer mejor las diferentes herramientas que actualmente están al alcance para la creación de aplicaciones web y móviles, ya que de esta manera se pueden distinguir con claridad las potencialidades de cada una dependiendo del área de desarrollo en el que se usen, ya que este es un punto importante de la investigación, resaltar que todas las herramientas de desarrollo mostradas aquí son útiles para diferentes proyectos tomando en cuenta los objetivos de cada uno para así potenciar el aprovechamiento de las mismas.
Esto permitirá aumentar la eficiencia en relación a los proyectos de desarrollo a largo plazo y planificar con mejores resultados las estrategias de codificación que se lleven a cabo. Pero para lograrlo, es necesario conocer las ventajas, desventajas, características y cualidades específicas de cada herramienta de desarrollo que se pudieran resaltar para ubicarlas en el contexto de desarrollo óptimo para su aprovechamiento.
METODOLOGÍA
Para cumplir con los objetivos de la investigación se dividió por 4 etapas que garantizan el buen análisis y organización de lo realizado.
En la primera etapa se analiza de manera general el tema y se define el tipo de investigación a realizar, de esta manera, en vista de que se trata de una investigación con fines de contribuir al estado del arte y a los desarrolladores de aplicaciones web y móviles con un documento que recopila evidentemente un tema de su interés, la investigación se realiza de tipo documental.
La segunda etapa es la de Planteamiento, en esta, se presenta la justificación de la investigación seguido de los objetivos general y específicos, resaltando el porqué de la misma, además de lo que se busca al aportar al público en general que le pudiera servir esta investigación documental.
En la tercera etapa se analiza el estado del arte para conocer los trabajos que existen acerca del tema y la manera en que lo abordan, también se recopila la información necesaria para conceptualizar el tema y la información sobre herramientas para el desarrollo web y móvil, organizado de manera que, primero se analiza el marco histórico refiriéndonos a los eventos importantes en cuanto a la historia del desarrollo web y móvil. Seguidamente se realiza el marco referencial en el que se hace referencia a los trabajos previos encontrados sobre el tema y se explica la manera en la que lo abordan. Después se conforma el marco conceptual con los elementos que se deben tener en cuenta en cuanto al desarrollo web y móvil y reconocerlos durante el desarrollo de la investigación. Para acabar con esta etapa, se realiza el marco teórico, el cual es una parte fundamental del trabajo de investigación y servirá de mucho para realizar las conclusiones. Todo esto consultando trabajos previos, artículos, revistas, páginas oficiales o de carácter académico a través de internet tomando en cuanta las fechas de publicación o qué tan vigente es la información con respecto a las tendencias actuales.
Por último, en la etapa 4 se analiza la información recolectada para resaltar los puntos importantes de las herramientas encontradas, denotando puntos que se puedan comparar en tanto apliquen ventajas, desventajas, beneficios, popularidad o características específicas.
CONCLUSIONES
Llegado el final del verano de investigación, se recalca la importancia de los conocimientos adquiridos sobre las herramientas de desarrollo web y móvil, ya que como se pudo observar las tendencias tecnológicas van avanzando en consecuencia de las nuevas necesidades de los usuarios para garantizar una mejor experiencia y mejores funcionalidades, ligado a este avance, las herramientas de desarrollo de aplicaciones deben estar a la vanguardia para poder incorporar estas características, al igual que los desarrolladores al momento de elegir la herramienta adecuada con la que puedan incorporarlas a sus aplicaciones. Obteniendo como resultado un reporte de investigación completo y con información recolectada de manera puntual con el análisis y comparación de las herramientas para desarrollo de aplicaciones web y móvil, se da por concluido este trabajo de investigación, resaltando que todas las herramientas para desarrollo de aplicaciones son buenas dependiendo de las características que según la aplicación a desarrollar requiera, pero siempre considerando costos, tipo de aplicación y habilidades del desarrollador. De ahí la importancia de investigaciones de este tipo.
Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas
Asesor:Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas
ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.
ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.
Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas. Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Día con día, cuando las personas salen de su casa por trabajo, escuela de manera recreativa, se exponen constantemente a los rayos solares en situaciones donde, en la mayoría de las ocasiones, no utilizan la protección adecuada, como protector solar, lo que puede provocar que se originen enfermedades cutáneas en el peor de los casos, desafortunadamente esto suele ser más común de lo que se piensa, sin embargo se le da poca importancia y solo se le pone atención hasta que esté en un estado avanzado, en parte por desconocimiento y también por falta de medidas sencillas y eficaces de detectarlo.
Actualmente, el proceso de detección de este tipo de enfermedades no solo suele ser costoso, sino que también laborioso por lo que muchas veces, aunque se puedan llegar a tener sospechas muchas personas no suelen dar el paso a tiempo, resultando así en una detección tardía que generalmente generan posibilidades poco favorables para la persona si se hubiese detectado a tiempo.
Aunado a lo anterior, los equipos médicos, así como los procesos necesarios para su detección suelen estar asignados a lugares específicos y por ende no estar a la disposición de todas las personas, lo que puede obligar a los pacientes a desplazarse grandes distancias para siquiera empezar a realizarse un diagnóstico, provocando que tarden en poder atacar el problema lo más pronto posible o en casos extremos, que lo posterguen hasta que sea demasiado tarde. Debido a esto, el resultado puede terminar en el uso de recursos que puedan afectar de manera negativa tanto a la salud, como a la situación económica de los pacientes, por lo que es importante plantear herramientas más rápidas que apoyen al diagnóstico oportuno, con el fin de hacerlo más eficiente.
METODOLOGÍA
El objetivo de este proyecto fue el de crear una aplicación móvil que nos permita analizar este tipo de problemas, así como también el desarrollo de una herramienta móvil que a través de algoritmos de aprendizaje profundo y el uso de sistemas de alto rendimiento fuese capaz de realizar una clasificación a imágenes o datos para realizar un diagnóstico médico, esto con el fin de llegar a un resultado, el cual será mostrado al usuario de la aplicación. El algoritmo que se encargará del análisis de las imágenes será alimentado por un gran conjunto de datos para poder realizar un análisis preciso.
Las herramientas que se seleccionaron para realizar la aplicación móvil fueron, en primer lugar, un sistema de programación móvil. (Android)., debido a la familiaridad que se tenía con él, así como la facilidad que proporciona a la hora de probarla y desplegarla en un dispositivo móvil. Por otra parte, para comunicar la aplicación con el servidor, se optó por el uso de Sockets WEB los cuales son una tecnología que, en términos simples, sirve como canal de comunicación entre ambos equipos de manera bidireccional por medio de protocolos utilizados en internet, lo que le da la flexibilidad de enviar la información siempre que se encuentre conectado a una red de este tipo.
Por último, se optó por el uso de un lenguaje de programación interprete para la realización e implementación del modelo de aprendizaje profundo, puesto que esté posee unas librerías orientadas para el manejo de datos y la implementación de algoritmos de Redes Neuronales; con el fin de colaborar entre los miembros del equipo la plataforma para desarrollar el modelo fue Google Colab, el cual ofrece un entorno de desarrollo virtual por medio del cual se pueden conectar diversos usuarios e interactuar de manera simultánea.
El desarrollo del sistema de aprendizaje profundo se basó principalmente en el estudio de modelos previamente creados, con el fin de comprender de manera más practica como es que se llevan a cabo.
CONCLUSIONES
Se concluye que el trabajo desarrollado ha sido de gran aprendizaje; dado que pudimos estudiar diferentes disciplinas como es el área médica y las ciencias computacionales. Esto nos dio la pauta para diseñar e iniciar el desarrollo de un primer modelo de aprendizaje profundo con interoperabilidad en app móviles.
Lo anterior permite continuar desarrollando nuestras habilidades tanto personales como profesionales; dado que este tipo de proyectos nos permite interactuar con otros investigadores como fue con personal de la salud para entender más acerca del diagnóstico asistido y sus alcances.
Deseo en un futuro continuar participando en este tipo de estancias. Adicionalmente agradezco al Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacífico (programa Delfín) que nos brindó la plataforma para poder trabajar con un investigador con una gran y amplia trayectoria como lo es el Dr, Hugo Eduardo Camacho Cruz.
Díaz González Nancy Elena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS ESTRATEGIA PARA LA COMPETITIVIDAD DE LOS MIPYMES DEL SECTOR METALMECáNICO DE LA REGIóN CARIBE COLOMBIA
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS ESTRATEGIA PARA LA COMPETITIVIDAD DE LOS MIPYMES DEL SECTOR METALMECáNICO DE LA REGIóN CARIBE COLOMBIA
Díaz González Nancy Elena, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Diego Ernesto Mendoza Patiño, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
El modelo asociativo surge como uno de los mecanismos de cooperación que persigue la creación de valor a través de la solución de problemas comunes originados fundamentalmente, por falta de escala. Es decir, la insuficiencia del tamaño de las empresas hace muy difícil la incorporación de tecnologías, la penetración a nuevos mercados y el acceso a la información, entre otros. La asociatividad permite, a través de la implementación de estrategias colectivas y de carácter voluntario, alcanzar niveles de asociatividad que mejoran la competitividad de las empresas similares a las de mayor envergadura. Esta forma de trabajo se caracteriza por: Independencia jurídica de los participantes, autonomía gerencial de cada una de las empresas. Así también, algo muy indispensable que mencionan los autores Pulecio y Gómez (2017), establece que para alcanzar una buena asociatividad dentro de la empresa es indispensable el liderazgo estratégico y se deben dominar seis elementos claves del pensamiento estratégico y estos son: anticipar, retar, interpretar, decidir, alinear y saber. Estos elementos deben identificarse y entenderse con suficiencia en el Mipyme.
Por ende, el planteamiento se basa en esta pregunta, ¿Cuáles son los elementos fundamentales de los Modelos de Asociatividad Empresarial que mejoran la competitividad de las empresas del sector metalmecánico de la región Caribe colombiana?
METODOLOGÍA
Consulta de 20 artículos científicos tipo SCOPUS Q1, Q2 y Q3 relacionados con los modelos de asociatividad empresarial en las bases de datos científicas de la UAN.
Elaboración de mapa conceptual para identificar la estructura del marco teórico del trabajo.
Desarrollo del marco teórico de acuerdo con los elementos encontrados
Identificación de los elementos principales de los Modelos de Asociatividad Empresarial
Revisión en los artículos científicos de la presencia de los elementos principales de los Modelos de Asociatividad Empresarial
Análisis de resultados
Conclusiones
Determinación de trabajos futuros en la temática.
CONCLUSIONES
En el modelo de asociatividad, se identificaron elementos fundamentales, para la mejora de la competitividad de las empresas del sector metalmecánico de la región caribe Colombia. Por lo tanto, se consideraron cinco variables las cuales son importantes para la elaboración del marco teórico, estas son; Filosofía empresarial, Planeación empresarial, Organización de la empresa, Dirección de la empresa, Control de la empresa. En donde la mayoría de los autores identifican ciertas estrategias competitivas que les permiten adaptarse a los cambios, sobre todo a la relativa facilidad y rapidez en la toma de decisiones. Que contribuyen a la generación de procesos de innovación y a su finalización con éxito.
Diaz Huerta Luis Javier, Instituto Tecnológico de Ciudad Juárez
Asesor:Mg. Luis Alejandro Caycedo Villalobos, Fundación Universitaria Los Libertadores
APLICACIóN DE TéCNICAS DE SEGUIMIENTO DEL PUNTO DE MáXIMA POTENCIA PARA ARREGLOS FOTOVOLTAICOS
APLICACIóN DE TéCNICAS DE SEGUIMIENTO DEL PUNTO DE MáXIMA POTENCIA PARA ARREGLOS FOTOVOLTAICOS
Diaz Huerta Luis Javier, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Luis Alejandro Caycedo Villalobos, Fundación Universitaria Los Libertadores
PLANTEAMIENTO DEL PROBLEMA
La tecnología solar actualmente representa un campo de desarrollo energético de suma relevancia debido a su papel como alternativa a los sistemas generadores eléctricos basados en hidrocarburos. Sin embargo, la generación solar posee los altibajos de un alto costo de instalación y una tasa de conversión energética muy baja e intermitente, pues la eficiencia y la entrega de potencia se encuentra constantemente cambiando a la par de las condiciones de temperatura y radiación solar (Wang, 2011).
Si bien, a lo largo de las últimas décadas los precios de las celdas solares han disminuido considerablemente - sólo entre diciembre del 2009 y diciembre del 2019, los precios de los módulos de silicón cristalino disminuyeron entre un 87% y 97% (para los módulos vendidos en Europa y la variación de porcentaje en base a la clase de panel) (IRENA, 2019) - la eficiencia de los paneles sigue siendo baja. Un arreglo de celdas solares posee una relación de corriente - voltaje de carácter no lineal, una potencia de salida variable y dependiente de las condiciones atmosféricas. En todo panel solar existe un punto en la curva de potencia - voltaje en el cual se encuentra la máxima transferencia de potencia (MPP, por sus siglas en inglés Maximum Power Point) en donde se obtiene la mayor cantidad de energía que un panel nos puede otorgar bajo las características climatológicas de ese instante (Bhatnagar, 2013). Las condiciones óptimas de funcionamiento serían que el panel trabajara en todo momento en este punto, sin embargo, este punto no es estático, sino que se va modificando a medida que condiciones meteorológicas van cambiando, por lo que un panel solar por sí solo, no siempre nos entregará la potencia máxima posible, disminuyendo aún más, la eficiencia del panel en su transformación de energética.
METODOLOGÍA
Estudio del estado del arte, se buscó la recopilación de información sobre el tema en cuestión y propuestas para la resolución de la problemática en donde se tomó como base el artículo de Bhatnagar, P. Maximum power point tracking control techniques: State-of-the-art in photovoltaic applications, 2013 (Bhatnagar, 2013), como punto de partida para el análisis de las diferentes técnicas de rastreo del MPP.
Análisis de las técnicas para la implementación de los algoritmos de MPPT, con base a la información obtenida durante la etapa de estudio del estado del arte, se procedió a escoger dos técnicas de rastreo ponderando las características de: a) eficiencia, b) costo de aplicación, c) variables de entrada, d) tiempos de muestreo, e) método de funcionamiento (off-line, on-line, u otro), f) exactitud y efectividad bajo condiciones cambiantes de temperatura e irradiancia (Bhatnagar, 2013).
A partir de este análisis se seleccionaron dos métodos de traking. El primero llamado Perturbación y observación, basando en el análisis de la tasa de cambio de Potencia y de voltaje para la modificación del ciclo útil, se eligió debido a su sencillez, eficacia en estado estable (Wang, 2011). Si bien esté método posee las desventajas de una exactitud regular, debido a que realmente no se estabiliza en el MPP, sino que oscila alrededor del MPP además de una eficacia baja bajo condiciones cambiantes de temperatura y radiación solar, el método de perturbación y observación original se puede modificar para sobrellevar estas dificultades, lo que se conocer como el método de perturbación y observación modificado (Bhatnagar, 2013). El segundo método por desarrollar es conocido como Método de Control en modos deslizante, el cual es un método de rastreo basando en la teoría de control para sistemas no lineales que lleva el mismo nombre. Esta técnica, si bien es más compleja que el método anterior mencionado, tiene la ventaja de alta eficiencia bajo condiciones de irradiancia parcial. Ambos métodos funcionan en línea y requieren únicamente de la medición de los valores de corriente y voltaje.
La determinación de la eficiencia bajo determinadas condiciones se realizará mediante la simulación de los métodos de rastreo del MPP mediante el modelado de las técnicas en el software MATLAB - Simulink® con el cual el algoritmo funcional del método de rastreo se modela y se simula alimentado con entradas de datos de temperatura e irradiancia solar disponibles de la estación de meteorología de la Fundación Universitaria Los Libertadores en Bogotá- Colombia. Posteriormente, se buscará la implementación de la técnica de rastreo con la plataforma más adecuada (sistema embebido o sistema FPGA) con respecto a la aplicación y el algoritmo de rastreo, para finalmente culminar con el análisis de eficiencia de rastreo.
CONCLUSIONES
Durante la etapa del estudio del estado del arte se logró el desarrollo conceptual que permite describir el modelo físico matemático del panel solar como dispositivo de transformación de energía, su dependencia a las variaciones de temperatura y radiancia solar. Igualmente, se establece la necesidad de mantener al panel solar en la región de funcionamiento como fuente de corriente, además de la búsqueda del funcionamiento de cualquier arreglo solar en el punto de MPP para la obtención de la máxima eficiencia posible.
Actualmente nos encontramos en la etapa de modelado de los algoritmos de rastreo del MPP empleando MATLAB - Simulink®. Con Simulink se espera obtener un modelo funcional que nos permita mantener el funcionamiento del panel en el MPP con la máxima eficiencia posible. Después se buscará la creación y aplicación de un prototipo en alguna plataforma que nos permita su implementación física en un arreglo de paneles solares en donde se espera que el arreglo solar mejore su eficiencia de forma considerable en comparación a un arreglo fotovoltaico sin un MPPT.
Diaz Wences Erick Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
Diaz Wences Erick Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. García Bibiano Jenifer Estefanía, Instituto Tecnológico de Chilpancingo. Ojeda Iglesias Victor Omar, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
Los adultos mayores pueden presentar alteración en el control postural y por ello generar respuestas inadecuadas en los ajustes posturales, ya que con el paso de los años se va deteriorando la movilidad, la agilidad y la capacidad de mantener la estabilidad que causa un alto riesgo de caídas y un severo aislamiento social. Los individuos que muestran inestabilidad al estar parados sobre una pierna, también presentan dificultades al caminar, por lo tanto, deben recibir una mayor atención porque esa fragilidad física en la vida cotidiana les causa un miedo constante por caer, esto puede causar que se aíslen de la sociedad, sin tomar en cuenta que en muchas ocasiones no toman las terapias físicas adecuadamente o las abandonan antes de tiempo. Algo que es realmente preocupante en las personas mayores de 65 años ya que son quienes corren mayor riesgo de sufrir caídas mortales, siendo estas la segunda causa mundial de muerte por lesiones accidentales o no intencionales según la Organización Mundial de la Salud (OMS).
Tratando de ayudar en el proceso de rehabilitación física de adultos mayores que han abandonado la terapia física del programa de ejercicios terapéuticos PROBAUAM, se desarrolla un sistema de realidad virtual desarrollando minijuegos serios para los adultos mayores con la finalidad de que estos puedan realizar sus ejercicios terapéuticos de forma divertida sin sentirse aislado, generando autonomía, una alta autoestima y a su vez evitando el abandono de la terapia física.
METODOLOGÍA
Para la realización del proyecto que tiene como principal objetivo el desarrollo de juegos serios de realidad virtual, se obtuvo información del protocolo PROBAUAM que es un protocolo de ejercicios terapéuticos para mejorar la estabilidad en adultos mayores de la Universidad Autónoma de Manizales. En el cual se muestran los ejercicios que deben realizar los adultos mayores en su terapia física. Para poder desarrollar los minijuegos, se realizan una serie de pasos; en los cuales el equipo de trabajo se dividió en 2 grupos; de los cuales un grupo se designó para el diseño de dichos minijuegos, dentro de sus actividades a realizar; se elegía un ejercicio del protocolo y se exponen una serie de propuestas de minijuegos que se pueden realizar con el ejercicio anteriormente seleccionado y se rellena una ficha técnica la cual contiene los datos más relevantes y la idea más explícita, posteriormente pasa por una revisión del equipo de ingeniería, los cuales cuestionan el porqué de la idea, y dan observaciones acerca del minijuego, si este es riesgoso, o que pueda causar problemas a los adultos, se realizan las correcciones y pasa por otra revisión de parte de equipo de fisioterapia para analizar, dar observaciones y aprobar o desaprobar la propuesta. Ya que es aceptada la propuesta se comienza a desarrollar la escena en Unity 3D, buscando los assets necesarios para su creación e incluirlos, organizando todos los assets por su tipo como materiales, texturas, prefabs, animaciones, por su alcance, etc. Terminado el diseño de la escena se pasa al otro grupo que es el de desarrollo que se encarga de la programación y funcionamiento de los minijuegos. Para el desarrollo se utilizó el lenguaje C#, y la herramienta SteamVR. Para realizar las pruebas se usaban los lentes y controles en físico o usando el simulador de Unity. Una vez probado y terminado el minijuego pasa a una revisión con el equipo de ingeniería para pruebas y correcciones, después pasa por el equipo de fisioterapia para dar el visto bueno o dar observaciones de algunas mejoras o modificaciones, cuando estos ya están finalizados se implementan en el proyecto final a través de GitHub.
CONCLUSIONES
Durante el proceso de diseño nos enfrentamos con muchos retos de los cuales principalmente fueron las limitantes que surgen debido a que el proyecto está dirigido a adultos mayores por lo cual debíamos tener en cuenta las restricciones; algunas de ellas eran las temáticas de los minijuegos debido a que el equipo de fisioterapia nos pedía evitar temas agresivos o que pudieran asustar a los adultos mayores, también nos pedían moderar la velocidad del juego porque les podría generar problemas de mareo; otro de los retos que tuvimos al diseñar los minijuegos fue encontrar las motivaciones que tendrían los adultos al realizar estos ejercicios, contemplando las observaciones y restricciones mencionadas por el equipo de fisioterapia. Pero gracias a las sesiones de retroalimentación con el equipo de fisioterapia y de ingeniería poco a poco fue más fácil el proponer los minijuegos con las observaciones logramos aprender y entender los factores a tomar en cuenta para el diseño de los minijuegos.
En el proceso de desarrollo obtuvimos conocimientos del funcionamiento de Unity, desde la creación de escenas, importación de assets, uso de librerías, creación de materiales y texturas, implementación de SteamVR, programación en C#, crear y controlar animaciones, etc. Además durante el desarrollo tuvimos un gran problema debido a que no muchos podían contar con el equipo de RV para estar probando los minijuegos y a pesar de utilizar un simulador para probar las escenas no era lo mismo que utilizar el equipo de RV ya que cuando se intentaban probar algunas escenas que fueron hechas con el simulador causaban algunos problemas al probarlo con el equipo de RV; también tuvimos que aprender a usar blender ya que en algunos caso era necesario modificar modelos 3D para poderlos utilizar.
El problema que más destacó fue trabajar en modalidad online pero a pesar de eso se pudo trabajar en equipo, logrando diseñar 25 de 36 actividades y desarrollar 12 de 25 minijuegos, cumpliendo con 69.44% en diseño y 48% en desarrollo de lo esperado.
Diego Avilés Anayeli, Instituto Tecnológico Superior de Uruapan
Asesor:Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
Alvarado Ibarra Juan Felix, Universidad de Ciencias y Artes de Chiapas. Diego Avilés Anayeli, Instituto Tecnológico Superior de Uruapan. Durantes Castro Lizbeth, Universidad de Ciencias y Artes de Chiapas. Ramos Moreno Adrian Alonso, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
La problemática de las vías de comunicación pueden ser muy diferentes, pueden ser causado por el crecimiento poblacional, trafico excesivo, tiempo en transportarse, zonas marginadas, mala estructura, entre otros. Esto lleva a que los caminos, carreteras o autopistas se tengan que ampliar, modernizar o reconstruir para tener un logro exitoso en el transito vial.
A lo cual el proyecto busca tener opciones y resultados que obtengan un beneficio sobre la población. Su importancia es mantener las vías de tránsito en buena calidad para que la comunicación de transportes sea excelente y satisfactoria.
METODOLOGÍA
Para poder realizar la construcción de una carretera o camino, es necesario considerar el proyecto geométrico para el cual es indispensable conocer algunos elementos que lo conforman.
Terminología
Es necesario conocer algunos términos para poder familiarizarse con el proceso del proyecto geométrico de una carretera, primero es importante estudiar el listado que se presenta a continuación:
Abundamiento: Es el volumen aumentado en el material considerado.
Acotamiento: Se le conoce así al espacio que normalmente se deja a los extremos de las carreteras con el fin de dejar un margen a los señalamientos que se puedan colocar para la misma.
Acarreo libre: Es el acarreo que no se cobra, considerado de varios lugares como 20 m.
Alineamiento horizontal
Alineamiento Vertical
Bombeo
Calzada: Dentro del diseño de caminos se le conoce como calzada a la parte por donde circularan los vehículos.
C.G.E. = Centro de gravedad de extracción, termino aplicable en la curva masa
C.G.T. = Centro de gravedad de Tiro, aplicable en la curva masa.
Corona
Corte
Derecho de vía
Distancia de visibilidad de parada (Dp)
Distancia de visibilidad de rebase
Faja separadora
Hombro
Horizonte del proyecto
Longitud crítica
Pendiente gobernadora
Pendiente máxima
Pendiente mínima
Sobre acarreo (S/A)
Talud
Tangente horizontal
Tangente vertical
Terraplén
Transición mixta
Transito diario promedio anual (TDPA)
Velocidad de proyecto
Alineamiento horizontal
Alineamiento vertical
Secciones de construcción y cálculo de la curva masa
Uso de software (Civil CAD)
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proyecto geométrico de una carretera dejando en claro que para poder realizar la construcción de una carretera es importante realizar la elaboración de un proyecto geométrico sin mencionar el tiempo requerido para la obtención de los datos en campo.
Domínguez Hernández Juan Ignacio, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Luis Omar Moreno Ahedo, Universidad Autónoma de Baja California
MODELADO DE UN SEGWAY POR MEDIO DE WOLFRAM SYSTEMMODELER.
MODELADO DE UN SEGWAY POR MEDIO DE WOLFRAM SYSTEMMODELER.
Domínguez Hernández Juan Ignacio, Benemérita Universidad Autónoma de Puebla. Vargas Ambrosio Nick Diego, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Luis Omar Moreno Ahedo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Se busca modelar un Segway mediante un entorno de programción por bloques utilizando el software de Wolfram SystemModeler, el cual presenta un gran reto, por la poca información que hay de este para documentarnos. Uno de los principales problemas a resolver fue familiarizarse con el entorno de trabajo y poder entender las variables que existen dentro de este sistema y como establecer los parametros adecuados para obtener una simulación lo más acercada al comportamiento real.
METODOLOGÍA
Se consultaron diversas funtes, entre ellas libros, manuales, artículos y videos relacionados con el software. Una de las referencias que se consultaron más fue la página del mismo desarrollador del software, ya que este proporcionaba información más precisa y útil para poder llevar a cabo el modelado.
Comenzamos por entender el lenguaje en código en el que se basa el software. Se realizaron ejercicios de ecuaciones diferenciales y se simuló un sistema masa-resorte-amortiguador. Con estas simulaciones pudimos entender el comportamiento del software para poder obtener las gráficas/simulaciones esperadas.
Seguimos con la programación por bloques, en el cual se programó el mismo sistema masa-resorte-amortiguador para entender las diferencias y facilidades que tiene este último método, se observaron los mismos resultados, pero el tiempo de elaboracion disminuyó considerablemente.
Por último, aplicamos todos los conocimientos obtenidos para simular el Segway, empezando por la simulación de un péndulo, seguido de un péndulo invertido, después un carro-péndulo y para finalizar agregando el control, el cual hará que el péndulo invertido se estabilice, haciendo que este no caiga y mantenga la posición deseada.
CONCLUSIONES
Gracias a este trabajo de investigación, fuimos capaces de aprender acerca de un nuevo software y lenguaje de programación, en donde se aplicaron los conocimientos ya adquiridos y los nuevos, para modelar el Segway, que gracias a su control, es posible su funcionamiento. Enriqueciendo así nuestra experiencia académica y profesional.
Domínguez Moran Joaquín, Instituto Politécnico Nacional
Asesor:Dr. Leonid Sheremetov, Instituto Mexicano del Petróleo
MODELO DE APRENDIZAJE PROFUNDO INFORMADO POR LA FíSICA DE LA SOLUCIóN DE LA ECUACIóN SCHRODINGER EN TENSORFLOW 2.5.0
MODELO DE APRENDIZAJE PROFUNDO INFORMADO POR LA FíSICA DE LA SOLUCIóN DE LA ECUACIóN SCHRODINGER EN TENSORFLOW 2.5.0
Domínguez Moran Joaquín, Instituto Politécnico Nacional. Asesor: Dr. Leonid Sheremetov, Instituto Mexicano del Petróleo
PLANTEAMIENTO DEL PROBLEMA
Una de las aplicaciones de las redes neuronales artificiales, es su entrenamiento para resolver tareas de aprendizaje supervisado respetando las leyes de la física dadas por la solución de ecuaciones diferenciales no lineales parciales.
Las redes neuronales profundas tienen la capacidad de aproximar funciones. Por lo cual se pueden utilizar para resolver problemas no lineales supuestos previos o linealización. Utilizando técnicas de diferenciación automática, mediante diferenciar las redes neuronales con respecto a las coordenadas de entras y los parámetros del modelo, se obtienen redes neuronales informadas por la física que respetan la simetría, invariancias y principios de conservación que se originan de las leyes de la física.
La ecuación de Schrodinger es comúnmente utilizada para estudiar sistemas de mecánica cuántica, como son la propagación de ondas no lineales en fibras ópticas, ondas de plasma, etc.
La presente investigación tuvo como principal eje comprender los fundamentos del aprendizaje profundo y migrar la solución de la ecuación de Schrodinger en tensorflow 1.14 a tensorflow.25
METODOLOGÍA
La solución de la ecuación de Schrodinger se encuentra disponible en: https://github.com/maziarraissi/PINNs . Sin embargo, el código utiliza la versión de tensorflow 1.14. Migrar el código a tensorflow 2.5 nos permite generar un código más efectivo.
Diferencias entre tensorflow 1.14 y 2.5
Limpieza de la API
Se eliminaron las API’s de tf.app, tf.flagsy tf.logging y funciones que se encontraban en tf.contrib se reubicaron a subpaquetes como es tf.math. Algunas API’S de tensorflow 1.14 fueron reemplazadas por sus equivalentes de 2,0 - tf.summary, tf.keras.metrics, y tf.keras.optimizers
Ejecución ansiosa
En tensorflow 1.14 el programador debía construir manualmente un grafo con llamadas a tf.* y posteriormente compilar dicho grafo pasando un conjunto de tensores de salida y tensores de entrada a una llamada session.run . En tensorflow 2.5 la ejecución es ansiosa y la construcción del grafo es un detalle de la implementación.
Remplazo de sesiones por funciones
Las llamadas a session.run son similares a invocar a una función, especifica las entradas y la firma de la función y obtiene un conjunto de salidas. En tensorflow 2.5 podemos usar tf.fuction, lo cual permite optimizar funciones y portar el código.
Proceso de migración de tensorflow 1.14 a 2.5
Ejecución de Script de actualización.
Tensorflow provee un Script de actualización automática el cual hace una actualización inicial. El comando para ejecución del Script es el siguiente:
tf_upgrade_v2.py --infile schrodinger_tf1.py -outfile schrodinger_tf2.py
Una vez ejecutado el Script de actualización se genera un reporte con el nombre de report.txt.
Creación de un entorno virtual con tensorflow 2.5
Para la ejecución del código en su nueva versión es recomendable crear un entorno virtual con anaconda el cual se configura con el siguiente comando.
conda create --name
A fin de obtener una correcta ejecución del código es necesario instalar las siguientes librerías y dependencias las cuales están contenidas en el archivo requirements.txt .
Cambios de API’s y librerías de tensorflow 1.14 a 2.5.
A continuación, se muestran las API´s y liberias equivalentes entre versiones.
set_random_seed se sustituye por random.set_seed
reduce_mean se sustituye por math.reduce_mean
square se sustituye por math.square
contrib.opt.ScipyOptimizerInterface se sustituye por optimizer.lbfgs_minimize
train.AdamOptimizer() se sustituye por keras.optimizers.Adam()
tf.tanh se sustituye por tf.math.tanh
tf.add se sustituye por tf.math.add
tf.matmul se sustituye por tf.linalg.matmul
Cambios en los optimizadores
Anteriormente, en el código para tensorflow 1.14 se utilizaba el optimizador lbfgs de tf.contrib.opt.ScipyOptimizerInterface el cúal recibia los siguientes argumentos para su inicialización:
loss,var_list=None,equalities=None,inequalities=None,var_to_bounds=None, **optimizer_kwargs
La importancia de la inicialización radicaba en el argumento loss, el cual debía ser un tensor escalar. En el código se le enviaba resultado del error cuadrático.
En tensorflow 2.5 tf.contrib se encuentra depreciada, ahora bien existe una nueva opción:
tfp.optimizer.lbfgs_minimize: Requiere de dos argumentos forzosos value_and_gradients_function e initial_position .
value_and_gradients_function Es una función a minimizar que devuelve una tupla de tensores de tipo real que contiene el valor de la función y su gradiente en ese punto.
initial_position Es un Tensor real de la forma [..., n]. Que índica el punto o puntos de partida del optimizador.
CONCLUSIONES
Terminada la migración se ejecutó el código con los siguientes hiperparámetros:
layers = [2, 100, 100, 100, 100, 2]
adam epochs=400
learning rate=0.05
beta_1=0.99
epsilon=1e-1
lbfgs epochs=600
num_correction_pairs=50
El resultado obtenido fue de :
Error u: 8.413897e-01 %
Error v: 1.113505e+00 %
Error h: 5.241777e-01 %
Finalmente, la solución de ecuaciones diferenciales no lineales parciales con redes neuronales profundas es un nuevo paradigma en el cómputo científico las cuales pueden tener grandes aportaciones en diferentes campos. Por otro lado, cabe mencionar, que los resultados de la solución con el código en tensorflow 2.5 pueden ser mejorados ajustando los hiperparámetros de la red neuronal.
Cabe mencionar que, el problema de optimización es no convexo. Los métodos comunes para minimizar las funciones de pérdida en el entrenamiento incluyen el método Adam de descenso estocástico de gradiente y el BFGS de memoria limitada con restricciones de caja (L-BFGS-B). En este algoritmo de dos pasos, se utiliza primero el método Adam durante un número de iteraciones, y luego se utiliza el método L-BFGS-B hasta que la solución del problema de optimización converge con la tolerancia prescrita.
Dominguez Olvera Leonardo Daniel, Instituto Politécnico Nacional
Asesor:Dr. Noel Enrique Rodríguez Maya, Instituto Tecnológico de Zitácuaro
HACIA LA GENERACIÓN DE UN MODELO DE PREDICCIÓN DE DESEMPEÑO ACADÉMICO DOCENTE PARA UNA INSTITUCIÓN MEXICANA
HACIA LA GENERACIÓN DE UN MODELO DE PREDICCIÓN DE DESEMPEÑO ACADÉMICO DOCENTE PARA UNA INSTITUCIÓN MEXICANA
Dario Martinez Julio Joel, Instituto Tecnológico de Zitácuaro. Dominguez Olvera Leonardo Daniel, Instituto Politécnico Nacional. Asesor: Dr. Noel Enrique Rodríguez Maya, Instituto Tecnológico de Zitácuaro
PLANTEAMIENTO DEL PROBLEMA
La educación superior es un pilar muy importante en la formación integral de las nuevas generaciones de estudiantes; es una herramienta fundamental que permite transmitir conocimiento a los estudiantes para la adquisición de las competencias necesarias para afrontar los retos profesionales. Por lo anterior, la educación superior debe adaptarse a los retos actuales para poder transmitir los conocimientos y que estos sean adquiridos.
Uno de los principales retos para el logro de los objetivos académicos es la actualización docente; los docentes sin importar el grado académico, se deben estar actualizando, no solo por los nuevos escenarios de educación en sus diferentes modalidades, si no que también se debe considerar que la tecnología avanza día a día y se debe fortalecer su formación profesional y su práctica docente. Otro de los factores importantes a considerar es la empatía con la que los docentes desarrollan las actividades con los estudiantes; la empatía permite a los docentes abordar su práctica con otros elementos más cercanos y prever diversas situaciones socioemocionales con los estudiantes.
METODOLOGÍA
La metodología con la que se va a trabajar será el Proceso Estándar de la Industria Cruzada para la Minería de Datos (CRISP-DM, Cross Industry Standard Process for Data Mining), la cual va enfocada a la explotación y análisis de los datos .
El modelo consta de 6 etapas las cuales son:
1.Comprensión del negocio: Se enfoca en la comprensión de los objetivos y exigencias del proyecto. Posteriormente convierte ese conocimiento de los datos en la definición de un problema de minería de datos y en un plan preliminar diseñado para alcanzar los objetivos.
2.Comprensión de los datos: Se encarga de la recolección de datos inicial y continúa con las actividades que permiten familiarizarse primero con los datos, identificar sus problemas de calidad, descubrir conocimiento preliminar en los mismos, y/o descubrir subconjuntos interesantes para formular hipótesis.
3.Preparación de datos: Cubre todas las actividades necesarias para construir el conjunto de datos final (los datos que serán provistos por las herramientas de modelado). Las tareas de preparación incluyen la selección de los datos, la limpieza de éstos, la construcción de nuevas variables, la integración de los datos y el formateo de los mismos.
4.Modelado: Se aplican las técnicas de minería de datos a los datos. Se aplican varias técnicas de modelado y los parámetros de uso de las mismas se afinan hasta alcanzar los valores óptimos.
5.Evaluación: se evalúan los modelos anteriores para determinar si son útiles a las necesidades. En esta etapa los modelos ya están construidos y deben tener una alta calidad desde una perspectiva de análisis de datos.
6.Despliegue: implica la explotación de los modelos dentro de un entorno de producción.
CONCLUSIONES
Lo fundametal fue la extracion de los datos, lo cual no fue sencillo ya que se tuvieron que leer varios artículos para poder saber que datos si eran relevantes y cuales no nos aportaban, esto fue nesesario para conformar de un dataset con datos cualitativos y cuantitativos de los docentes que forman parte del objeto de estudio. Después de la generación del dataset, se tiene que realizar la limpieza de datos y verificar que los datos sean válidos. El modelo predictivo será entrenado con este dataset de tal manera que no esté sobre entrenado y que permita generalizar las predicciones. Se tiene contemplado tener un porcentaje de precisión cercano al 100%. Obtenido lo anterior, se realizará un pronóstico de cómo serán los periodos lectivos y de esta manera mejorar los resultados académicos a través del seguimiento y la integración de los modelos para la toma de decisiones. Todo esto se hace con la finalidad de ayudar a la institución educativa para mejorar el rendimiento académico de los estudiantes-docentes; si se mejora el desempeño académico de un docente hay una alta probabilidad de que el alumno mejore.
Domínguez Ramos Raúl Enrique, Instituto Politécnico Nacional
Asesor:Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México
ELEMENTOS BáSICOS DE LA DOMóTICA APLICADOS A UN BRAZO ROBOT
ELEMENTOS BáSICOS DE LA DOMóTICA APLICADOS A UN BRAZO ROBOT
Domínguez Ramos Raúl Enrique, Instituto Politécnico Nacional. Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dr. Carlos Omar González Morán
Estudiante: Domínguez Ramos Raúl Enrique, Instituto Politécnico Nacional, CECyT #1 Gonzalo Vázquez Vela
La ineficacia y problemas tecnológicos e industriales por falta de la implementación de Arduino ha hecho que prácticamente el avance hacia el futuro se vea afectado y sea demasiado lento en el mundo.
En México y en todo el mundo se ha visto a través del tiempo que el uso y el funcionamiento de dispositivos en todos los ámbitos ha ido decreciendo su eficacia y el tiempo tanto de respuesta como de acción no son de lo mejor. El panorama no es alentador, ya que con dichos problemas realmente seguiremos sufriendo por reparar a cada rato los dispositivos, mecanismos, etc. De ahí la importancia de usar tecnología revolucionaria y con un impacto menor tanto para el medio ambiente como para nosotros; Arduino cumple con altas expectativas en la actualidad e incluso se implementa especialmente en la domótica la cual abarca una extensa área de oportunidades, pudiendo ser desarrollada en la industria, en la seguridad, y en el manejo de mecanismos que necesitan de precisión y velocidad.
METODOLOGÍA
La metodología que se implementó durante el desarrollo de este proyecto se denomina Top-Down, que es basada en el paradigma divide y vencerás, ya que es empleada en diferentes áreas como: diseño de circuitos, desarrollo de productos y desarrollo de software por mencionar algunos.
En la metodología Top-Down se inicia por un nivel superior de lo general y se va emigrando a los niveles inferiores a lo específico. El uso de esta metodología busca la solución de los problemas menores, para luego conectarlos y de esta forma lograr solucionar el problema principal.
Lo que caracteriza a esta metodología, es su formar de trabajar al dividir los problemas en módulos que permite tratar individualmente para alguna corrección o mejora, logrando eficientar recursos tanto económicos como de tiempo.
El proyecto se desarrolló en base con la dicha metodología, sin embargo se usaron softwares que permitieron la simulación en una alta calidad de los circuitos realizados, así como de diferentes pruebas y diseños. Se usó de manera prioritaria el software de nombre Tinkercad, recomendado por el asesor el Dr. Carlos Omar González Morán.
Se comenzaron a realizar distintas prácticas de simulación y conexión de circuitos con el fin de ir mejorando y entendiendo los mecanismos que se pueden llegar a construir, todo esto implementando claro el dispositivo Arduino que es la base de todo lo que se ha mencionado hasta el momento, no solo por su infinidad de usos sino que también por su facilidad de entendimiento e implementación en cualquier ámbito tecnológico, científico y electrónico.
Al cabo de 2 semanas de comprender, usar y sobre todo programar Arduino pasamos a desarrollar algunos sistemas mucho más avanzados y complejos, viendo de esta forma lo practico que puede ser Arduino, pues en las ultimas simulaciones implementamos el Bluetooth para poder controlar los mecanismos requeridos desde distancias largas y aplicando las funciones de dispositivos móviles para su mejor manejo y sencillez.
Tras concluir con los circuitos específicos dentro del programa, se procedió a construir de manera 3D un brazo robótico el cual tiene los fundamentos necesarios para poder trabajar con Arduino y de esta manera poder controlar las acciones con mucha más eficacia, precisión y con un bajo riesgo de problemas a la hora de querer implementarlo a un nivel industrial. Para diseñar el brazo robótico se siguió implementando Tinkercad el cual nos da la oportunidad de ensayar y hacer prueba y error, así como poder ver tutoriales con información fácil de entender.
Se comenzó desde la formación de la base del brazo puesto que ahí será donde se apoye todas las demás piezas y posteriormente los componentes eléctricos y electrónicos, una vez finalizada la base se prosiguió a la construcción del brazo como tal por ello se tuvo que buscar algunas referencias y explicaciones de la forma que tendría que ser, al final se optó por una forma L; para finalizar la parte física se dio seguimiento con las pinzas las cuales no fueron muy complicadas de hacer puesto que en este caso solo buscamos que pueda sujetar objetos no muy grandes ni pesados, así que con esto en mente se hicieron como la pinza de un cangrejo.
Una vez terminada y probada la estructura solo era cuestión de implementar el mecanismo (circuito) junto con el Arduino, para hacer esto se usaron cuatro servomotores, junto con cuatro potenciómetros, cables y por supuesto la placa Arduino Uno; su conexión se desarrolló sobre Arduino conectando los potenciómetros en las compuertas analógicas y en la parte de la fuente de alimentación, mientras que los servomotores están en la parte digital y conectados a tierra, pero su parte de alimentación está en la fuente; con todo listo ahora era hora de programar al Arduino para que tuviera todas ordenes que se requieren, finalizando todo con la conexión del Arduino a una entrada USB que alimentara a todo el circuito y hará funcionar a los servomotores conforme se muevan los potenciómetros.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la importancia de poder trabajar con Arduino y ponerlo en práctica en la construcción de un brazo robótico capaz de ser manipulado ya sea con ayuda de potenciómetros o de manera digital y domótica con la ayuda del Bluetooth, a pesar de que no fue un trabajo muy extenso el funcionamiento de manera física no se pudo mostrar tras la situación de pandemia que estamos viviendo. Se espera que se logre implementar por lo menos la cuestión de programación para el desarrollo de brazos robóticos en la industria o en cuestiones específicas.
Domínguez Rico Sebastián Alberto, Instituto Tecnológico de Tapachula
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
OBTENCIÓN DE PRODUCTOS DE VALOR AGREGADO A PARTIR DE RESIDUOS DOMÉSTICOS Y AGROINDUSTRIALES
OBTENCIÓN DE PRODUCTOS DE VALOR AGREGADO A PARTIR DE RESIDUOS DOMÉSTICOS Y AGROINDUSTRIALES
Domínguez Rico Sebastián Alberto, Instituto Tecnológico de Tapachula. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, la mayor parte de la energía que se usa en el mundo proviene de los combustibles fósiles cuyo uso ha causado problemas ambientales, aumentando la contaminación del aire y provocando el efecto invernadero, así como el agotamiento de los recursos naturales. Por esta razón, es necesario proveer biocombustibles renovables, biodegradables, menos tóxicos y seguros en su almacenamiento y manipulación. Una de las alternativas más factibles para reemplazar el diésel de petróleo es la producción de biodiesel.
El biodiesel puede obtenerse a partir de diversos tipos de materias primas El inconveniente que impide un aumento en el consumo de biodiesel es el alto costo de producción, ya que la adquisición de materia prima representa actualmente entre el 70 y 95% de los gastos de producción de biodiesel, afectando su competencia en el mercado antes los combustibles convencionales. También se han empleado los aceites de cocina usados, los aceites no comestibles, las grasas animales, así como las algas cultivadas para este fin. En este sentido, la obtención de biodiesel a partir de lodos de PTAR ha recibido considerable atención en los últimos años. Lo que resulta en el desarrollo y aplicación de diferentes métodos de extracción de la fracción lipídica como materia prima y su posterior trans/esterificación. Bajo este contexto, esta investigación tiene como objetivo sintetizar catalizadores a partir de residuos urbanos y agroindustriales que permitan una conversión eficiente en las reacciones de tras/esterificación.
METODOLOGÍA
Síntesis de catalizadores utilizando flamboyán como precursor
Para la síntesis de los catalizadores ácidos se emplearon soportes de base carbonosa obtenidos a partir de tetrapak y flamboyán y se modificaron con HCl o H2SO4. Para dicho fin, se prepararon soluciones con una concentración de 0.5M de cada ácido. Para la modificación de los soportes, a 0.3g de soporte de tetrapak y 1g de soporte carbonoso de flamboyán se les añadió 20mL de una solución ácida (HCl o H2SO4), y se mantuvieron en agitación constante a 100°C a vacío hasta evaporar el agua. Ambos materiales se activaron a 650°C por 3h bajo una atmósfera de nitrógeno. Por otra parte, se realizó la modificación de los soportes de base carbonosa por sulfonación. Para ello, se mezclaron el soporte y el ácido sulfúrico en una relación m/V de 1g/7mL y se sometió a un tratamiento térmico a 150°C durante 3h.
Se sintetizaron catalizadores básicos utilizando hidróxido de sodio y potasio como agentes modificantes de los soportes carbonosos. Para ello, se prepararon las soluciones básicas con una concentración de 0.5M. En un sistema de mezclado al vacío se añadieron 30mL de solución básica, 0.3g de soporte derivado de tetrapak y 1g de soporte carbonoso de flamboyán. La mezcla se agitó a 100°C hasta que el agua se evaporó. Por último, los catalizadores obtenidos fueron sometidos a un tratamiento térmico de 150°C durante 3h.
Reacciones de esterificación
El desempeño de los catalizadores ácidos preparados se evaluó en las reacciones de esterificación con aceite de cártamo ácido y una grasa ácida generada a partir de aceite de palma. En un reactor con agitación magnética se añadió 0.1g del catalizador, 1.16g de metanol y 2g de lípidos ácidos. La reacción se llevó a cabo a 60°C durante 4h. Posteriormente, se añadieron 3mL de metanol y se centrifugaron a 60rpm durante 15min para separar el catalizador heterogéneo de las fases líquidas (mezcla de compuestos orgánicos), se recuperaron únicamente las fases líquidas y se dejaron en el horno a 100°C hasta que se evaporara completamente el metanol. Posteriormente, se prepararon las muestras para su análisis en el equipo de cromatografía de gases (GC-FID); donde 15mg de muestra se disolvieron en 1mL de una solución de alcohol metílico y heptadecanoato de metilo (estándar). En el equipo se determinaron los pesos moleculares de los aceites y el rendimiento de cada catalizador.
Reacciones de transesterificación
Para evaluar el desempeño de los catalizadores básicos, se añadieron 0.1g del catalizador, 1.16g de metanol y 2g de aceite de cártamo. Para comparar la eficiencia de los catalizadores en aceites usados se realizaron reacciones con manteca de cerdo. Las condiciones de reacción fueron 60°C durante 8h para los catalizadores calcinados y 60°C y 4h para los catalizadores de base carbonosa. Después de la reacción, a los productos se le añadió 3mL de metanol y fueron sometido a centrifugación a 60rpm por 15min para la recuperación del catalizador. Las fases liquidas se dejaron en el horno a 100°C hasta que se evaporara completamente el metanol. Finalmente, las muestras fueron analizadas en el cromatógrafo de gases para obtener el rendimiento de la reacción para cada catalizador.
CONCLUSIONES
Para el caso de las reacciones de transesterificación se utilizaron los catalizadores altamente básicos y se obtuvieron conversiones mayores al 51% para el aceite de cártamo y la grasa de cerdo. La grasa de cerdo tuvo un rendimiento de alrededor del 51-90% menor que el aceite de cártamo. Este último alcanzó porcentajes de 81 y 99% para el KOH y NaOH, respectivamente. En el caso de los catalizadores a base de carbón, las conversiones de los catalizadores con NaOH fueron de 69% para la manteca de cerdo y 83% para el aceite de cártamo, respectivamente. Mientras que, para los catalizadores modificados con KOH las conversiones fueron 55 y 84% para la grasa de cerdo y el aceite de cárcamo, respectivamente.
Para el caso de las reacciones de esterificación las conversiones fueron bajas (<40%) para los catalizadores a base de carbón. Sin embargo, después del tratamiento de sulfonación, la conversión de los ácidos grasos libres (FFA) aumentó, obteniendo rendimientos de 53 y 63% para el aceite y grasa ácidos, respectivamente. La conversión de los moles de FFA fueron de 77.96 y 91.98% para los catalizadores modificados con H2SO4 y HCl y, respectivamente.
Duarte Camacho Jhonathan Stiven, Universidad Autónoma de Bucaramanga
Asesor:Dra. Katherinne Salas Navarro, Universidad de la Costa
PROPUESTA DE MEJORA BAJO LA METODOLOGÍA LOGÍSTICA INVERSA EN UN PROCESO DE PRODUCCIÓN DE MUEBLES DE MADERA
PROPUESTA DE MEJORA BAJO LA METODOLOGÍA LOGÍSTICA INVERSA EN UN PROCESO DE PRODUCCIÓN DE MUEBLES DE MADERA
Duarte Camacho Jhonathan Stiven, Universidad Autónoma de Bucaramanga. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
El objetivo de este estudio es diseñar una propuesta de mejora bajo la metodología de logística inversa en un proceso de producción de muebles de madera con un para optimizar el uso de los residuos del proceso productivo, partiendo de la caracterización del estado actual del proceso productivo y del uso de los residuos. A continuación, se desarrolla un modelo de optimización de enteros mixtos aplicando la metodología de logística inversa bajo escenarios de incertidumbre para la demanda, las tasas de reciclaje y la tasa de remanufactura. Por último, se encuentra una solución al modelo de optimización de logística inversa mediante programación entera mixta.
METODOLOGÍA
Se propone un modelo de logística inversa para el proceso de reciclaje y refabricación de los residuos del proceso de fabricación de muebles de madera. Los residuos, especialmente el serrín, se llevan a un almacén para su posterior entrega a los transportistas encargados de llevar estos residuos a las plantas de reciclaje o a la incineración. Los residuos de leña y tablones también se clasifican y almacenan en la planta de producción para su reutilización y envío a plantas externas de refabricación o para su reutilización en otros procesos de producción. En la actualidad, la empresa no dispone de una planta o proceso de producción específico para aprovechar estos residuos y generar nuevos productos, como accesorios para el hogar. Por ello, se propone un modelo de optimización de enteros mixtos aplicando la metodología de logística inversa bajo escenarios de incertidumbre para la demanda, las tasas de reciclaje y la tasa de remanufactura.
CONCLUSIONES
La presión que surge en diferentes ámbitos medioambientales, legales y de responsabilidad social corporativa mueve a las empresas hacia modelos sostenibles en sus cadenas de suministro tradicionales, siendo uno de los factores importantes la aplicación de la logística inversa. Por eso en este proyecto se espera caracterizar el proceso productivo y uso de residuos de madera para desarrollar un modelo de optimización entero mixto bajo escenarios de incertidumbre para la demanda, tasas de reciclaje y tasa de remanufactura.
Duarte Castellanos Magdalena, Universidad de Guadalajara
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
LA RESISTIVIDAD ELÉCTRICA COMO PARÁMETRO DE DURABILIDAD DEL CONCRETO; ION CLORURO COMO AGENTE INICIADOR A LA CORROSIÓN EN EL ACERO DE REFUERZO
LA RESISTIVIDAD ELÉCTRICA COMO PARÁMETRO DE DURABILIDAD DEL CONCRETO; ION CLORURO COMO AGENTE INICIADOR A LA CORROSIÓN EN EL ACERO DE REFUERZO
Duarte Castellanos Magdalena, Universidad de Guadalajara. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Actualmente el material más usado en la construcción es el concreto con acero de refuerzo. Antes se creía que tenía una vida útil superior a los 50 años (Nawy, E. G., 1988) por tener una gran resistencia a medios agresivos y por su durabilidad. Sin embargo, conocemos ahora que algunas obras de concreto reforzado presentan deterioros prematuros, siendo la corrosión en las varillas de acero el problema que se presenta con mayor frecuencia. Cuando el acero se empieza a corroer se producen residuos que dañan al concreto, por el aumento de volumen que provoca esfuerzos de tensión. Consecuentemente aparece agrietamientos y desprendimientos del concreto debilitando así la resistencia de la estructura. (Torres, A. A., et al. 2019)
La durabilidad del concreto depende en gran medida de las propiedades de su microestructura, así como la distribución del tamaño de los poros y la tortuosidad. (Hamed, L., et al. 2015). Por la necesidad de calcular la durabilidad del concreto de forma cuantitativa se han creado métodos para determinar la vida útil de las estructuras de concreto; la resistividad eléctrica nos permite determinarla de forma no destructiva, además es un indicador del fraguado, de resistencia mecánica, del grado de saturación, y tiene una relación directa con la velocidad de corrosión por el grado de humedad. (Andrade & D’Andrea, 2011).
METODOLOGÍA
¿Qué es la resistividad eléctrica?
La Ley de Ohm indica que la resistividad eléctrica es una propiedad recíproca de la conductividad, se considera una propiedad volumétrica de los materiales que indica su resistencia al paso de las cargas eléctricas.
Se puede definir la resistividad eléctrica como una propiedad del material, independiente de la geometría del espécimen y la configuración de los electrodos. Es adecuado para el control de calidad al ser un ensayo no destructivo. (Torres, A. A., et al. 2019)
¿Por qué se corroe el acero?
La corrosión es generada por la pérdida acelerada de electrones en el metal, se inicia cuando el acero sufre la despasivación o activación química que puede ser provocada por el ingreso de cloruros al concreto en una cantidad superior al soporte natural del acero embedido de 0.7kgCl-/m3 de concreto. (Bentur, A., et al. 1997)
El mecanismo de transporte de iones cloruro viene determinado por el diámetro, volumen, conectividad y el grado de saturación de los poros; cuanto mayor es la resistividad, el concreto es poco poroso, es mayor su impermeabilidad y resistencia mecánica al contener más fase sólida por volumen, tiene niveles bajos de difusividad, absorción capilar y conductividad. Además, si el concreto no está saturado de agua, la resistividad crece, porque las cargas eléctricas se transmiten a través de la fase acuosa dentro de la microestructura.
Los iones cloruros (CI-) se acumulan en la superficie del concreto, lentamente se transportan por medio de los poros de la matriz cementicia hasta llegar a la superficie del acero de refuerzo; esto sucede por el proceso de difusión que tiende a equilibrar las concentraciones de cloruro en las superficies. Cuando la concentración de cloruro en el acero alcanza valores que exceden un nivel crítico la protección de la armadura desparece y la corrosión se desencadena. (Pacheco, J., 2018)
Medida de resistividad
En las normas españolas UNE 83988-1 y UNE 83988-2 explican dos métodos para medir la resistividad eléctrica: por el método directo al aplicar un campo eléctrico uniforme con dos electrodos en contacto con las bases de la probeta usando un resistómetro; se utiliza probetas sin armadura, de concreto endurecido o testigo de concreto extraído, cilíndricas o prismáticas, saturadas en agua, los electrodos son dos mallas o placas de cualquier metal conductor y dos esponjas humedecidas que se colocan entre los electrodos y la base de la probeta. El método de Wenner aplicando una corriente dos electrodos situados en la generatriz de la probeta cilíndrica, se usa un resistivímetro de cuatro puntas que induce a la probeta una corriente alterna, los electrodos son cuatro puntas de un conductor de metal y cuatro esponjas humedecidas.
Según la norma mexicana NMX-C-514-ONNCE-2016 Industria de la Construcción - Resistividad Eléctrica del Concreto Hidráulico: Especificaciones y Métodos de Ensayo, para una medida de resistividad de >100-200 kohm-cm las velocidades de corrosión son muy bajas, para una 50 a 100 kohm-cm son bajas, de 10 a 50 kohm-cm son moderadas o altas y para < 10 kohm-cm son muy altas.
La resistividad utilizándola en una expresión matemática puede predecir la iniciación hasta el desarrollo de la corrosión y cuantificar el periodo de propagación.
CONCLUSIONES
El problema de la degradación corrosiva de las estructuras de concreto es serio y de implicaciones económicas, por eso es necesario conocer el origen y desarrollo de la corrosión para controlarla y conservar los requisitos de la obra sobre seguridad, funcionalidad y estética. Sin embargo, no existe un único elemento para lograr esto, todos los componentes del concreto deben desempeñarse e interactuar adecuadamente.
Observé que la variable más influyente en la resistividad eléctrica es la porosidad del concreto, pues por ahí se transportan los iones cloruro iniciando el proceso de corrosión. Además, esta medida es un buen indicador de la calidad del concreto. Es preciso decir que los cloruros no son el único agente agresivo, existen otros medios como la carbonatación.
Como reflexión puedo decir que participar en este programa ha sido gratamente enriquecedor brindándome herramientas para convertirme en la investigadora que aspiro ser. Finalizo agradeciendo al Departamento de Materiales de la Facultad de Ingeniería Civil de la UMSNH.
Duarte Diaz Jorge Luis, Instituto Tecnológico de Morelia
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
CORROSIóN DEL ACERO DE REFUERZO EN ELEMENTOS DE CONCRETO ARMADO
CORROSIóN DEL ACERO DE REFUERZO EN ELEMENTOS DE CONCRETO ARMADO
Duarte Diaz Jorge Luis, Instituto Tecnológico de Morelia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Actualmente es importante tener en cuenta la vida de servicio de la estructuras de concreto debido a que los ambientes actuales se han vuelto un más agresivos y/o agresivos químicamente hablando, con esto se propicia una corrosión un poco mas acelerada a lo que se tenia previsto, entonces la vida de servicio es considerada como el periodo de tiempo durante el cual la estructura conserva los requerimientos del proyecto en seguridad, (resistencia mecánica, estabilidad, seguridad en uso, etc.) funcionalidad y estética, sin costos de mantenimiento inesperados.
Además, se debe considerar el fin de la vida de servicio como el punto en el tiempo en el cual la estructura ya no cumple con la función para la cual fue prevista y aquí es donde se deben de tomar precauciones y hacer las evaluaciones correspondientes
Así mismo, es importante la consideración de la durabilidad de dichas estructuras que es la capacidad de un material de construcción, elemento o estructura de concreto de resistir las acciones físicas, químicas, biológicas y ambientales vinculadas al efecto del cambio climático durante un tiempo determinado calculado desde el proyecto para que así, conserve su forma original, propiedades mecánicas y condiciones de servicio.
Los principales factores que desencadenan la corrosión en un elemento o estructura de concreto son el espesor de recubrimiento del concreto, la humedad ambiental, la compacidad, la relación agua/cemento entre otras cosas
METODOLOGÍA
Se trabajo bajo las normas ASTM C 1152 y ASTM C 1218 que nos habla del contenido de iones cloruro en las muestras que es el principal causante de la susceptibilidad del acero de refuerzo a la corrosión y también bajo la norma ASTM C 1202 que nos indica la capacidad eléctrica del concreto para resistir la penetración de iones de cloruro y así mismo, nos ayuda a evaluar la eficacia de los selladores químicos, membranas, y recubrimientos, esto midiendo la resistividad eléctrica de las muestras de concreto.
La prueba de resistividad eléctrica es la prueba usada más comúnmente y como es una prueba no destructiva se puede hacer in situ sin afectar las armaduras o elementos o estructuras de concreto esto nos da una idea de la porosidad del elemento y con esto se define la tortuosidad de las muestras. Si la resistividad eléctrica es alta entonces se dice que la porosidad es baja, por lo tanto, es difícil que los iones de cloruro ingresen en la muestra y además de obtuvo que la resistencia mecánica también es alta.
También se tomó en cuenta la norma europea EN 206-1:2000 que esta nos dice que tan probable es que ocurra la corrosión dependiendo del ambiente al que se este expuesto por ejemplo en un clima seco se tendría un riesgo mínimo de corrosión o de ataque, también se puede presentar corrosión inducida por carbonatación con base en la humedad ambiente que se encuentra en el ambiente y por último nos menciona la corrosión inducida por cloruros de mar que esta está dada según su exposición a cloruros
Por último, se calculó la vida de servicio de una estructura de concreto armado por efecto de la carbonatación teniendo en consideración el espesor del recubrimiento del concreto, el CO2 del aire y la profundidad de carbonatación según el tiempo que lleva de servicio en años con estas consideraciones y con aplicando la siguiente formula se puede obtener un aproximado de la vida de servicio del elemento de concreto armado
CoVxc=a*((xc/t)2*1011)b
donde:
CoV: coeficiente de variacion (%)
a: parametro de regresion = 68.9
b: parametro de regresion (de signo) =-0.22
Xc: profundidad de carbonatacion medida de ensayos acelerados (m)
t: constante de tiempo ((skgCO2/m3)0.5)
CONCLUSIONES
Durante la estancia obtuve conocimientos generales acera de la corrosión en los elementos de construcción en concreto armado y como todas las variables que afectan para que se desencadene la corrosión, además, de como una vez que esta ocurre su vida de servicio termina y se debe de recurrir a alguna restauración o si esta se encuentra muy afectada se deberá proceder con la demolición del elemento de construcción. Así mismo que es importante considerar las normativas existentes para hacer las pruebas correspondientes y con esto tener un estimado de vida de servicio de los elementos de construcción o si necesario aplicar algún recubrimiento o película para que se alargue su vida de servicio.
Por ultimo, no me queda mas que agradecer a la facultad de Ingenieria Civil, UMSNH, mas especificamente al laboratorio de materiales asi como a mi asesor Dr Hugo Luis Chavez Garcia
Duarte Sánchez Diego Alexander, Corporación Politécnico de la Costa Atlántica
Asesor:Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PROPUESTA DE MEJORA DE UN NEGOCIO PARA REDUCIR LA CARGA LABORAL, UTILIZANDO LA SIMULACIóN.
PROPUESTA DE MEJORA DE UN NEGOCIO PARA REDUCIR LA CARGA LABORAL, UTILIZANDO LA SIMULACIóN.
Duarte Sánchez Diego Alexander, Corporación Politécnico de la Costa Atlántica. Asesor: Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
Hoy por hoy, todos los negocios, ya sean grandes o pequeños se ven obligados a mejorar continuamente y esto se debe a la alta exigencia del mercado, lo que genera múltiples desafíos que deben ser superados para poder alcanzar la satisfacción del cliente.
Si bien es cierto, para que un negocio crezca, este debe de cumplir con la aceptación del cliente y para que esto se dé, se necesita de múltiples factores, entre los cuales encontramos la calidad del servicio que se brinda, es por ello que es de gran importancia conocer si el negocio presenta fallas o no en dicho factor y como poder mejorarlas.
Teniendo como idea lo anterior mencionado, para que se dé un buen servicio es necesario que el que lo brinda se sienta cómodo, es decir, que no tenga sobrecargas laborales, partiendo de ahí, cualquier carga laboral excesiva va a perjudicar la calidad del servicio y por consecuente va a disminuir la satisfacción del cliente.
Con base a esto, en la miscelánea VARIEDADES J.J JUNIOR para los días sábados, específicamente a las horas de la tarde, desde las 5:00 pm hasta cierre, se presenta mucha ocupación por parte del trabajador, debido a la alta demanda de los productos, generando para este una gran carga laboral, por lo que es de gran importancia el encontrar una solución.
METODOLOGÍA
En primer lugar, se utilizó como herramienta de trabajo el software Pro Model, en donde se pudo plasmar el proceso que conlleva el comprar un producto en la miscelánea VARIEDADES J.J JUNIOR, partiendo de allí, luego se procedió a realizar la respectiva toma de los datos, estos se dieron durante dos sábados consecutivos entre las horas de la tarde, desde las 5:00 pm hasta la hora de cierre del negocio en cuestión, estos se registraron en Excel , para luego pasarlos al software ProModel y de esta manera el poder correr la simulación y ver que fallas se presentaban en el proceso de la venta de los productos.
Una vez que se encontró las fallas que generaban la alta ocupación del trabajador, se procedió a realizar cambios en los parámetros, para ver si se alivianaba la carga laboral, encontrando así una propuesta de mejora para la problemática, que luego se convertirá en un aumento de la calidad del servicio presentado por el trabajador.
CONCLUSIONES
En el transcurso de la estancia de verano se logró obtener conocimientos sobre la simulación y como esta nos ayuda de manera directa a la toma de decisiones mediante la representación de la realidad de los procesos, para la mejora de los mismos, ya sea a pequeña o gran escala; a su vez en este tiempo se colocó en práctica todo lo aprendido, utilizando como herramienta de trabajo el software de ProModel para generar las simulaciones.
Dueñes Vallejo Alfonso, Instituto Tecnológico de Matamoros
Asesor:Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan
RESOLUCIóN A TRAVéS DEL SET COVERING PROBLEM (SCP) EN UN CASO HIPOTéTICO,
PARA LA UBICACIóN DE ESTACIONES DE BOMBEROS, EN LA CIUDAD DE VALLE
HERMOSO, TAMPS.
RESOLUCIóN A TRAVéS DEL SET COVERING PROBLEM (SCP) EN UN CASO HIPOTéTICO,
PARA LA UBICACIóN DE ESTACIONES DE BOMBEROS, EN LA CIUDAD DE VALLE
HERMOSO, TAMPS.
Dueñes Vallejo Alfonso, Instituto Tecnológico de Matamoros. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Valle Hermoso es una ciudad pequeña ubicada al norte de Tamaulipas, esta consiste en 57 localidades (incluyendo las que están en las afueras de la ciudad) y cuenta con un aproximado de 70,000 habitantes, las cuales necesitan de un servicio de emergencia que pueda dar atención en el menor tiempo posible en caso de accidentes y siniestros, ya que esto es primordial y fundamental ante situaciones donde se involucra la integridad física y patrimonial de la población. Para esta situación se utilizará un caso hipotético utilizando el SCP el cual es un problema que consiste en encontrar el número mínimo de variables que puedan satisfacer un conjunto de necesidades al menor costo. Existen variadas aplicaciones para este tipo de problema, siendo las principales la localización de servicios, balanceo de líneas de producción, selección de ciertas características, entre otras. El presente trabajo buscará la mejor decisión en la ubicación de estaciones de bomberos dentro de la ciudad de Valle Hermoso, Tamaulipas; esto con el fin satisfacer las necesidades de la población, buscando brindar una respuesta más rápida ante un accidente y/o siniestro dentro de los distintos sectores de la ciudad.
METODOLOGÍA
Para llevar a cabo la resolución de este problema comenzamos indagando sobre lo que es el Set Covering Problem, esto con el fin de tener un conocimiento sobre qué es y cómo podríamos resolverlo, lo cual se realizó a través de la revisión de bibliografía e investigaciones realizadas sobre el tema, así como ejemplos de aplicación y de solución, posteriormente se buscó identificar algún problema de nuestra región en donde se pudiera aplicar el SPC, al tener una propuesta identificada se analizó para ver si las posibilidades de aplicar el SCP eran reales, lo cual nos representó una serie de variables y restricciones fuera de nuestro control, lo que nos llevó a plantear el caso hipotético que aquí se desarrolla. Una vez teniendo lo anterior, buscamos recabar datos que nos ayudaran a formular el modelo del problema, empezando por dividir la ciudad en diferentes zonas, donde se muestran las diferentes opciones o alternativas para asignar las estaciones de bomberos. La división de la ciudad se realizó en 13 diferentes sectores, los cuales representan una extensión territorial similar entre todos estos, por lo que se procedió a realizar el gráfico el cual se muestra las 13 áreas (opciones) en las cuales se dividió la ciudad y en donde se puede instalar una estación de bomberos. Una vez distribuidas las zonas procedimos a plantear el modelo matemático de programación entera con variables binarias, el cual nos brindó un total de 13 variables y a su vez nos dio 13 diferentes restricciones (las cuales nos muestran la cobertura que se tiene al seleccionar un área determinada, la cual está restringida únicamente a las áreas contiguas del área analizada, y también está restringida a un radio aproximado máximo de 4 km de distancia), el cual fue revisado varias veces para ser su pertinencia con el problema planteado, con la ayuda del software (solver de Excel) se le dio solución al modelo planteado, y se procedió a la interpretación y al análisis de los resultados obtenidos. El cual nos da un resultado de ubicar 3 estaciones de bomberos para dar cobertura a toda la ciudad con un radio de atención de aproximadamente 4 kilómetros de extensión.
CONCLUSIONES
Dentro de la estancia de verano de este programa hemos adquirido diversos conocimientos teóricos acerca del problema de cobertura de conjuntos, así mismo hemos conocido diferentes técnicas que nos ayudan a poner en práctica la resolución problemas de Set Covering. Al momento de concluir este problema hemos obtenido un resultado satisfactorio a la hora de mantener una cobertura completa de los espacios que atenderán las estaciones de bomberos, ya que contamos con una cobertura de cada estación de bomberos a 4 km a la redonda con un tiempo de respuesta de entre 5-7 minutos aproximadamente en caso de alguna emergencia. Sin embargo, la solución plantea interrogantes como los siguientes; se ubicó el mínimo de áreas para asignar una estación de bomberos, ahora dentro de esa área ¿cuál será el mejor lugar para instalar la estación de bomberos? este trabajo muestra un resultado para el caso hipotético, pero faltando llevar la propuesta de solución a la fase de prueba y posteriormente a la implementación.
Duque Adame Luis Angel, Instituto Tecnológico de Chilpancingo
Asesor:M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla
INFORMáTICA FORENSE.
INFORMáTICA FORENSE.
Duque Adame Luis Angel, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Debido a que en la actualidad es de gran utilidad el utilizar un sistema que nos ayude a gestionar la información que manejamos, ya sea en pequeños negocios o hasta grandes organizaciones, debido a que estos sistemas incrementan los niveles de productividad y eficacia en dichas organizaciones. Por otra parte, al contener bastante información son el foco de atención de personas malintencionadas que suelen infiltrarse a los sistemas extrayendo información ajena, así como inyectando scripts que se encarguen del robo de esta información o la inhabilitación del dispositivo sufriendo grandes pérdidas de datos de parte de los propietarios. Recordando que hoy en día los ataques a las redes de datos causan grandes daños y lo que se busca es evitarlos o contrarrestarlos en el menor tiempo posible. La informática forense es una de las ramas de la ciberseguridad que se encarga de analizar y verificar dispositivos en la red a través de un conjunto de técnicas que analizan qué ha ocurrido, cómo se ha llevado a cabo y quién ha sido, es decir, recaban pruebas a través de sus múltiples herramientas que nos guían al origen y las causas del problema.
METODOLOGÍA
Se pretende hacer un uso y comparativa de dos herramientas de cómputo forense para determinar las causas de ataques a servidores simulados. Mediante VirtualBox se creó una máquina virtual con un sistema operativo CentOS 8, en la cual se instalaron dos herramientas forenses con el objetivo de analizar el volcado de una memoria RAM que se sospechaba que estaba infectada con malware.
La primera herramienta forense utilizada tiene por nombre Volatility en su versión 2.6, esta herramienta nos permite recuperar archivos borrados, asi como visualizar los procesos que se encontraban en ejecución al momento de la infección, haciendo uso de un volcado de una memoria RAM obtenida de un repositorio en Git Hub dedicado a brindar variedad de estos volcados de memorias RAM para experimentar en el uso de estas herramientas forenses. Lo que principalmente se realizó con Volatility fue visualizar a detalle los procesos y las comunicaciones que estos sostenían al momento de haber sufrido la infección o ataque. Se analizaron en concreto 2 procesos que personalmente categorice como los más sospechosos, ya que uno pertenecía al navegador Explorer y otro al lector de archivos pdf, Adobe Acrobat Reader y debido a que comúnmente estas infecciones suceden al dirigirnos a páginas web no seguras o descargar archivos con malware se optó por analizarlos. Mediante un plugin del mismo Volatility realice un duplicado del proceso seleccionado y colocado en un directorio separado de los demás, esto se realizó para ambos procesos mencionados y después se llevó a cabo el uso de la segunda herramienta.
La siguiente herramienta se llama Foremost, la cual tiene la función de analizar un archivo binario en este caso fueron los creados con Volatility, en donde ahora podremos extraer los archivos que deseemos para su próximo análisis, Foremost permite extraer o recuperar archivos mediante la comparación de los encabezados de los archivos con lo que le indiquemos mediante el comando de ejecución, Foremost permite recuperar archivos de tipo jpg, gif, png, bmp, avi, exe, mpg, wav, riff, wmv, mov, pdf, ole, doc, zip, rar, htm y cpp. Se obtuvieron resultados de búsqueda de archivos con terminación jpg, png, gf, bmo y exe, de los cuales fueron todos analizados con un servicio web llamado Jotti´s Malware Scan, el cual como su nombre lo dice nos permite cargar archivos sospechosos y él se encarga de analizarlos con más de 10 herramientas de análisis de malware, proporcionándonos resultados de si esos archivos contienen o no algún script malicioso o cualquier otro tipo de malware. El resultado esperado es ver cual de las dos herramientas es más útil o si ambas se complementan en brindar una protección a nuestro servidor después de las pruebas y su análisis.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las herramientas forenses que se utilizan en la rama de la ciberseguridad llamada informática forense, sin embargo, al ser una área muy extensa no se pudo probar una mayor cantidad de estas herramientas, sin embargo las 2 seleccionadas resultaron bastante interesantes y útiles, funcionando a la perfección, pero sin un resultado de malware hasta el momento debido a que son una gran cantidad de archivos por analizar de cada uno de los procesos sospechosos. Continuamos en búsqueda de información para proteger nuestro servidor de posibles ataques y recomendar el uso de las mejores políticas de seguridad.
Duran Carmona Ignacio, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
SEGURIDAD Y LOCALIZACIóN DE LOS USUARIOS PERDIDOS CON ANDROID
SEGURIDAD Y LOCALIZACIóN DE LOS USUARIOS PERDIDOS CON ANDROID
Duran Carmona Ignacio, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del problema
Actualmente en casi cualquier sociedad ya no es un lujo sino una necesidad el estar protegidos en todo instante, es necesario tener un factor, aunque sea mínimo de saber que se llegara al final del día sano y salvo en caso de tener un percance en algunas ocasiones se desconoce del paradero de las personas ya se por cualquier motivo como olvido o por ejemplo si se tuviera un accidente automovilístico, por la contusión o salir a salvo se nos olvida avisar de inmediato a cualquier persona.
Así mismo se deben considerar todos los estudios en el sector y mercado para analizar que no ofrecen las demás aplicaciones y así dar al público una aplicación que sea completa y que sirva para justificar lo que presentamos en esta investigación.
METODOLOGÍA
4.1 Generalidades del paradigma positivista
El paradigma positivista fue creado para estudiar los fenómenos en el campo de las ciencias naturales, se basa en el método científico. La sucesión de pasos que debemos dar para descubrir nuevos conocimientos o, en otras palabras, para comprobar o desaprobar hipótesis que implican o predican conductas de fenómenos desconocidos hasta el momento.
4.2 Características del enfoque cuantitativo
Estas se enfocan en obtener información de clientes existentes y potenciales que pueda analizarse utilizando métodos estadísticos. Los resultados producidos mediante la investigación suelen ser numéricos y con estos comúnmente se hace un análisis cuidadoso para predecir el futuro de un producto o servicio y para realizar los cambios necesarios para mejorar estas consecuencias.
4.3 El método hipotético deductivo
El método hipotético-deductivo es uno de los modelos para describir al método científico, basado en un ciclo inducción-deducción-inducción para establecer hipótesis y comprobar o refutarlas.
4.4 La investigation documental
La investigación documental o bibliográfica es aquella que procura obtener, seleccionar, compilar, organizar, interpretar y analizar información sobre un objeto de estudio a partir de fuentes documentales, tales como libros, documentos de archivo, hemerografía, registros audiovisuales, entre otros.
CONCLUSIONES
En conclusión, los objetivos de una investigación son las tareas básicas que se cumplen en la creación de todo tipo de conocimiento científico. Un objetivo de investigación es el fin o meta que se pretende alcanzar en un proyecto, estudio o trabajo de investigación. También indica el propósito por el que se realiza una investigación.
Podemos concluir que el desarrollo de esta aplicación nos fue muy benéfica con respecto a lo académico ya que, nosotros pusimos en práctica muchos de los conocimientos recolectados a lo largo que llevamos estudiando en el Instituto Tecnológico Superior de Ciudad Hidalgo, utilizando los conocimientos de programación de aplicaciones móviles muy importante en nuestra especialidad, la cual es Ingeniería de Software, al igual de apoyarnos en el desarrollo de esta documentación, crucial para llevar un registro y un antecedente de lo que fue nuestro trabajo, ya que si ello seria muy dificil poder implementar este proyecto a un nivel optimo
Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia
Asesor:Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
Durán Gil Aurora Carolina, Instituto Tecnológico de Morelia. Asesor: Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El agua es un recurso natural que es esencial para el hombre, las fuentes de agua en embalse, además la posibilidad de desarrollo de una gran cantidad de actividades para la comunidad, desde actividades primarias, de recreación o bien de servicios. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso, pero hacerlo de forma tradicional implica tomar muestras, enviar a un laboratorio y realizar un análisis, lo cual significa tiempo excesivo, desperdicio de mano de obra y no económico. La propuesta del presente es realiza un dispositivo que pueda realizar una medición de la calidad del agua en tiempo real que permita tener una base de datos actualizada con la información necesaria de cuál es el comportamiento de los datos, además de que esta sea autosuficiente energéticamente.
El objetivo es el uso del IoT como herramienta para la comunicación de datos en tiempo real, usando la tecnología LoRA y LoRaWAN. A demás de que las mediciones se harían con el uso de sensores que permitan identificar los parámetros de calidad más representativos, los cuales interactuarían entre si en cada momento como medición-análisis-comunicación, esto necesitará una alimentación suministrada por un conjunto de celdas conectadas según la necesidad de alimentación del sistema, El desarrollo del dispositivo pretende desarrollar una plataforma que ponga las bases en cuanto a que estrategias o tecnologías se pueden usar en mejorar o regular la calidad del agua del embalse.
METODOLOGÍA
Debido a la naturaleza de los alrededores, podemos encontrar un medio urbano donde se desarrollan una diversidad de actividades humanas. Por parte de la infraestructura habitacional, según el Inventario Nacional de Viviendas encontramos que el 64% de las viviendas son particulares y habitadas, mientras que el resto son no habitadas o habitadas de manera intermitente gracias a las actividades turísticas del municipio. El sistema de drenaje presenta deficiencias tanto en cobertura como en tratamiento subsiguiente, representando un inconveniente sustancial en lo que respecta a la aparición de focos de infección por sobre-saturación, calidad del agua en mantos freáticos y calidad del agua en el embalse.
Se han identificado por parte de la Comisión Nacional del Agua 300 descargas de aguas residuales y 60 puntos de descarga de aguas insalubres, a lo que el día de hoy no existe medida que las erradique para mejorar la calidad de vida de los habitantes. La regulación bajo la que se abrigan las descargas de aguas corresponde a las siguientes normas:
NOM-001-SEMARNAT-1996, la cual establece los límites máximos permisibles de contaminantes en las descargas de aguas residuales en aguas y bienes nacionales
NOM-002-SEMARNAT-1996, que establece los límites máximos permisibles de contaminantes en las descargas de aguas residuales a los sistemas de alcantarillado urbano o municipal.
NOM-003-SEMARNAT-1997, que establece los límites máximos permisibles de contaminantes para las aguas residuales tratadas que se reúsen en servicios al público.
Aún con la normativa vigente, no existe una medición de parámetros que permita conocer el impacto de las descargas en las diversas áreas del embalse para la identificación de las zonas de atención prioritaria y la aplicación de acciones correctivas.
Conforme a la geografía del embalse se plantea el uso de 5 puntos de medición para la colocación de los dispositivos creados, 4 de los cuales se orientaran a mediciones más cercanas a las costas en las posiciones noreste, noroeste, suroeste y sureste del embalse, y el punto restante orientado a una medición central del embalse.
Todas las ubicaciones planteadas se encuentran a una distancia menor o aproximada a 1km con miras a una accesibilidad más conveniente. Las características físicas de cada dispositivo se diseñarán y seleccionarán priorizando la flotabilidad y la seguridad de los componentes.
CONCLUSIONES
A partir del trabajo realizado en esta estancia de investigación se dejaron establecidas de manera más sólida las bases para la realización y posterior implementación de las boyas de monitoreo en el embalse.
Los resultados de esta etapa temprana de investigación permitieron obtener el conocimiento necesario para continuar con el desarrollo del proyecto a profundidad, siendo las etapas futuras la generación de los modelos eléctrónicos y de constitución física para su posterior construcción. Al ser un proyecto prolongado, aún queda bastante camino por recorrer, sin embargo, hasta ahora los avances son ampliamente satisfactorios para continuar con su implementación.
Durán Osorio Melissa Andrea, Universidad de Pamplona
ADICIÓN MEDIANTE FIBRAS DE FIQUE AL CONCRETO HIDRÁULICO PARA EVALUAR LA RESISTENCIA A LA TRACCIÓN EN PAVIMENTOS
ADICIÓN MEDIANTE FIBRAS DE FIQUE AL CONCRETO HIDRÁULICO PARA EVALUAR LA RESISTENCIA A LA TRACCIÓN EN PAVIMENTOS
Durán Osorio Melissa Andrea, Universidad de Pamplona. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington
PLANTEAMIENTO DEL PROBLEMA
Independientemente del uso que se le quiera dar al concreto, éste debe ser elaborado con ciertos requisitos mínimos para que sea económico, de fácil aplicación, resistente y por supuesto durable. Se ha generado un gran impacto ambiental debido a la nefasta explotación de materiales como lo son grava y arena sobre los ríos de la región, es necesario buscar nuevas alternativas de fibras naturales con la finalidad de modificar el concreto hidráulico en su uso en los pavimentos.
Teniendo en cuenta esto y según la Federación Nacional de Cultivadores de Fique, Fedefique'' con 30.000 toneladas anuales, Colombia se coloca como el mayor productor de mundial de fibras de fique.
La mayor problemática que se presentan es determinar qué cantidad se debe aplicar, longitud, diámetro, comprobando resistencias, buscando la más óptima y apropiada para la variación del concreto hidráulico para pavimentos. Este análisis se llevará a cabo por medio de diferentes referencias bibliográficas, analizando resultados y el comportamiento del pavimento mediante esta modificación de la fibra natural, y es por ello que surge la pregunta:
¿De qué manera influye la adición de fibras de fique en el concreto hidráulico al ser fallado a la tracción, y que viabilidad tiene para ser implementado en pavimentos?
METODOLOGÍA
Se realizó una revisión exhaustiva de la bibliografía existente, tanto monografías como artículos y revistas con respecto a adiciones de fique al concreto para mejorar resistencias a tracción, puesto que esta es la resistencia que se evalúa para los pavimentos.
Se evaluaron documentos de Chiclayo, Lima-Perú, Ambato- Ecuador y Bucaramanga, Bogotá y Medellín de Colombia
CONCLUSIONES
De acuerdo a la bibliografía existente y estudiada se observa que las fibras a la compresión no son representativas en la mejora de la resistencia debido a que estos arrojan valores bajos comparándolo con el concreto convencional, es por esto que se descarta el posible manejo de un concreto modificado con fibra de fique para resistencias a la compresión, evidenciando una disminución porcentual al momento de ser fallado frente a resultados de los fallos de los especímenes de un concreto convencional (sin adición de fibra de fique).
Según ensayos a la tracción las longitudes de 4 cm aportan mayor resistencia al concreto, es por ello por lo que brinda una mejor resistencia a la tracción y que esta aumenta también con un porcentaje mayor, 1% al 1,5%, siendo los volúmenes máximos permitidos para la mezcla.
También se puede apreciar que el concreto reforzado con fibra de cabuya dispersa presenta un incremento en la resistencia del 6,0%, mientras que el concreto reforzado con fibra longitudinal una disminución del 20,1%, en relación con el concreto sin fibra.
Es decir, los ensayos a tracción ejecutados para los 14, 28 y 60 días, muestran que el concreto con fibra dispersa siempre presenta la mayor resistencia.
Además, la adición de fibra de fique al concreto hidráulico es una verdadera alternativa en la elaboración de concretos buscando economía y durabilidad de la estructura del pavimento, también beneficiando a todos aquellos usuarios, así como los organismos gubernamentales y privados encargados de los mantenimientos de estas, pues se conservará la capacidad de rodadura en óptimas condiciones, así como el grado de transitabilidad en los pavimentos rígidos.
Durango Gomez Valentina, Universidad Autónoma de Manizales
Asesor:M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán
RELACIóN ENTRE LAS MEDICIONES DE LAS VARIABLES VITALES Y LA MORTALIDAD EN UNA UCI PEDIáTRICA
RELACIóN ENTRE LAS MEDICIONES DE LAS VARIABLES VITALES Y LA MORTALIDAD EN UNA UCI PEDIáTRICA
Durango Gomez Valentina, Universidad Autónoma de Manizales. Asesor: M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
Los signos vitales son el principal indicador del estado de un paciente, los cambios en estos pueden alertar y prevenir eventos adversos que pueden llevar a problemas en la salud e incluso a la muerte. Los signos vitales comúnmente monitoreados son la frecuencia cardíaca (número de respiraciones por minuto), frecuencia respiratoria (número de respiraciones por minuto), saturación de oxígeno (cantidad de hemoglobina en sangre), presión sanguínea sistólica y diastólica y temperatura corporal. Actualmente, en los establecimientos de salud, se utilizan los sistemas de alerta temprana para dar una correcta asistencia a los pacientes, mediante estos se priorizan los pacientes con mayor riesgo según los signos vitales que presenten alteraciones y el grado de estas, este tipo de sistemas permite tratar un deterioro de salud de manera correcta y oportuna evitando muchas veces la muerte de los pacientes.
Un estudio realizado en Estados Unidos encontró que los pacientes con alteraciones en 3 de sus signos vitales tienen un 20% mayor de probabilidad de morir por un paro cardiorrespiratorio que aquellos que no tienen alteraciones en estos.
El propósito de este trabajo es determinar, mediante el análisis de la base de datos critically ill pediatric patients in PICU, si existe una relación directa entre la mortalidad de los pacientes y sus signos vitales registrados, además encontrar otras conexiones como la influencia que tiene el género sobre la mortalidad de estos, las variables que más pueden determinar un evento adverso, la influencia de la edad, entre otros.
METODOLOGÍA
Para este trabajo se realizó una búsqueda de DATASETS sobre variables vitales en pacientes pediátricos en diferentes bases de datos, al final se eligió critically ill pediatric patients in PICU, la cual, cuenta con un total de 90 pacientes y 94678 muestras de variables como edad, Peso, Talla, Género, Diagnóstico, Resultado, Hora del evento, Frecuencia cardíaca, Saturación de oxígeno, Frecuencia respiratoria, Presión sistólica, Presión diastólica y Promedio presión sanguínea. Estos datos fueron comparados mediante los software Excel y Weka, con el fin de encontrar relación entre los cambios de las variables vitales y la morbilidad.
CONCLUSIONES
La relación entre las variables vitales y la supervivencia puede informar de forma oportuna sobre una emergencia o sobre los principales datos que se deben estudiar para evitar la muerte de los pacientes.De esta manera, el análisis de datos en el estudio de la salud sirve entre otras cosas para detectar de manera oportuna los riesgos de un paciente, anticipándose a eventos que pueden llevar a un deterioro en el estado del paciente e incluso a la muerte. Se espera encontrar una relación entre el sexo de los pacientes y su mortalidad, así como una priorización de estos según los signos alterados y el estado de estos.
Durantes Castro Lizbeth, Universidad de Ciencias y Artes de Chiapas
Asesor:Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
Alvarado Ibarra Juan Felix, Universidad de Ciencias y Artes de Chiapas. Diego Avilés Anayeli, Instituto Tecnológico Superior de Uruapan. Durantes Castro Lizbeth, Universidad de Ciencias y Artes de Chiapas. Ramos Moreno Adrian Alonso, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
La problemática de las vías de comunicación pueden ser muy diferentes, pueden ser causado por el crecimiento poblacional, trafico excesivo, tiempo en transportarse, zonas marginadas, mala estructura, entre otros. Esto lleva a que los caminos, carreteras o autopistas se tengan que ampliar, modernizar o reconstruir para tener un logro exitoso en el transito vial.
A lo cual el proyecto busca tener opciones y resultados que obtengan un beneficio sobre la población. Su importancia es mantener las vías de tránsito en buena calidad para que la comunicación de transportes sea excelente y satisfactoria.
METODOLOGÍA
Para poder realizar la construcción de una carretera o camino, es necesario considerar el proyecto geométrico para el cual es indispensable conocer algunos elementos que lo conforman.
Terminología
Es necesario conocer algunos términos para poder familiarizarse con el proceso del proyecto geométrico de una carretera, primero es importante estudiar el listado que se presenta a continuación:
Abundamiento: Es el volumen aumentado en el material considerado.
Acotamiento: Se le conoce así al espacio que normalmente se deja a los extremos de las carreteras con el fin de dejar un margen a los señalamientos que se puedan colocar para la misma.
Acarreo libre: Es el acarreo que no se cobra, considerado de varios lugares como 20 m.
Alineamiento horizontal
Alineamiento Vertical
Bombeo
Calzada: Dentro del diseño de caminos se le conoce como calzada a la parte por donde circularan los vehículos.
C.G.E. = Centro de gravedad de extracción, termino aplicable en la curva masa
C.G.T. = Centro de gravedad de Tiro, aplicable en la curva masa.
Corona
Corte
Derecho de vía
Distancia de visibilidad de parada (Dp)
Distancia de visibilidad de rebase
Faja separadora
Hombro
Horizonte del proyecto
Longitud crítica
Pendiente gobernadora
Pendiente máxima
Pendiente mínima
Sobre acarreo (S/A)
Talud
Tangente horizontal
Tangente vertical
Terraplén
Transición mixta
Transito diario promedio anual (TDPA)
Velocidad de proyecto
Alineamiento horizontal
Alineamiento vertical
Secciones de construcción y cálculo de la curva masa
Uso de software (Civil CAD)
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proyecto geométrico de una carretera dejando en claro que para poder realizar la construcción de una carretera es importante realizar la elaboración de un proyecto geométrico sin mencionar el tiempo requerido para la obtención de los datos en campo.
Enriquez Moran Beyra Guadalupe, Universidad de Guadalajara
Asesor:Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional
AUDITORíA APLICADA A LOS SISTEMAS DE GESTIóN DE CALIDAD
AUDITORíA APLICADA A LOS SISTEMAS DE GESTIóN DE CALIDAD
Enriquez Moran Beyra Guadalupe, Universidad de Guadalajara. Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional
PLANTEAMIENTO DEL PROBLEMA
Hoy en día la calidad y la auditoria no es una obligación, pero vemos que poco a poco el medio en su exigencia de mejorar, está solicitando que estos modelos se implementen en las organizaciones. Lo anterior como una forma de ser más competitivo y poder lograr la permanencia en el mercado.
La auditoría inicio enfocada al área contable y poco a poco se fue expandiendo a otras áreas. Es así, como encontramos gran información desde el área contable y poca enfocada a la calidad, es así como encontramos diferentes definiciones de auditoria, tipos de auditoria, ventajas, conceptos, etc, sin embargo, encontrar toda esta información consolidada en un documento, no es fácil.
Por otra parte, el conocimiento que deben tener las personas sobre estas temáticas es de vital importancia para lograr la sensibilización de las personas que hacen parte de las organizaciones.
Es así como surge la inquietud de conocer:
¿Cuáles son las definiciones de auditoria que deben hacer parte de este documento?
¿Cuáles son las ventajas de la auditoria?
¿Cuáles son los conceptos sobre auditoria que deben hacer parte de este documento?
METODOLOGÍA
El tipo de la investigación es documental con enfoque cualitativo, ya que se consultaron una serie de fuentes bibliográficas para la recopilación de datos. Los pasos y acciones que se realizaron son las siguientes: Principalmente se asignó la línea de investigación, se definió el tiempo necesario para la búsqueda de información con un mínimo 5 fuentes para llevar a cabo la recopilación y así continuar con la organización de la información para la presentación de los resultados.
CONCLUSIONES
Durante la estancia de investigación se logró obtener los resultados esperados y se concluye que, la auditoria es una herramienta que evalúa si dicha actividad que se realiza se ajusta a los procedimientos y disposiciones previamente establecidas. Dicha herramienta le permite a la organización controlar y supervisar, esto contribuye a lograr una cultura de mejora en tanto que se detectan las fallas o peligros existentes. Los tipos de auditoria presentados son evaluaciones multidisciplinarias por lo que se requiere de profesionales de diversas áreas para la realización con el fin de determinar el nivel de cumplimiento, las auditorias más recomendadas son las internas, ya que estas evalúan la organización con fines propios, están en constante mejora y en caso de que haya una auditoría externa se encuentran preparados.
La norma ISO 9000:2015 brinda información referente a los principios de la gestión de calidad en que hace referencia a siete: Enfoque al cliente, liderazgo, compromiso de las personas, enfoque a procesos, mejora, toma de decisiones basadas en evidencia y gestión de las relaciones, los cuales son destinados para que las organizaciones mejoren sus actividades. Existen diferentes maneras de aplicar estos principios de gestión de calidad como lo es el giro de la organización y los desafíos que enfrentan, esto determinará cómo ponerlos en práctica. Los términos asociados a una auditoria fueron abordados para la comprensión de los conceptos básicos referentes al tema.
Enriquez Silvain Camilo Abimael, Instituto Tecnológico Superior de Cananea
Asesor:Dr. Dainet Berman Mendoza, Universidad de Sonora
SíNTESIS DE NANOPARTíCULAS DE SILICIO PARA RECUBRIMIENTOS DE CELDAS SOLARES
SíNTESIS DE NANOPARTíCULAS DE SILICIO PARA RECUBRIMIENTOS DE CELDAS SOLARES
Enriquez Silvain Camilo Abimael, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La optimización de la eficiencia de celdas solares para la producción de energía eléctrica está en constante investigación y desarrollo. La nanotecnología, desde su rama de la nanoelectrónica ha logrado proveer varias soluciones. Los métodos pueden ser, pero no están limitados a:
Nanotexturización de la superficie
Recubrimientos antirreflectantes
Esquemas de pasivación superficial
Entre otros...
El rango de absorción de las celdas fotovoltaicas actuales es relativamente pequeño en comparación con el rango que abarca el espectro de luz solar. Este es un factor que depende del material fotovoltaico, que al mismo tiempo, posee una pérdida en su eficiencia de absorción, como puede ser el caso de la termalización que es la creación de un par electrón-hueco cuya energía es mayor que el ancho de banda prohibida (Eg) del material.
Para tratar la termalización en celdas fotovoltaicas, el silicio provee una solución en forma de nanopartículas. Posee un alto ancho de banda prohibida, Eg = 1.12 eV. Por lo que un recubrimiento con Si-NPs podría ser una solución ideal. En la estancia de verano bajo la asesoría del Dr. Dainet Berman, vimos varias aplicaciones de las nanopartículas y sus ventajas. Uno de los temas que se trató fue la Síntesis de Nanopartículas de Silicio para Recubrimientos de Celdas Solares, trabajo hecho por Hiram Jesús Higuera Valenzuela.
METODOLOGÍA
Se incrustaron nanopartículas de silicio en obleas de ZnO por el método sol-gel, que resulta en un recubrimiento que servirá para incrementar la eficiencia de las celdas solares disminuyendo el efecto de la termalización.
La minimización de la termalización se llevará a cabo por un proceso llamado downshifting, que es la integración de una capa luminiscente de desplazamiento descendente a la celda solar, la cual permitirá convertir los fotones de alta energía que no son utilizados eficientemente por el material fotovoltaico a fotones con energía que pueden ser utilizados y convertidos eficientemente en electricidad.
Sintetización del óxido de zinc:
A temperatura ambiente, se disolvió acetato de zinc dihidratado en solvente de etanol. Posteriormente, para estabilizar la reacción, se mezcló la solución con trietanolamina, seguido por un tratamiento térmico en aire 400°C por 12 minutos usando un horno de mufla.
Incrustación de nanopartículas de silicio en oblea de óxido de zinc:
La solución de ZnO se mezcló con Si-NPs en un baño ultrasónico por un periodo de 5 minutos a 25°C. Se controló el contenido de silicio por concentración de porcentaje volumen/volumen. Las nanopartículas de silicio se incrustaron en la película de ZnO por la técnica sol-gel spin coating a 3000 RPM por 30 s. Esta técnica permitió tener un mayor control del tamaño de las nanopartículas y una mejor distribución de estas. Luego se precalentaron las muestras en aire a 150°C por 10 minutos para evaporar cualquier residuo de disolventes o compuestos orgánicos. Posteriormente, se depositó la película SiNP-ZnO en una oblea de silicio tipo p con una resistividad de 10 - 20 Ω/cm.
A partir de la producción de las películas de SiNP-ZnO, se obtuvieron 4 muestras diferentes con 0%, 3%, 6%, y 9% de SiNP. En cada muestra se utilizaron 25 ml de ZnO, en las que se obtuvieron 0.0, 0.75, 1.5, 2.25 ml de Si-NP respectivamente.
Para medir la distribución de tamaño de las nanopartículas se utilizó la técnica de dispersión dinámica de la luz, el resultado fue un tamaño promedio de 2.14 nm con una desviación estándar de 0.68 nm. Por elipsometría se midió el grosor de las películas de ZnO, que fue de 125 nm. El pico de fotoluminiscencia se ubicó en el valor de 544 nm. Los resultados del espectro de fotoemisión de Si 2p en cada muestra indicaron que cada una duplicó su pico, teniendo como resultados 101.24, 101.93, 102.96 eV, correspondientes a Si2+, Si3+,y Si4+. Se asumió que la presencia de estos estados de oxidación fue debido a una clase de defecto. Por último, se calculó una aproximación del ancho de banda prohibido utilizando la ley de Tauc y los datos de absorción. Graficando (ahv)1/n vs hv y haciendo un ajuste lineal, fue posible obtener Eg, asignando n = 1 ⁄ 2 para el caso del ancho de banda prohibido indirecto, y n = 2 para el caso del ancho de banda prohibido directo. El ancho de banda prohibido incrementó de 3.35 eV a 3.55 eV, efectivamente gracias a la adición de Si-NPs.
CONCLUSIONES
La efectividad de las celdas solares puede aumentar al lidiar con problemas comunes que estas sufren, como es el caso de la termalización. La Si-NPs proveen una solución eficiente. A lo largo de la estancia de verano, con cada caso y proyecto presentado se fue haciendo claro el hecho de que no hay un solo camino para sintetizar nanopartículas. Para la síntesis de Si-Nps bien se pudo haber utilizado otro método o conjunto de estos, sin embargo, la selección del método sol-gel spin coating tuvo un papel específico; el control del tamaño de las nanopartículas y mejor dispersión de estas, que como resultado incrementó la efectividad de la celda solar. Este punto principalmente logró hacer énfasis en que si bien varios métodos pueden llevar a un resultado, no todos pueden proveer la misma calidad o propiedades, generalmente habrán notorias diferencias. Esta estancia de verano generó mayor interés en mí por la nanotecnología, y especialmente en la rama de la nanoelectrónica. Gracias a los proyectos presentados y las pláticas impartidas tanto por nuestro asesor como las de los invitados, logré adquirir varios conocimientos en el área, comprender diversas metodologías para la síntesis de nanopartículas y el papel de estas en diferentes aplicaciones, y la importancia y relevancia de la nanotecnología en el presente y el futuro.
Enzastiga Quesada Joel, Universidad Politécnica de Tecámac
Asesor:M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
ESTUDIO NUMéRICO DE UN ÁRBOL DE LEVAS SOMETIDO A CARGAS DE FATIGA
ESTUDIO NUMéRICO DE UN ÁRBOL DE LEVAS SOMETIDO A CARGAS DE FATIGA
Enzastiga Quesada Joel, Universidad Politécnica de Tecámac. Vazquez Ortiz Jairo de Jesus, Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Estudio Numérico de un Árbol de levas Sometido a Cargas de Fatiga.
METODOLOGÍA
Simulaciones de esfuerzo y temperatura en un árbol de levas.
El esfuerzo es una carga aplicada a una probeta en un ensayo de tracción o compresión dividida por el área transversal de la probeta. Al calcular el esfuerzo de ingeniería se ignora el cambio del área transversal que se produce con aumentos y disminuciones en la carga aplicada. También se denomina esfuerzo convencional.
Por ello la simulación de estos consiste en una serie de paso para poder realizar la misma, los cuales son:
Crear estudio de Simulación.
Defina materiales para cada sólido, vaciado y viga.
Defina las restricciones.
Defina las cargas externas.
Para ensamblajes y piezas multi cuerpo, utilice componente de contacto y grupos de contactos para simular el comportamiento del modelo.
Propiedades de estudio
Nombre de estudio
Árbol de levas
Tipo de análisis
Análisis estático
Tipo de malla
Malla sólida
Efecto térmico:
Activar
Opción térmica
Incluir cargas térmicas
Temperatura a tensión cero
298 Kelvin
Incluir los efectos de la presión de fluidos desde SOLIDWORKS Flow Simulation
Desactivar
Tipo de solver
FFEPlus
Efecto de rigidización por tensión (Inplane):
Desactivar
Muelle blando:
Desactivar
Desahogo inercial:
Desactivar
Opciones de unión rígida incompatibles
Automático
Gran desplazamiento
Desactivar
Calcular fuerzas de cuerpo libre
Activar
Fricción
Desactivar
Utilizar método adaptativo:
Desactivar
Carpeta de resultados
Documento de SOLIDWORKS (c:usersmisael~1appdatalocal emp)
Unidades
Sistema de unidades:
Métrico (MKS)
Longitud/Desplazamiento
mm
Temperatura
Kelvin
Velocidad angular
Rad/seg
Presión/Tensión
N/m^2
Propiedades de material
Referencia de modelo
Propiedades
Componentes
Nombre:
AISI 316L Acero inoxidable
Tipo de modelo:
Isotrópico elástico lineal
Criterio de error predeterminado:
Desconocido
Límite elástico:
1.7e+008 N/m^2
Límite de tracción:
4.85e+008 N/m^2
Módulo elástico:
2e+011 N/m^2
Coeficiente de Poisson:
0.265
Densidad:
8027 kg/m^3
Módulo cortante:
8.2e+010 N/m^2
Coeficiente de dilatación térmica:
1.7e-005 /Kelvin
Sólido 1(Sólido importado2)(Pieza1),
Sólido 2(Sólido importado3)(Pieza1),
Sólido 3(Cortar-Extruir1)(Pieza1),
Sólido 4(Sólido importado1)(Pieza1)
Datos de curva:N/A
Nombre de sujeción
Imagen de sujeción
Detalles de sujeción
Fijo-1
Entidades:
2 cara(s)
Tipo:
Geometría fija
Fuerzas resultantes
Componentes
X
Y
Z
Resultante
Fuerza de reacción(N)
-1459.67
-2528.23
0.0979004
2919.35
Momento de reacción(N.m)
0
0
0
0
Cargas y sujeciones
Nombre de carga
Cargar imagen
Detalles de carga
Torsión-1
Entidades:
17 cara(s)
Referencia:
Cara< 1 >
Tipo:
Aplicar momento torsor
Valor:
150 N.m
Temperatura-1
Entidades:
72 cara(s)
Temperatura:
90 Celsius
Información de contacto
Contacto
Imagen del contacto
Propiedades del contacto
Contacto global
Tipo:
Unión rígida
Componentes:
1 componente(s)
Opciones:
Mallado compatible
Información de malla
Tipo de malla
Malla sólida
Mallador utilizado:
Malla estándar
Transición automática:
Desactivar
Incluir bucles automáticos de malla:
Desactivar
Puntos jacobianos
4 Puntos
Tamaño de elementos
8.23406 mm
Tolerancia
0.411703 mm
Calidad de malla
Elementos cuadráticos de alto orden
Información de malla - Detalles
Número total de nodos
24792
Número total de elementos
14744
Cociente máximo de aspecto
6.2811
% de elementos cuyo cociente de aspecto es < 3
98.9
% de elementos cuyo cociente de aspecto es > 10
0
% de elementos distorsionados (Jacobiana)
0
Tiempo para completar la malla (hh;mm;ss):
00:00:05
Nombre de computadora:
CIM-1
CONCLUSIONES
Tenemos por conclusion que el arbol de levas al ser sometido a las cargas que le producen fatiga es meramenmte resistente ya que el material elegido resiste el esfuerzo y trabajo aplicado. Sin embargo tenemos que caundo es sometido a una cierta temperatura el arbol de levas, se le es incapaz de trabajar adecuadamente para dar los resultados esperados y empiza a tener un desgaste muy rapido en el material por lo que llegamos al analisis que las levas deberian estar mas juntas entre si para que el funcionamiento sea el adecuado y la temperatura no sea un impedimento para realizar su trabajo correspondiente dentro de un motor
Escamilla Serrano Rogelio, Instituto Politécnico Nacional
Asesor:Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PROYECTO UNEP-TEC “ CLEANER AND MORE EFFICIENT VEHICLES IN LATIN AMERICA - FUEL ECONOMY BASELINE FOR HEAVY-DUTY VEHICLES IN MEXICO” Y RED RELIEVE
PROYECTO UNEP-TEC “ CLEANER AND MORE EFFICIENT VEHICLES IN LATIN AMERICA - FUEL ECONOMY BASELINE FOR HEAVY-DUTY VEHICLES IN MEXICO” Y RED RELIEVE
Escamilla Serrano Rogelio, Instituto Politécnico Nacional. Asesor: Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Proyecto UNEP-TEC: El Programa de las Naciones Unidas para el Medio Ambiente (UNEP) está implementando un proyecto de transporte sin emisiones y con bajas emisiones. El proyecto tiene como objetivo promover la transición global hacia la movilidad sin emisiones o con bajas emisiones para mejorar la calidad del aire y mitigar el cambio climático. Los objetivos del proyecto de UNEP particularmente se enfocan en promover combustibles y vehículos más limpios y eficientes.
El Fondo de Asociación Mundial para el Clima (GCPF) establece un acuerdo con la UNEP para desarrollar las líneas de base de economía del combustible para México, Camboya y Vietnam. En base a esto, UNEP se asocia con el Instituto Tecnológico y de Estudios Superiores de Monterrey para apoyar a México, con la extensión a América Latina en combustibles y vehiculos más limpios y eficientes.
El objetivo general de este acuerdo es desarrollar la línea base de economía de combustible de vehículos pesados (camiones y autobuses) para México y apoyar el desarrollo de capacidades de la región.
Se emplea el uso de telemetría en 3 líneas, debido a la falta de datos de consumo de combustible reportados por el fabricante ocasionada por el gran número de posibilidades que existen al armar un vehículo pesado. Esto permitirá identificar el consumo específico de combustible en autos pesados en México en sus distintas configuraciones de carga, modelo, tamaño y tecnologías.
Red-RELIEVE: La Red Latinoamericana de Investigación en Energía y Vehículos, en busca de fortalecer la colaboración entre sus miembros en temas de energía, vehículos y ambiente, crea diversos elementos de difusión como lo son seminarios, conferencias, eventos, talleres, etc. para enriquecer al grupo y también al público en general sobre temas enfocados a la movilidad sostenible.
METODOLOGÍA
Proyecto UNEP: Con el propósito de colaborar en la Actividad 2.b de la metodología general del proyecto que se enfoca en crear la base de datos para determinar el consumo de combustible en vehículos pesados, se llevaron a cabo los siguientes pasos:
1.- La descarga de datos de viajes en vehículos pesados, en la plataforma de GEOTAB, el grupo Venti cuenta 9 pesados y hacen recorridos dentro de la ciudad de Saltillo México.
2.- Una vez identificados los viajes útiles considerando el consumo total de combustible como factor principal, se realiza la descarga del archivo en formato excel. Este se adapta manualmente para que un código en python extraiga los datos útiles de los viajes seleccionados.
3.- Se concatenan los viajes extraidos con otro código python.
4.- Se agrupan en otro excel el concatenado de datos y sobre este obtenemos la altitud en la plataforma gpsvisualizer de los datos de posición que tenemos sobre estos viajes. Este archivo sirve de resumen con la frecuencia que la plataforma de Geotab entrega.
5.- Del mismo grupo de concatenados, corremos otro código de python que extrae los datos con frecuencia de segundo a segundo lo cual, agudiza la precisión de los datos como el consumo de combustible, posición, altura, pendiente, velocidad y aceleración promedio, entre otros.
6.-Una vez formado el archivo con la frecuencia de 1Hz, se utiliza el programa de minitab para realizar la clusterización de micro trips que se generan en los viajes que se tienen.
7.- Ya con el archivo de excel listo, se corre en Matlab para generar el ciclo de conducción del conjunto de viajes y unidades que se están analizando.
Red-RELIEVE: Una herramienta para difusión de las actividades del grupo son posters que contienen la información sobre la conferencia a presentar, para crear este material se utiliza la herramienta de edición Canva, se propuso implementar un código QR que dirige directamente a la sala de zoom donde se realizan las conferencias y fue recibida de buena manera.
Difundir y dar seguimiento a los eventos futuros sobre investigación, estuve en contacto mediante e-mail con los investigadores que hacen parte de la red de investigación para 3 eventos principales que son: 5° Encuentro de Capítulos Técnicos del IEEE Ecuador, Campus City: Reto internacional Bicicletas invierno 2021, 6th North American IEOM Conference, Monterrey.
Edité capsulas de videos con ayuda de iMovie con información sobre Objetivos de desarrollo sostenible y Polución del aire desarrollados por la Dra. María Elena Huertas, esto como contenido para el Diplomado que realiza el Dr. Jose Huertas en Colombia. Se integró un formulario de google forms con el fin de hacer interactivas las cápsulas.
CONCLUSIONES
Proyecto UNEP-TEC: Se ralizó la descarga de un total de 500 viajes en rutas frecuentes dentro de la ciudad de Saltillo, cubriendo un total de 6 unidades, de 3 modelos distintos que son International Durastar 4300, International 4400 e International Prostar+, se entregó un archivo de excel con casi 1 millón de datos para realizar el ciclo de conducción de este conjunto de viajes. En lo personal, aprendí más acerca del uso y propósito de dispositivos de telemetría, familiarizar con códigos utilizados en programadores como Python, Matlab, así como el uso general de nuevas herramientas como Minitab y plataformas como Geotab para extracción de datos de telemetría. Mi participación ayudó a formar una base de datos que permitirá en los siguientes meses obtener el consumo de combustible de varias configuraciones de vehículos pesados, para lograr el objetivo de desarrollar la línea base de consumo de combustible que sigue desarrollando el proyecto.
Red-RELIEVE: Dentro del grupo de Investigación y en específico de la Red-RELIEVE desarrollé posters, cápsulas de videos, formularios, en plataformas de edición que desconocía por completo. Esto me permitió salir de la zona a la que estoy acostumbrado, sin embargo, me siento satisfecho con el trabajo dearrollado porque me permitió familiarizar con programas de edición como Canva, iMovie, Google Forms que no conocía. Asistir a los eventos que la red promueve me permitió conocer más a fondo sobre asuntos de movilidad sostenible que se están desarrollando en México y Latinoamerica. El convivir, aportar ideas, realizar planeación de actividades, dentro de un grupo es lo que más valoro de este proyecto.
Escobar Cabrera Jaqueline, Universidad Veracruzana
Asesor:Mg. Angela Maria Alzate Alvarez, Universidad Católica de Manizales
RIESGO DE CONTAMINACIóN DE LOS ACUíFEROS SANTAGUEDA- KM 41 Y RíO RISARALDA ASOCIADA A LAS ACTIVIDADES PRODUCTIVAS Y LINEAMIENTOS DE GESTIóN EN EL MARCO DE LA GOBERNANZA.
RIESGO DE CONTAMINACIóN DE LOS ACUíFEROS SANTAGUEDA- KM 41 Y RíO RISARALDA ASOCIADA A LAS ACTIVIDADES PRODUCTIVAS Y LINEAMIENTOS DE GESTIóN EN EL MARCO DE LA GOBERNANZA.
Escobar Cabrera Jaqueline, Universidad Veracruzana. Asesor: Mg. Angela Maria Alzate Alvarez, Universidad Católica de Manizales
PLANTEAMIENTO DEL PROBLEMA
La contaminación de las aguas está cada vez más presente en los últimos años, aunque la contaminación de los mares y océanos es mucho más notoria y sonada en la era actual, los recursos subterráneos son de suma importancia, ay que son fuente de agua dulce que son utilizadas en regiones con recursos bajos.
En la zona de Colombia la investigación sobre aguas subterráneas son prácticamente un tema nuevo, ya que la indagación en torno a este tema es reciente. En la región Risaralda y Santagueda se encuentran 2 de los 3 acuíferos más importantes de toda Colombia, estos acuíferos en los últimos años han presentado un incremento en cuanto a su contaminación, ya sea de fuentes directas o indirectas.
La mayor problemática es que el incremento de la contaminación en dichos acuíferos ha sido de tal magnitud que se está buscando en colaboración con un corporativo la ejecución de un plan para la regulación para la contaminación de los recursos hídricos, y con ello marcar lineamientos para el marco de gobernanza les las aguas subterráneas.
METODOLOGÍA
Se plantearon 3 fases determinantes para el proyecto de investigación.
Fase 1. Se identificarán actividades productivas presentes en las áreas colindantes a los acuíferos Río Risaralda y Santagueda - km 41:
Levantamiento de información en campo a partir de la observación y entrevistas semiestructuradas dirigidas a los actores relacionados con las actividades productivas potenciales de contaminación.
Revisión de información secundaria como documentos oficiales de los diferentes municipios donde pertenecen las zonas acuíferas.
Sistematización de la información.
Fase 2. Se determinarán las amenazas y las vulnerabilidades de la contaminación de los acuíferos a partir de metodologías específicas.
Con base en la metodología Pollutant Origin Surcharge Hydraulic POSH, se establece la amenaza de contaminación por el posible efecto de las industrias y los vertederos de residuos sólidos sobre las aguas subterráneas, basado en dos características: el origen del contaminante y su sobrecarga hidráulica, de donde se generan tres niveles cualitativos de potencial de generación de carga contaminante del subsuelo: reducido, moderado y elevado.
El riesgo se categoriza por medio de Sistemas de información Geográfico (SIG), específicamente se utiliza la herramienta ArcGis para obtener mapas de los acuíferos y sus características.
Fase 3. Se hará una construcción cooperativa de los lineamientos de gestión del riesgo de contaminación de los acuíferos por cada actividad productiva.
En esta fase se realizarán las siguientes actividades:
Revisión de casos exitosos internacionales y nacionales alrededor de la gobernanza. Tomando como referencia e influencia los casos de investigación de acuíferos en el país de México, específicamente un acuífero en la región costera de Veracruz; basándose en las normas empleadas y estipuladas para el correcto uso y mantenimiento de los recursos hídricos subterráneos.
Desarrollo de talleres presenciales y en su mayoría virtuales con actores sobresalientes en la gobernanza del agua subterránea.
Elaboración de instrumentos digitales de divulgación de información.
CONCLUSIONES
Durante el presente verano de investigación se logró adquirir conocimientos teóricos acerca de las aguas subterráneas presentes en el territorio colombiano, las áreas de influencia colindantes a ellas. También se logró adquirir información acerca de dependencias e instituciones colombianas que están enfocadas en aplicar lineamientos formulados para la determinación de riesgos de contaminación en los acuíferos y para el marco de gobernanza en torno a los recursos hídricos. Así como la captación de información de las normas mexicanas reguladoras de los recursos hídricos del país de México y la información específica relativa acerca del acuífero de la región costera de Veracruz, adquiriendo conocimientos técnicos requeridos al momento de desarrollar un informe con los datos pertinentes que son relevantes hacia un acuífero.
Escobar López Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
APLICACIóN MóVIL PARA LA ENSEñANZA DE UN PROGRAMA DE RESPONSABILIDAD AMBIENTAL EN INFANTES
APLICACIóN MóVIL PARA LA ENSEñANZA DE UN PROGRAMA DE RESPONSABILIDAD AMBIENTAL EN INFANTES
Escobar López Elizabeth, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
Actualmente, las nuevas generaciones están perdiendo el interés acerca de la cultura ambiental, puesto que no se desarrollan contenidos temáticos para dispositivos móviles que atiendan este problema, lo que deriva en la pérdida del interés por cuidar el medio ambiente.
Un problema adicional lo representa la escasa información contenida en los libros de textos, acerca de las actividades primarias que los seres humanos deben realizar para contribuir a la conservación del medio ambiente, puesto que, si se cuestiona a un infante acerca de las acciones que puede ejecutar, de acuerdo a su edad, para conservar el ambiente, este no las conoce y por consiguiente no puede aplicarlas en su vida diaria.
En el marco del desarrollo tecnológico, un problema se encuentra con la necesidad de crear aplicaciones móviles educativas, ya que el gran número de aplicaciones son juegos adictivos que en algunas ocasiones generan problemáticas actitudinales en los infantes. Esto lleva a los padres de familia a restringir el uso de dispositivos móviles al percibir que no aportan gran ayuda al proceso de formación tanto educativa como para la vida de los infantes.
METODOLOGÍA
Metodología XP por Kent Beck, autor del primer libro sobre la materia, Extreme Programming Explained: Embrace Change (1999). Esta metodología es una de las más destacadas de los procesos ágiles de desarrollo de software, pero se diferencia de las metodologías tradicionales principalmente en que pone más énfasis en la adaptabilidad que en la previsibilidad.
Las fases que conforman la metodología XP, se describen a continuación describiendo los procesos de Ingeniería de Software que se atendieron para el desarrollo del proyecto.
Fase I -Planificación del proyecto
En esta fase se definieron los elementos necesarios para el inicio del proyecto de investigación, y se determinaron los entregables.
Fase II -Diseño
En esta fase se realizó el diseño físico y lógico que contiene la aplicación móvil, así como los instrumentos metodológicos que contribuyeron a obtener información desde la perspectiva de los usuarios.
Fase III -Codificación
En esta etapa de desarrollaron los pseudocódigos que permitieron programar cada uno de los elementos contenidos en la aplicación móvil.
Fase IV -Pruebas
En esta fase se realizaron las pruebas de aceptación, que determinaron los errores involucrados en la fase de codificación.
CONCLUSIONES
Los resultados derivados del desarrollo del presente proyecto de investigación, muestran que el interés de los infantes en temas referentes a la responsabilidad ambiental se incrementó, puesto que la muestra representativa de infantes seleccionados, previo consentimiento informado de los tutores, identificaba con mayor grado de precisión los contenedores donde se deberían disponer los residuos sólidos de acuerdo a sus características.
Referente a la solución tecnológica, se encontró que los infantes referían mayores escenarios de juego, lo que se significa en la visión a futuro de la aplicación móvil, puesto que el desarrollo de nuevos escenarios con retos que representen un estímulo atractivo para los infantes, tendrá una mayor posibilidad de generar oportunidades de negocio para el proyecto.
En es aspecto educativo, no se aplicó un instrumento de investigación a los docentes, pero se atendieron algunas observaciones referentes a cuestiones del aprendizaje y comportamiento de los infantes, puesto que el uso de dispositivos móviles, estaría condicionado al comportamiento de los infantes en el cuidado y resguardo de los equipos.
Escobar Machado Oscar, Universidad Cooperativa de Colombia
Asesor:Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
DISEñO DE UN PAVIMENTO FLEXIBLE A BASE DE RAP POR MEDIO DEL SOFTWARE DISPAV-5 DEL INSTITUTO DE INGENIERíA UNAM.
DISEñO DE UN PAVIMENTO FLEXIBLE A BASE DE RAP POR MEDIO DEL SOFTWARE DISPAV-5 DEL INSTITUTO DE INGENIERíA UNAM.
Escobar Machado Oscar, Universidad Cooperativa de Colombia. Asesor: Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Proponer el Diseño de un Pavimento flexible a base de RAP de una vía municipal en deterioro usando el programa de diseño de pavimentos de la UNAM "DISPAV-5" con sus respectivas variables, tomando como soporte la normativa mexicana y estadística de transito tomada en campos para mejorar funcionabilidad y durabilidad de dicha vía municipal.
METODOLOGÍA
Lo primero que realizamos durante nuestra estancia investigativa fue la recolección de información de transito vehicular durante 17 días en nuestro punto objeto de estudio, exactamente en la calzada la fuente a la altura de la intersección con la calle Clavel.
Contando con la información necesaria procedimos a realizar el análisis estadístico con el fin de determinar el TDPA con el cual realizaríamos el diseño. Posteriormente realizamos la modelación del diseño de un pavimento flexible a base de RAP usando el programa DISPAV 5.0 y comparamos diferentes opciones teniendo en cuenta su viabilidad técnica y económica. Finalmente seleccionaremos la mejor opción para presentar una propuesta.
CONCLUSIONES
Pudimos determinar la manera en que se ve afectado el espesor de las capas de los pavimentos flexibles al usar criterios como el TDPA, los módulos de resiliencia, los CBRz, porcentaje de vehículos cargados, pesos de los ejes de los vehículos, nivel de daño y profundidad de daño. Al final de nuestra investigación esperamos entregar como resultado el diseño del pavimento flexible que entregue las mejores condiciones técnicas de durabilidad y viabilidad económica.
Escobar Martínez Maximiliano, Universidad de Sonora
Asesor:Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
Castro Solarte Yolimar, Universidad Autónoma de Occidente. Escobar Martínez Maximiliano, Universidad de Sonora. Federico Gutiérrez Sergio Octavio, Universidad de Sonora. Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Actualmente la contaminación ocasionada por el vertimiento de las aguas residuales domésticas hacia las aguas superficiales (principalmente ríos) en los países como México y Colombia, ha sido un tema que ha comenzado a afectar a muchas comunidades en los últimos años por la falta de saneamiento básico, ocasionada por las irregularidades en los vertimientos de aguas residuales, y la carencia en el análisis de los parámetros fisicoquímicos en las plantas de tratamiento de las aguas residuales, y la flexibilidad presente en algunos apartados de la normatividad.
El análisis de los parámetros fisicoquímicos aplicados en la inspección de calidad de aguas residuales domésticas después de su tratamiento constituye una herramienta fundamental para la evaluación de aguas superficiales, de la eficiencia de plantas de tratamiento de aguas residuales y el modelaje predictivo de la calidad de agua, que pueda llegar a perjudicar la vida acuática del cuerpo de agua receptor y del ecosistema en general.
Se considera de vital importancia sanitaria dar a conocer, de manera clara y concisa, los parámetros fisicoquímicos básicos para la evaluación del agua residual doméstica en su vertimiento hacia aguas superficiales, mostrando a la vez un análisis que muestre algunas relaciones entre ellos a lo largo del tiempo.
METODOLOGÍA
Se comenzó con exponer brevemente al lector el significado de las aguas residuales, así como su clasificación (domésticas e industriales), de tal modo que de acuerdo con las primeras investigaciones recopiladas, se buscó hacer un análisis de aguas residuales domésticas, no olvidando redactar y presentar los conceptos clave, como lo son los parámetros fisicoquímicos que determinan su calidad. Dichos parámetros nos ofrecen un mejor panorama de la naturaleza física y química del agua, por lo que existen una gran variedad de parámetros, sin embargo, hemos decidido considerar los siguientes para su desarrollo: Temperatura, turbidez, pH, fosfatos, ST (Sólidos Totales), SST (Sólidos Suspendidos Totales), SDT (Sólidos Disueltos Totales), NAT (Nitrógeno Amoniacal Total), DBO5 (Demanda Bioquímica de Oxígeno a los cinco días de incubación), DQO (Demanda Química de Oxígeno) y OD (Oxígeno Disuelto)
En cada uno de los parámetros señalados anteriormente se buscó definir: su significado, el significado de sus valores y la importancia que tienen en el análisis de aguas.
Adicionalmente, investigamos las técnicas de muestreo simple y compuesta, que son de las más utilizadas en la evaluación de dichos parámetros fisicoquímicos, de tal modo que cada una nos presenta ciertas ventajas, desventajas y usos distintos.
Por otro lado, se buscó complementar la información dirigida a los parámetros fisicoquímicos con su regularización dentro de la normativa mexicana y colombiana, en la cual se logró detectar los límites máximos permisibles presentes en el vertimiento puntual de aguas residuales domésticas hacia cuerpos de aguas superficiales a través de los sistemas de alcantarillado urbano o municipal:
En México, investigamos las Normas Oficiales Mexicanas (NOM) de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT) que se aplican a los casos de aguas residuales. En Colombia, revisamos las normas establecidas por el Ministerio de Ambiente y Desarrollo Sostenible dentro de la resolución 631 del 2015.
Además, se nos proporcionó una base de datos recolectada en un periodo de un año, los datos corresponden al afluente y efluente de una planta piloto de aguas residuales domésticas, la cual funcionaba por medio de un sistema biológico híbrido de crecimiento en suspensión y crecimiento adherido, ubicada en un sector de la ciudad de Cali, Colombia. A esta base de datos, aplicamos un análisis descriptivo a partir de la literatura consultada.
CONCLUSIONES
En el análisis descriptivo de la base de datos de la planta piloto de Colombia, el sistema de tratamiento arrojó una DQO promedio mensual de 36 mg/l, un máximo mensual de 62 mg/l y un mínimo mensual de 15.20 mg/l, reduciendo la materia orgánica presente en el efluente de la planta piloto, teniendo un porcentaje de remoción mayor a 52% de la DQO en función del objetivo de calidad que establece la resolución 631 del 2015 en Colombia para cargas menores o iguales a 625 kg DBO5 por día. A partir de datos de la DQO fue posible calcular la DBO5, la cual a la salida tiene un valor promedio mensual de 16.96 mg/l, un valor máximo mensual de 29,81 mg/l y un valor mínimo mensual de 7.31 mg/l, alcanzando una eficiencia mayor al 50% de remoción de acuerdo con el objetivo de calidad establecido en la resolución 631 del 2015 la DBO5 debe ser de 90 mg/l a la salida de la planta de tratamiento de aguas residuales.
Además, se estableció la relación de biodegradabilidad de la materia orgánica, donde DBO5/DQO obtuvo un valor de 0.5. Indicando que el 50% de la materia orgánica es biodegradable, por lo cual se valida la utilización del tratamiento biológico de agua residuales, utilizado en la planta piloto con tratamiento híbrido de crecimiento adherido y en suspensión.
Los resultados evidencian la reducción de la materia orgánica presente en el agua residual, sin embargo, el vertimiento se realiza con un grado aceptable de indicio de contaminación, por parte de los NO3 arrojó un promedio mensual de 8 mg/l, un máximo mensual de 13 mg/l y un mínimo mensual de 3 mg/l. Por lo tanto, se recomienda la recuperación de nutrientes para reusó agrícola, o la incorporación de un tratamiento más avanzado (terciario o cuaternario) que permita la degradación del contenido de nitrógeno presente en forma de nitratos.
Escobar Teja Juan Carlos, Universidad Tecnológica de Zinacantepec
Asesor:Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
LA VIABILIDAD DE LOS MATERIALES AVANZADOS COMO ALTERNATIVA DE INNOVACIóN EN LOS TRAJES ESPACIALES.
LA VIABILIDAD DE LOS MATERIALES AVANZADOS COMO ALTERNATIVA DE INNOVACIóN EN LOS TRAJES ESPACIALES.
Escobar Teja Juan Carlos, Universidad Tecnológica de Zinacantepec. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
Una de las existentes cuestiones humanas es saber que pasara de aquí a unos años cuando nuestro mundo/planeta este sobre poblado y deje de ser completamente inhabitable. Ir hacia el espacio desconocido nunca se ha descartado en ningún momento, organizaciones espaciales privadas y públicas siempre han visionado más allá de lo indiscutible. Desde el más conocido viaje a la luna de 1969 hasta el más programado y arriesgado plan de Elon Musk para colonizar Marte en 2026.
Los materiales avanzados son una alternativa sumamente importante para los sectores industriales, un derivado de los materiales avanzado son los compuestos, estos mismos presentan propiedades que no se pueden obtener por si solas de un material. De manera detallada, la viabilidad de nuevos trajes espaciales en pleno siglo XXI debe ser ventajosa en todos los sentidos, y eso es muy fácil de reconocer porque hoy en día vivimos en una sociedad que tecnológicamente no se ha estancado. La era de los textiles nanofibrosos, tejidos y no tejidos deben seguir implementándose en cada una de nuestras acciones visionarias.
METODOLOGÍA
Preparación de muestras
Antes de comenzar un tipo de preparación en específico, el microscopista ha de examinar la muestra visualmente, o bien, con un microscopio a bajos aumentos, con el fin de elegir la zona de estudio. A continuación, se describe la preparación de muestras:
Cuando la muestra que se va a introducir al microscopio es un sólido sinterizado poco o no conductor, se sigue el siguiente proceso:
Cuando la muestra ha sido montada en resina o baquelita es conveniente aterrizar dicha muestra colocando una cinta metálica (cobre, oro, carbono, etc.) desde la zona de interés hasta la parte en contacto con el porta muestras.
Si lo anterior no es suficiente, entonces puede recubrirse la muestra con oro, plata, carbono, etc. Se debe prestar atención a la selección del recubrimiento, con base en diferentes factores como: que el elemento de recubrimiento no debe de encontrarse en la muestra, los picos del material a recubrir no deben empalmarse con picos de otros elementos de interés a analizar, etc.
En cambio, cuando la muestra es un sólido en polvo, es necesario:
Colocarla en el porta muestras adecuado. Si se puede se ejerce un poco de presión para compactar mejor al polvo en el porta muestras, y evitar que, al incidir el haz en la misma, algunas partículas se dispersen contaminando el equipo.
Las muestras para SEM se montan normalmente en bornes de aluminio (12 mm o 25 mm de diámetro) utilizando almohadillas adhesivas conductoras, pegamento conductor y / o cintas de cobre conductoras. En la platina SEM se pueden colocar trozos de hasta 8 x 12 mm o 3 x 25 mm. Las muestras más grandes o con formas más incómodas se pueden colocar en otras plataformas de montaje.
A continuación, se muestran algunas de sus principales aplicaciones:
Análisis morfológico y topográfico.
Corrosión y deterioro de superficies.
Análisis de fallas.
Desarrollo experimental
La caracterización será con el equipo SEM y el recubrimiento requerido se realizará con la técnica de sputtering, ya que esta técnica nos brinda distintas ventajas como la uniformidad del recubrimiento, control del espesor y suavidad en la superficie, además de que la deposición es a baja temperatura.
Síntesis de nanofibras de PVA
Disolver el polímero puro de alcohol polivinílico PVA (Mw=200) en dimetilformamida para obtener una solución con concentración de 25wt% y someterla a agitación magnética durante 3 horas hasta que el polímero esté completamente disuelto.
Insertar 2 mL de solución en una jeringa conectada a una aguja de metal, una fuente de alimentación DC sostenida en la punta de la aguja como ánodo, y un cilindro colector rotatorio de aluminio como cátodo.
El voltaje del electrohilado debe ser de 10 kV, la distancia entre la aguja y el colector de 10 cm.
Dejar enfriar las fibras colectadas en un horno a temperatura ambiente durante 2 horas.
Caracterización
Realizar el trámite para la renta del equipo SEM en la página de servicios del contribuyente del Estado de México y pagar la cuota de $2568 para usar el equipo durante una hora.
Solicitar al encargado del laboratorio que haga entrega de un porta muestras adecuado para muestras no conductoras.
Seleccionar una cantidad de nanofibras de PVA adecuada para el porta muestras y recubrirla con oro mediante la técnica de sputtering hasta alcanzar un espesor de 2 nm.
Descargar la cámara del microscopio con aire.
Introducir y ajustar la muestra en la cámara del equipo SEM.
Enfocar el haz de electrones en la muestra y hacer los ajustes pertinentes para obtener imágenes óptimas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de los materiales avanzados, en especial los compuestos y así mismo se encontró correlación con lo antes visto por mí en mi formación académica. Sin embargo, debido a la situación de contingencia por la que estamos pasando es imposible desarrollar acciones experimentales que brinden resultados ventajosos en cuanto a lo que se espera teóricamente con los datos de otras investigaciones sobre los materiales compuestos en la industria textil espacial.
REFERENCIAS
Basaldúa Robledo, F. (2016). Fabricación de materiales compuestos reforzados con fibras naturales mediante el método de prensado en frío para aplicaciones aeronáuticas (Doctoral dissertation, Universidad Autónoma de Nuevo León).
Ramakrishna, S., et al., An introduction to electrospinning and nanofibers.Vol. 1. 2005, Singapore: World Scientific Publishing Co. Pte. Ltd. 382.
Ul-Hamid, A. (2018). A Beginners' guide to scanning electron microscopy (Vol. 1). Springer International Publishing.
Morán, C. A., & Vega Gallaga, J. (2012). Estado del arte y prospectiva de la ingeniería en México y el mundo. Informe final de la Academia de Ingeniería al Consejo Nacional de Ciencia y Tecnología (Conacyt).
NASA (2014). ¿Qué es un traje espacial? de NASA Knows! (Grades 5-8). Sitio web: https://www.nasa.gov/audience/forstudents/5-8/features/nasa-knows/what-is-a-spacesuit-58.html
A. K. BLEDZKI, J. GASSAN, Composites reinforced with cellulose based fibers, Progress in Polymer Science, 1999, Vol. 24, p. 221-274.
Escobedo Berumen Miguel Angel, Instituto Tecnológico de Reynosa
Asesor:Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
CáMARAS DE SEGURIDAD CON RECONOCIMIENTO FACIAL Y FILTROS DE REALIDAD AUMENTADA
CáMARAS DE SEGURIDAD CON RECONOCIMIENTO FACIAL Y FILTROS DE REALIDAD AUMENTADA
Escobedo Berumen Miguel Angel, Instituto Tecnológico de Reynosa. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las cámaras de seguridad son costosas y no están al alcance de todos los negocios, además no suelen contar con reconocimiento facial. Por medio de un software se busca crear una forma de poder convertir cualquier cámara que se pueda conectar a una computadora en una cámara de seguridad, y a las cámaras de seguridad poder agregar un sistema de reconocimiento facial. También dando la opción de aplicar filtros de realidad aumentada para tener un entorno más amigable.
METODOLOGÍA
Esta investigación es de tipo cualitativa con una población de muestra selecta de ingenieros y licenciados con mínimo de estudios universitarios, con la condición de emprendedor, comerciante o empresario, por medio de un cuestionario que consiste en las siguientes preguntas:
recolección de información
9 preguntas 4 entrevistados 1 prueba de aplicación
1.- ¿Tiene Sistema de seguridad en sus negocios?
Si 100%
No 0%
2.- ¿Considera que sus clientes se sienten incomodos al ser grabados?
Si 25%
No 75%
3.- ¿Ha sido víctima de robos en su negocio?
Si 100%
No 0%
4.- ¿Pudo identificar al ladrón?
Si 25%
No 75%
5.- ¿Considera que se puede mejorar su Sistema de seguridad?
Si 100%
No 0%
6.- ¿Considera la bienvenida de sus clientes como parte de la experiencia en su negocio?
Si 25%
No 75%
7.- ¿Cree que aplicando filtros en las cámaras de seguridad podría mejorar la experiencia de sus clientes?
Si 50%
No 50%
8.- ¿Se ha observado a usted mismo en alguna cámara de seguridad de algún comercio como entretenimiento?
Si 100%
No 0%
9.- ¿cree que este concepto de aplicación podría mejorar la seguridad de su negocio?
Si 50%
No 50%
código
Para esta problemática se creó un código de programación en el lenguaje Python utilizando librerías de opencv (Open Computer vision) también se utilizaron librerías de imutils que son para él redimensionamiento de imágenes, y se utilizó una base de datos para entrenar el reconocimiento facial de un repositorio llamado haarcascade.
El código esta programado para tener las siguientes funciones
Ver video en tiempo real por medio de cualquier cámara conectada al ordenador.
Detectar rostros dentro del video transmitido por las cámaras.
Al momento de detectar los rostros coloca una imagen o filtro seleccionado al rostro identificado.
En caso de que sea necesario redimensionar los filtros por diferentes tamaños de rostros o distancia a la cámara el código lo hace de manera automática.
Nota: los filtros creados para el programa fueron dibujos en Paint únicamente como ejemplo, puede colocarse cualquier imagen en formato png. Sustituyendo el nombre de la imagen en el código:
image = cv2.imread('corona.png', cv2.IMREAD_UNCHANGED)
.- image = cv2.imread('corazon.png', cv2.IMREAD_UNCHANGED)
Cambiando el texto en rojo con el nombre de la imagen esta misma debe estar en la carpeta del código.
Ejemplos de imágenes en png:
Uso de la aplicación en un negocio
En este caso el programa fue utilizado en un negocio de reparación de equipo de cómputo ya que eran las cámaras más accesibles. Se utilizó durante un tiempo de 4 horas, donde por cuestiones de pandemia no se pudo aprovechar al 100% ya que el programa no estaba configurado para detectar rostros con cubrebocas. Sin embargo a los clientes frecuentes o conocidos se les pedía de favor que, si se lo podían retirar por un momento para hacer la prueba, los clientes se llevaron una sonrisa al ver su rostro con un filtro en este caso de corona.
CONCLUSIONES
Se logró diseñar un software de reconocimiento facial, que coloca filtros personalizables a los clientes, mejorando su experiencia en la bienvenida a un establecimiento y a su vez genera una alternativa de seguridad utilizando reconocimiento de rostros en las cámaras de seguridad.
Escobedo Núñez Alan Javier, Universidad de Guadalajara
Asesor:Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
RECONOCIMIENTO AUTOMáTICO DE BIOMARCADORES EN REGISTROS DE ENCEFALOGRAFíA MEDIANTE CONECTIVIDAD FUNCIONAL Y ESTADíSTICA DESCRIPTIVA
RECONOCIMIENTO AUTOMáTICO DE BIOMARCADORES EN REGISTROS DE ENCEFALOGRAFíA MEDIANTE CONECTIVIDAD FUNCIONAL Y ESTADíSTICA DESCRIPTIVA
Escobedo Núñez Alan Javier, Universidad de Guadalajara. Asesor: Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La electroencefalografía es una técnica de medición de la actividad eléctrica del cerebro, utilizada generalmente para detectar patologías, identificar estados de ánimo o asociar cierto tipo de activación con una tarea específica. Sin embargo, es difícil realizar estos procesos si no se eligen cuidadosamente los parámetros adecuados.
La estimación de la conectividad funcional es una herramienta importante en el proceso de obtener estadísticas entre registros de EEG, por lo que ofrece ventajas para determinar conclusiones adicionales. Se prevé que realizando análisis de conectividad funcional y de activación cerebral sea suficiente para determinar biomarcadores.
METODOLOGÍA
Se utilizó un conjunto de registros de electroencefalografía titulado EEG: Visual Working Memory + Cabergoline Challenge obtenido de la base de datos pública OpenNeuro. El estudio consta de 27 participantes de entre 18 y 23 años, a cada uno le realizaron dos sesiones, una suministrando cabergolina (un fármaco inhibidor de dopamina) y en la otra un placebo; con el fin de comprobar el efecto de la cabergolina en la respuesta visual. Para cada registro se utilizó el equipo de adquisición Brain Vision ActiChamp de 64 electrodos y una frecuencia de muestreo de 500 Hz/s. Para este trabajo se escogieron los primeros cinco participantes de la lista.
El preprocesamiento de las señales se realizó usando el toolbox EEGLAB de MATLAB, con el cual se incorporaron las coordenadas de cada uno de los canales, se eliminó el artefacto de EOG y se filtraron en tres bandas frecuenciales:
Alfa (8 - 12 Hz)
Betalow (12 - 20 Hz)
Betahigh (20 - 30 Hz)
Con el fin de analizar la actividad cerebral en reposo y asociada a la concentración.
Utilizando la señal de los electrodos y sus coordenadas se visualizó la información mediante topogramas (mapas que representan actividad cerebral) con los cuales se determinó qué áreas cerebrales se activaban con mayor frecuencia y magnitud, estas activaciones posteriormente se asociaron con tareas específicas. Se descubrió que el área prefrontal, generalmente asociada a tareas de concentración) tiene una mayor activación en el ritmo beta en todos los registros a lo largo de cada sesión. Sin embargo, se observó bastante actividad en el área occipital (representa actividad visual) presente en el ritmo alfa de cada registro.
Se procedió a realizar un análisis estadístico mediante correlación entre todos los canales de cada registro para presentarlos en matrices de correlación con la finalidad de identificar los canales que presentan mayor similitud entre ellos. Se observó que los electrodos colocados en el mismo hemisferio, así como en su parte posterior o anterior mantienen una correlación alta.
Finalmente, a partir de los índices de correlación obtenidos se procedió a estimar la conectividad cerebral de cada registro utilizando la función topoplot_connect() descargada de MathWorks. Se imprimieron las ubicaciones de los electrodos, colocando líneas entre los que presentaran una conectividad mayor a 60% de conectividad, se determinó este umbral después de varias pruebas.
CONCLUSIONES
Durante la estancia en el verano se aprendió a trabajar con registros de electroencefalografía donde se utilizaron herramientas de preprocesamiento y procesamiento de las señales adquiridas. Se logró adquirir conocimientos teóricos sobre temas relacionados con la actividad cerebral y conectividad funcional, útiles en la interpretación de la información. Finalmente se realizó de manera efectiva la obtención de estadísticas asociadas al tipo de actividad a realizar, género y fármaco suministrado a los participantes, dichas estadísticas pueden ser utilizadas como biomarcadores.
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional
Asesor:M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional. Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional. Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales. Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional. Asesor: M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El autismo es un trastorno del neurodesarrollo caracterizado por ser un trastorno para toda la vida y presentar alteraciones de la interacción social, comunicación verbal, no verbal, el comportamiento restringido y repetitivo; generalmente los signos se observan durante los dos o tres primeros años de vida, actualmente se conoce como Trastorno del Espectro Autista (TEA).
La medición de los lapsos de atención en niños con Trastorno del Espectro Austista(TEA), ha ido tomando un papel muy importante, ya que en ellos el nivel de atención suele ser muy bajo debido a que se encuentran lidiando con una gran cantidad de estímulos del entorno. Lo que les genera estrés y potencia que se alteren, por lo que su nivel de atención es variante.
Con la detección de estos lapsos de atención (sostenida, dividida y alternante, en las modalidades visual y auditiva) se pretende coadyuvar en el aprendizaje de personas con TEA al interactuar con medios de aprendizaje tales como aplicaciones de software y otros tipos de actividades didácticas, con lo cual se puede mejorar el diseño de escenarios de aprendizaje y por lo tanto, la calidad de vida.
METODOLOGÍA
La base de datos se obtuvo a partir del registro de señales electroencefalográficas de un paciente con Trastorno del Espectro Autista que fueron adquiridas por medio del uso del dispositivo inalámbrico EPOC+ de 14 canales. Se realizaron tomas de muestras para la identificación de los lapsos de atención en el paciente al desarrollar distintas actividades de aprendizaje. El EPOC+ se utiliza en conjunto con el software EmotivPro para recopilar, analizar y almacenar métricas de datos cerebrales.
Los registros de las señales se utilizaron para la creación de archivos .mat correspondientes a cada uno de los 14 electrodos del dispositivo gracias a la herramienta Importa Data de MATLAB para su posterior procesamiento. Como primer punto, se realizó el escalamiento de la señal considerando la resolución de 0.51 uV proporcionada por el fabricante. Posteriormente, se eliminó la línea isoeléctrica de las señales empleando el comando detrend que nos permite restar la media de los datos.
Una vez obtenida la base de datos, se utilizó el software libre EEGLab proporcionado por UCSD, el cual se anexa a la plataforma de simulación MATLAB para el procesamiento de señales electroencefalográficas, en donde, primeramente se registraron las posiciones de los electrodos del dispositivo, para posteriormente hacer el análisis completo de las señales. Se realiza a continuación la identificación y clasificación de los artefactos presentes en la señal EEG para su posterior eliminación. Esto se puede hacer gracias al módulo de Análisis de Componentes Individuales (ICA, por sus siglas en inglés) de EEGLab.
Una vez eliminados los artefactos, se analizaron las señales para obtener la Densidad Espectral de Potencia por medio de un programa en MATLAB con la finalidad de analizar y detectar la mayor actividad eléctrica presentes en ciertas bandas de frecuencia (bandas Beta) y que es coincidente con los lapsos de mayor atención para cada una de las actividades realizadas.
CONCLUSIONES
El procesamiento de señales EEG puede determinar el nivel de atención que se presenta al desarrollar una actividad de aprendizaje con una persona con TEA, además obtener una medición cuantitativa de cada sesión y, de esta manera, saber el impacto de la actividad. Asimismo, también se puede saber si le es clara la instrucción, esto es muy importante sobre todo en las personas con TEA no verbales. De esta forma, se pueden diseñar o adaptar escenarios de aprendizaje personalizados, mejorando su bienestar y calidad de vida, para en un futuro lograr una inclusión laboral en su vida adulta.
Espino García María Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Miguel González López, Universidad de Colima
ANáLISIS DE CONVERTIDORES BIDIRECCIONALES CC-CC
ANáLISIS DE CONVERTIDORES BIDIRECCIONALES CC-CC
Espino García María Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Miguel González López, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
La contaminación, el aumento de los niveles de emisiones, el agotamiento de los combustibles fósiles y la demanda de energía cada vez mayor ha sido una gran preocupación en los últimos años. Estas preocupaciones han impulsado un rápido desarrollo de las energías renovables. Además de que generan energía limpia, han mostrado un gran número de ventajas, sin embargo, las energías renovables continúan en desarrollo e investigación y muestran ciertas desventajas como, las salidas fluctuantes de las fuentes de energía y la demanda de energía variable, las cuales pueden deteriorar la calidad del voltaje.
Un desafío importante de las energías renovables es igualar la cantidad de energía suministrada con la que se demanda.
Un punto clave en estos sistemas, es el almacenamiento de la energía. En periodos donde la carga no demanda energía y las fuentes la generan, se puede acumular el exceso, para después satisfacer la demanda de la carga cuando la generación de energía de las fuentes es baja.
Los convertidores bidireccionales CC-CC constituyen piezas claves para conectar los dispositivos de almacenamiento con la fuente y la carga en sistemas de energías renovables; con el fin de garantizar un flujo continuo de energía.
METODOLOGÍA
En este trabajo se estudio el uso de los convertidores bidireccionales CC-CC para que puedan almacenar energía generada por sistemas fotovoltaicos o eólicos.
Se inicio por una extensa investigación del almacenamiento de energía en donde se estudió el concepto, los tipos que existen, sus diversas aplicaciones y la evolución del almacenamiento de energía.
También se realizó lectura de artículos sobre los convertidores bidireccionales donde se estudió la composición del convertidor, el uso que se le dan y las diversas situaciones donde es muy útil un convertidor.
En esta investigación el convertidor bidireccional CC-CC se simulo con baterías de iones de litio las cuales se han vuelto populares en los últimos años debido a su eficiencia extremadamente alta (en comparación con otras baterías), así como su alta densidad de energía, densidad de potencia y voltaje de celda.
Se utilizo Matlab Simulink para la realización y análisis del convertidor. Este convertidor bidireccional tiene una naturaleza Buck-Boost el cual recibe un voltaje de entrada y entrega otro diferente de salida. Su característica bidireccional consiste en regular el flujo de potencia del voltaje del bus de CC en ambas direcciones. Los interruptores S1 y S2, los cuales son unos IGBT en serie, garantizan que la corriente del inductor sea continua en todo el proceso. El convertidor trabaja como Buck cuando S2 permanece abierto o cuando es igual 0 y el convertidor trabaja como Boost cuando el S1 permanece abierto o cuando S1 es igual a 0.
Se obtuvo el modelo analítico del convertidor Buck-Boost obteniendo las ecuaciones cuando el convertidor funciona como Buck y cuando funciona como Boost.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el almacenamiento de energía, los convertidores bidireccionales y a pesar de la distancia, también se estudió la forma correcta de instalar paneles fotovoltaicos.
El trabajo resulto ser muy extenso y un gran reto. Se espera que al simular por separado el convertidor en Matlab Simulink y las ecuaciones del modelo analítico del convertidor se obtenga el mismo resultado, es decir que las graficas de voltaje, corriente y potencia de los diversos componentes del convertidor en Matlab Simulink sean iguales a las de las ecuaciones del modelo analítico.
Espinosa Cruz Josué, Universidad de La Salle Bajío
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL PARA CLASIFICAR LEUCEMIA MIELOIDE AGUDA
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL PARA CLASIFICAR LEUCEMIA MIELOIDE AGUDA
Espinosa Cruz Josué, Universidad de La Salle Bajío. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El cáncer es una enfermedad en la cual las células de algún organismo se reproducen sin interrupción y control, esparciéndose por todo el cuerpo dando como resultado la destrucción de tejidos circundantes y el desarrollo de tumores.
Conforme a la American Cancer Society, es de suma importancia conocer la extensión del cáncer para implementar un tratamiento eficiente, basándose en la mayoría de los casos en el tamaño del tumor. La leucemia mieloide aguda (AML) no suele formar estas estructuras, por lo que la detección se basa principalmente en estudios de laboratorio.
En años anteriores se han publicado artículos en los cuales se busca clasificar los subtipos de AML aplicando procesamiento de imágenes por medio de redes neuronales artificiales (RNA) a los estudios de laboratorio celulares, usando principalmente el perceptrón clásico. De igual forma, se ha investigado las capacidades de las redes neuronales morfológicas con procesamiento dendral (RNMD), ya que permiten resolver problemas no lineales en una sola capa de neuronas mientras que las redes neuronales basadas en el perceptrón clásico (PC) requieren de dos o más.
Debido a esta necesidad en el análisis de pruebas de laboratorio, se desarrolló durante este verano una comparación entre las redes neuronales morfológicas con procesamiento dendral y el perceptrón clásico en la clasificación de la AML a partir de imágenes tisulares, aplicando un modelo de Deep Learning para extraer los rasgos de las imágenes antes de clasificarlas. Así mismo se desarrollaron funciones para el pre-entrenamiento de RNMD con el propósito de evaluar su rendimiento en futuros trabajos.
METODOLOGÍA
Para la clasificación de la AML se utilizó una base de datos conseguida por el Mtro. Rodrigo Román y proporcionada por la Mtra. Rocío Ochoa, la cual consiste en un conjunto de imágenes celulares de estudios de laboratorio agrupadas en una carpeta compuesta de 3 subcarpetas, cada una para el entrenamiento, validación y prueba. Cada una de estas carpetas contiene 4 subcarpetas, divididas en el tipo de AML a clasificar: M2, M3, M4eos y M5.
Las carpetas de entrenamiento y validación contienen en total 520 elementos, y la de prueba tiene 348. Se utilizaron 3 funciones de RNMDs proporcionadas por el Mtro. Rodrigo Román.
Se diseñaron 9 modelos de redes neuronales clasificadas en 3 estructuras diferentes:
RNC + PFC: En todos los modelos está presente una capa de entrada, una etapa de convolución (RNC) y una capa flatten. En este modelo se agrega una sección de capas de perceptrones FullyConected (PFC), finalizando con una capa de clasificación con función de activación softmax. En estas dos secciones se programará cada submodelo con un tipo diferente de neurona: perceptrón y 2 tipos de RNMD.
RNC + PC
RNC + RNMD de hipercaja
RNC + RNMD de esfera
RNC + PFC+ Clasificador: En este modelo, la sección de PFC es programada en su totalidad con el perceptrón clásico, mientras que en la capa de clasificación se programará cada submodelo con un tipo diferente de red neuronal morfológica.
RNC + PC + RNMD de hipercaja
RNC + PC + RNMD de elipse
RNC + PC + RNMD de esfera
RNC + Clasificador único (sin capas intermedias): En este modelo se elimina la sección de PFC, conservándose la capa de clasificación, en la cual se programará cada submodelo con el perceptrón clásico y dos tipos de redes morfológicas.
RNC + PC
RNC + RNMD de hipercaja
RNC + RNMD de esfera
Se entrenó 6 veces a cada uno de estos modelos, registrando los valores de exactitud y pérdida al clasificar las imágenes durante las tres fases, obteniendo el promedio de estos valores y su desviación estándar (DE) en cada modelo.
También se programaron 4 funciones de pre-entrenamiento para RNM en lenguaje Python. En las dos primeras funciones, se generan los datos de entrenamiento encerrándolos en hipercajas e hiperesferas respectivamente, de igual forma, el grupo al cual pertenece cada individuo se conoce con antelación. Los modelos 3 y 4 son similares a los anteriores, solo que se desconoce a que grupo pertenece cada individuo, por lo que se utilizó el algoritmo K-Means (algoritmo no supervisado de clustering) para determinar esta información.
En los modelos 1 y 3 se encierran los grupos en hipercajas, las cuales se determinan a partir de los límites de cada grupo a partir de los individuos que se encuentran más alejados del mismo, determinándose los vértices, aristas y centroide de la hipercaja. En los modelos 2 y 4 se genera el mismo proceso, pero los grupos se encierran en esferas en vez de hipercajas.
Estas funciones permitirán en futuros trabajos generar un pre-entreno en las RNMD.
CONCLUSIONES
Para la clasificación de la AML, se guardaron los modelos que hayan obtenido una exactitud mayor o igual al 98% en la clasificación de las 4 clases de AML, los cuales son los siguientes:
RNC + Perceptrón Clásico
Épocas: 36.50 ± 14.48
Tiempo/Época: 81 ms
Test Accuracy: 98.71% ± 1.4
RNC + Perceptrón Clásico + Red Neuronal Morfológica de elipse
Épocas: 63.17 ± 11.12
Tiempo/Época: 86 ms
Test Accuracy: 99.09% ± 0.42
RNC + Perceptrón Clásico + Red Neuronal Morfológica de esfera
Épocas: 35.17 ± 5.19
Tiempo/Época: 83 ms
Test Accuracy: 98.95% ± 0.69
RNC + Red Neuronal Morfológica de esfera
Épocas: 59 ± 12.53
Tiempo/Época: 101 ms
Test Accuracy: 98.42% ± 0.39
El modelo con mayor exactitud en la clasificación de las imágenes de AML durante la prueba fue el modelo 2 con un promedio del 99% y una DE del 0.42%. Pero el modelo con mayor precisión fue el modelo 4 con DE del 0.39% y 1.64% , respectivamente.
Las RNMD no tuvieron un correcto rendimiento en la extracción de parámetros, pero son muy eficientes en la clasificación de estos.
Se logró programar exitosamente los 4 funciones para pre-procesamiento para redes neuronales morfológicas, clasificando la cantidad deseada de grupos con dimensiones mayores o iguales a 2, dando paso a futuros trabajos.
Espinosa Moreno Victor Hugo, Universidad Autónoma de Chiapas
Asesor:Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan. Espinosa Moreno Victor Hugo, Universidad Autónoma de Chiapas. Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
En México el tema de los huertos urbanos no es tema del día a día, por lo tanto se sufre de desinformación sobre los beneficios que estos traen consigo. Siendo que algunos de estos son: ayuda económica, mejora de la salud, disminución del desgaste físico-mecánico del suelo y las aguas residuales.
METODOLOGÍA
El modelo ADDIE es el proceso utilizado por diseñadores y desarrolladores de capacitación. Las cinco fases: Análisis, Diseño, Desarrollo, Implementación y Evaluación representan una guía para construir herramientas de capacitación y apoyo al desempeño.
En la fase de análisis, se aclara el problema de instrucción, La fase de diseño se ocupa de los instrumentos de evaluación, La fase de desarrollo es donde se crea y ensambla el contenido, En la fase de implementación, se desarrolla un procedimiento para capacitar a los facilitadores y alumnos y por último la fase de evaluación proporciona oportunidades de retroalimentación de los usuarios.
CONCLUSIONES
Una de las tendencias estimadas para el 2030 es un alto incremento de la densidad poblacional, según la ONU seremos tres mil millones de habitantes más, donde aproximadamente el 60% de la población total vivirá en las ciudades, teniendo en cuenta que, al incrementar la densidad poblacional. Si no se hace una buena gestión de los recursos, nosotros como sociedad nos veríamos obligados a generar estrategias en un contexto, tal vez, con menos posibilidades que las de ahora. Por lo que los huertos urbanos representan una opción de cultivo sustentable que se realizan en espacios pequeños dedicados a sembrar y cosechar alimentos, logrando así parte del cuidado del medio ambiente y también del beneficio personal.
Es por ello, que promover prácticas que sean sostenibles y enseñar a la población a fortalecer su capacidad científica para avanzar hacia modalidades de consumo y producción sostenible, es algo fundamental para la supervivencia y bienestar de nuestra especie.
Espinosa Pérez Carlos Alberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
ROBOT DELTA: ANÁLISIS Y SIMULACIÓN
ROBOT DELTA: ANÁLISIS Y SIMULACIÓN
Espinosa Pérez Carlos Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los robots manipuladores de grados de libertad son un recurso importante en los diversos sectores de industriales y de automatización, el Robot Delta, es uno de los diseños acertados dentro de los robots paralelos en el mundo. Su creador, el Dr. Raymond Clavel, recibió el Golden Robot Award patrocinado por la empresa ABB, posteriormente, el modelo fue patentado por la empresa [1][2].
Además, el uso de los robots manipuladores es fundamental para la continuidad de la automatización, la cual permite preservar o aumentar la calidad y cantidad en las líneas de producción mientras se agrega flexibilidad a estas [1]. A medida que la tecnología avanza los robots tienden a ser más efectivos, certeros y precisos, rápidos, inteligentes, entro otras características.
Por lo tanto, es importante abrir líneas de investigación que fortalezcan el estudio de los modelos y los prototipos de robots manipuladores para impulsar el desarrollo creativo y de innovación para un desarrollo continuo. Por otro lado, implementar el análisis y las simulaciones correspondientes permiten crear escenarios para una correcta implementación de los modelos y de los prototipos a estudiar, en este caso particular del Robot Delta.
METODOLOGÍA
Se identifican las cadenas cinemáticas cerradas que componen al Robot Delta y están dadas por cada brazo y antebrazo desde la base fija a la plataforma móvil. Cabe mencionar que cada una de las cadenas cinemáticas parten de un punto fijo a otro de un triángulo equilátero.
De esta forma, se obtienen las coordenadas con el sistema de referencia Ai y con respecto al sistema de coordenadas cartesianas Pi. Considerando las relaciones y propiedades de un triángulo equilátero se obtienen los vectores correspondientes a cada cadena cinemática del Robot Delta.
Posteriormente, se obtienen los vectores que representan la longitud de los eslabones denominados brazos y antebrazos . Finalmente, los valores de los vectores Ai, Pi, LAi, LBi analizados gracias al estudio de las cadenas cinemáticas que componen al Robot Delta se consideran para determinar la cinemática inversa y directa del prototipo.
Cinemática Inversa
La cinemática inversa traduce las coordenadas cartesianas del vector P que se refiere a la trayectoria que el programador desea que siga el robot a coordenadas articulares representadas por el vector T y el cual serán los valores que los actuadores tomaran para el control de posición. Además, la cinemática inversa obtenida estará en radianes debido a que el resultado será arrojado por un arco tangente.
Cinemática Directa
La cinemática directa obtiene de las coordenadas articulares representadas por el vector T las coordenadas cartesianas del vector P, de esta forma se observa que el robot manipulador está siguiendo la trayectoria propuesta por el programador. Además, para obtener el análisis de la cinemática directa se considera el análisis por esferas de radio propuesto por el autor Escorcia [1].
Modelo Dinámico
El modelo dinámico es importante para el desarrollo de la planta o sistema a estudiar para un sistema de control. Además, permite obtener una simulación cercana al prototipo utilizado y da paso para aplicación de la cinemática directa e inversa, así como el diseño de un control PD con compensación de gravedad.
Simulink y el Control PD
A partir del análisis realizado se recurre a Simulink de Matlab R2021a para la simulación del prototipo programando los algoritmos en scripts de Matlab Functions. El orden de cada bloque programado será Trayectoria Deseada →Cinemática Inversa→Control PD→Modelo Dinámico→Cinemática Directa.
Esta simulación permite sintonizar las ganancias del control de ganancia proporcional derivativa con compensación de gravedad, además, el control permite realizar el control de posición de los actuadores del Robot Delta.
Modelo SolidWorks
Para realizar la simulación en Simulink con un modelo CAD es necesario descargar las herramientas de Simscape Multibody de Mathworks desde Matlab. Posteriormente se crea un ensamblaje del Robot Delta en SolidWorks y se exporta el diseño a través de la ruta Herramientas → Simscape Multibody Link→ Export →Simscape Multibody.
En Matlab, desde el Current Folder se escribe el comando smimport (‘Nombre del archivo.xml’) para importar el modelo CAD en Simulink.
Por otro lado, con el modelo importado se deben identificar los bloques que proveen el torque y censan la posición y activar estas características, además, se deben colocar los convertidores PS-Simulink y Simulink-PS para realizar la compatibilidad de señales.
La planta debe ser sustituida por el modelo importado de SolidWorks ya que se volvería un sistema de control redundante al implementar ambas plantas. Por otro lado, si se quiere implementar un control adaptativo es posible hacer esta acción.
CONCLUSIONES
La cinemática inversa de cualquier sistema obtiene las coordenadas articulares en la que los actuadores se moverán a partir de las coordenadas cartesianas deseadas. Además, se obtiene la cinemática directa que comprueba que las coordenadas articulares estén actuando correctamente. También, el modelo dinámico permite comprender las fuerzas que actúan sobre el sistema y las cuales pueden ser compensadas con un sistema de control, en este caso de estudio un control de ganancia proporcional y derivativa con compensación de gravedad. La simulación permite crear un modelo cercano a la realidad y permite obtener una idea del comportamiento del Robot Delta, sin embargo, hay que cuidar aspectos y detalles del comportamiento de los simuladores debido a que pueden generar errores y entorpecer la simulación.
Referencias
[1] Escorcia J. (octubre, 2016) Análisis, Diseño, Construcción y Control de un Robot Paralelo Tipo Delta de Tres Grados de Libertad [Tesis de maestría, Universidad Politécnica de Tulancingo] http://www.upt.edu.mx/Contenido/Investigacion/Contenido/TESIS/MAC/2016/MAC T 2016 01 JEH.pdf
[2] R.L. Williams II (2016) The Delta Parallel Robot: Kinematics Solutions, Internet Publication https://www.ohio.edu/mechanical-faculty/williams/html/PDF/DeltaKin.pdf, January2016.
Espinosa Roy Maria Daniela, Instituto Tecnológico de Zitácuaro
Asesor:Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó
MARGARET PROJECT
MARGARET PROJECT
Espinosa Roy Maria Daniela, Instituto Tecnológico de Zitácuaro. López Barboza Jorge Alberto, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó
PLANTEAMIENTO DEL PROBLEMA
Derivado de la gran influencia de información que se destaca dentro de los institutos de investigación en Colombia, así como en instituciones educativas de educación superior del mismo país, surge una principal problemática que consiste en una necesidad dentro del departamento de Vicerrectoría de la institución antes mencionada, sin embargo el problema radica en la ausencia de un sistema que contenga todo tipo de información, procesos, y analítica correspondiente para generar gráficos, teniendo en cuenta que es para visualizar que tan influyente es el investigador conforme a sus proyectos, la cual para su solución consiste en recopilar toda la información posible, en donde se destaca la participación de docentes investigadores, por ende, se determina la creación de un sistema web para determinar toda la información relevante de los investigadores, distribuyendo su información en autores, el grupo de investigación al que pertenecen, así como recopilar sus aportes en revistas científicas y sus principales aportes en la ciencia.
METODOLOGÍA
La metodología con la que se estuvo trabajando fue SCRUM la cual es una metodología ágil y flexible.
de igual manera las reuniones se llevaban diariamente con el fin de ver el progreso o soluciones de algún problema de cada uno de los compañeros, también nos permitía el cambio y el regresar a cierto punto y cambiarlo con el fin de resolver el problema que se tuvo.
Se utilizaron los datos de un Web Scrapping de los sitios de gobierno de Colombia y Google Scholar, se hizo el tratado de datos mediante RStudio para extraer la información.
Una vez que la información estaba lista pasábamos a representarla o acomodarla de tal manera de poderla representar en graficas o a manera de tablas en donde se mostraban datos como:
Grupo
Clasificación
Cantidad de artículos
Cantidad de investigadores
Líder
Correo
Área del conocimiento
Esto se hacía en RStudio mediante flexdashboard este se encargaba de interpretar nuestro código de Rstudio y transformarlo en código markdown en código HTML, esto con el fin de facilitar la forma de crear páginas web complejas.
CONCLUSIONES
Conforme a los resultados que se han ido obteniendo en el desarrollo del proyecto, cabe destacar que aun no ha sido terminado en un 100%, puesto que la organización exhaustiva de información requiere manejar bases de datos bastantes amplias.
Sin embargo, se ha logrado obtener un avance significativo al proyecto, en donde hasta el momento se encuentran una estructura de 15 grupos de investigadores, que contienen la cantidad de artículos e investigadores correspondientes, en forma de lista. También se puede observar que cada docente investigador tiene su apartado en donde se encuentra la categoría de investigación a la que pertenece, la formación y al grupo correspondiente. Otra de las observaciones que se han presentado es justamente la colección de artículos y el país donde se han publicado, el año de publicación y paginas de la revista en donde se encuentra tanto como los autores correspondientes. También se ha generado un tablero con información relevante que contiene los países top con la cantidad de información publicada y su equivalencia en porcentajes. También se encuentra una sección en donde se puede observar 6 de los 15 grupos más destacados en términos de investigadores más representativos y los 6 docentes mas destacados con mayor publicación de artículos.
Espinoza Gonzalez Yomaire, Universidad Veracruzana
Asesor:Dra. Ángela Suárez Jacobo, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)
SEMILLAS DE CALABAZA: AVANCES CIENTÍFICOS EN LA EXTRACCIÓN DE ACEITE
SEMILLAS DE CALABAZA: AVANCES CIENTÍFICOS EN LA EXTRACCIÓN DE ACEITE
Espinoza Gonzalez Yomaire, Universidad Veracruzana. Asesor: Dra. Ángela Suárez Jacobo, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las semillas de calabaza se consideran comúnmente como desechos, pero gracias a todas sus propiedades pueden ser utilizadas como un ingrediente o subproducto. Las semillas de calabaza contienen: carbohidratos, fibra soluble, proteínas, carotenoides, precursores de la vitamina A. El consumo de semillas de calabaza reduce la inflamación intestinal, tiene efectos cardioprotectores, puede disminuir el riesgo de diabetes, también en la medicina tradicional ha sido utilizada para disminuir dolores intestinales, problemas que comúnmente se encuentran en México.
Por otra parte, la demanda del aceite de cocina crece cada vez más en el mundo, el ser humano consume aproximadamente 40 millones de toneladas de grasas y aceites cada año, lo cual nos indica su gran importancia.
Con las semillas de calabaza, se pueden obtener múltiples beneficios, entre los cuales podemos encontrar aceites, harinas, salsas, o simplemente como un ingrediente extra. (Nutr, 2019)
Durante el verano de investigación se realizó una recopilación de información sobre las semillas de calabaza y sus productos transformados, también se buscó información con enfoque a la extracción de aceites vegetales.
METODOLOGÍA
Para este trabajo se busco y recopilo información sobre las semillas de calabaza, para familiarizarnos con el tema, al finalizar se hizo un resumen con toda esta información. Como segunda etapa, se hizo la traducción de un proyecto en donde se buscó hacer una extracción de aceite vegetal de dichas semillas, así como efectuar análisis bromatológicos y fisicoquímicos a las semillas y al aceite extraído, la traducción fue hecha del idioma español al inglés, se añadió una discusión y se hizo una revisión de resultados, finalmente se le dio el formato al proyecto en forma de articulo.
CONCLUSIONES
En esta estancia de investigación se revisó la información sobre la importancia que tienen las semillas de calabaza, sus propiedades y beneficio a la salud que producen en quien las consume, podrían ser usadas como ingredientes o subproductos, además de que pueden ser consideradas como alimentos funcionales, la parte más interesante fue la metodología para la extracción del aceite, las técnicas utilizadas, así como los análisis bromatológicos y de color efectuados en semillas y en las muestras de aceites que pude aprender gracias a la información recopilada del proyecto. Este tema es de gran importancia, ya que se toma materia prima que es o era considerada como desperdicio alimenticio, y se le da una tansformación para despues poder ser usada como un subproducto.
Espinoza Montes Paola Monserrat, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Mtro. Arnulfo Cruz Garrido, Instituto Tecnológico Superior de Huauchinango
DISEñO E IMPLEMENTACIóN DE SISTEMA DE TRATAMIENTO DE AGUAS GRISES
DISEñO E IMPLEMENTACIóN DE SISTEMA DE TRATAMIENTO DE AGUAS GRISES
Espinoza Montes Paola Monserrat, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Villareal Cruz Karina, Instituto Tecnológico Superior de Las Choapas. Asesor: Mtro. Arnulfo Cruz Garrido, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Existe un problema de alcance mundial que afecta a los seres humanos, los animales, las plantas, los cultivos, es decir al planeta tierra en general y es sin duda la escasez de agua que se deriva de la contaminación. El agua puede contaminarse de diferentes formas, aunque la más común en la actualidad, es mediante descarga de agua servida (grises) o cloacas (negras) en ríos y arroyos.
Las aguas grises que desechamos se dirige al colector primario (drenaje) que se desembocan posteriormente a los ríos, lagos y mares causando contaminación y extinción de las especies que habitan en los diferentes cuerpos de agua.
En muchas ocasiones las tuberías de drenaje suelen estar fisuradas, ocasionando que las aguas filtración a los mantos acuíferos provocando una alteración de las características físicas y/o químicas y/o bacteriológicas, que al final afectan el bienestar de todas las especies.
Es importante buscar nuevas estrategias para reducir la contaminación, es necesario hacer un cambio en los hábitos
Se ha analizado el uso del agua en algunas de las actividades básicas de un hogar que consta de 6 integrantes. Para esto se tomará valores mínimos ya que el consumo de agua en estas actividades es mucho más.
PRIMERA ACTIVIDAD (LAVAR ROPA) en donde se producen aproximadamente 48 kg de ropa sucia por semana
Se es utilizada una lavadora con capacidad de 16 kg, con un minimo de 4 ciclos de lavado y que gasta 60 litros de agua por ciclo concluimos que el gasto mensual seria de 2880 Litros de agua y 1800 gr. de jabón y otro tanto de suavizante Contaminantes directos al agua
SEGUNDA ACTIVIDAD (AGUA PARA RETRETE) según los cálculos realizados suma un total aproximado de 3240 litros de agua al mes
TERCERA ACTIVIDAD BAÑARSE según los cálculos realizados suma un total aproximado de 7200 litros de agua al mes y aproximadamente 2 litros de shampoo y jabón.
CUARTA ACTIVIDAD LAVAR LOS PISOS según los cálculos realizados suma un total aproximado de 720 litros de agua al mes y aproximadamente 1 litros de jabón.
QUINTA ACTIVIDAD LAVARSE LAS MANOS según los cálculos realizados suma un total aproximado de 360 litros de agua al mes y aproximadamente 1 litros de jabón.
SEXTA ACTIVIDAD LAVAR AUTO según los cálculos realizados suma un total aproximado de 320 litros de agua al mes y aproximadamente ½ litro de jabón.
METODOLOGÍA
1. OBJETIVO GENERAL
2. RECOLECCIÓN DE INFORMACIÓN
3. DISEÑAR FILOSOFIA DE OPERACIÓN
Se diseño un sistema de tratamiento de aguas grises y se pretende que funcione en 3 diferentes etapas.
Recolección y separación de aguas por ciclo de lavado
Filtración de aguas grises
Recirculación de agua filtrada para un nuevo ciclo de lavado
4. DISEÑO DE LA PLANTA
5. JUSTIFICACIÓN
6. ANTECEDENTES
7. PRUEBAS CON FILTROS
Se construyeron y pusieron a prueba 6 filtros diferentes para hacer comparaciones y escoger un filtro que ofresca mejores resultados.
RESULTADOS
Filtro de cerámica
El agua que entro al filtro es igual al agua que salió, no hay cambios, sigue conteniendo exceso de jabón y suciedad.
Filtro de algodón, grava gruesa, arena gruesa, arena fina, tierra y carbón
El filtro es demasiado lento se obtuvo agua turbia, aun con exceso de jabón, con un ligero olor a tierra, no se obtuvo resultados favorables
Filtro de algodón y carbón
Se obtuvo agua con menos cantidad de jabón, con olor a carbón, si retuvo gran parte de suciedad, el agua se ve ligeramente blanco.
Filtro de algodón, carbón y tierra
Se obtuvo agua ligeramente turbia, con menos cantidad de jabón, con olor a tierra y carbón.
Filtro # 5: algodón, grava gruesa y grava chica
El filtro es muy rápido, pero el agua sigue siendo jabonosa y turbia con olor a jabón
Filtro de algodón, grava gruesa, carbón, cal y grava chica
Se obtiene agua clara, con una mínima cantidad de jabón, el filtro retiene la suciedad, con ligero olor a carbón, el agua se puede reutilizar sin problemas.
El filtro # 6 es que el funciono de mejor manera, los resultados son de mejor calidad y será integrado en el sistema de tratamiento de aguas grises.
8. PRUEBAS CON AGUAS GRISES PROVENIENTES DEL LAVADO DE ROPA
Se recolecto agua de 4 etapas de lavado para posteriormente filtrarlos y ver si tienen el mismo efecto con el mismo filtro # 6.
Al terminar las pruebas se comprobó que el agua de las 4 etapas de lavado tiene el mismo efecto, se obtiene agua de buena calidad para poder reutilizarla, el filtro retiene la suciedad y gran cantidad de jabón.
9. CONSTRUCCIÓN DEL FILTRO
En base a los resultados del filtro # 6 se construyó un filtro que será integrado en el sistema de tratamiento de aguas grises para llevar a cabo el proceso de filtración de aguas grises.
10. PRUEBRAS FINALES PARA VER EL FUNCIONAMIENTO DEL FILTRO
Se obtuvo buenos resultados, el agua filtrada de acuerdo a sus características puede reutilizarse para lavar ropa, el retrete, los pisos, carros, sin problema ya que la cantidad de jabón es mínima y se ve limpia, el filtro funciona bien.
CONCLUSIONES
De acuerdo a lo observado en las distintas pruebas deducimos lo siguiente:
El carbón, es un elemento clave para la filtración del agua, atrapa jabón, impurezas quita olor y sabor.
La grava gruesa captura partículas en los poros.
La grava chica captura partículas pequeñas que tenga el agua
La tierra atrapa el jabón, pero aporta olor a tierra.
El algodón: retiene elementos solidos que tenga el agua
La cal elimina parásitos y permite que el agua fluya un poco más lento en el filtro y de esta forma el proceso de filtración de mejores resultados.
En base al análisis de los resultados, el filtro #6 compuesto por grava chica, carbón, cal, grava gruesa y algodón , es el que dio mejores resultados, en calidad del agua y velocidad de filtración, es por esto que el filtro # 6 será integrado en el sistema de tratamiento de aguas grises esperando obtener un buen funcionamiento en conjunto con todos los elementos del sistema, con el fin de poder reutilizar las aguas grises en el lavado de ropa y aprovechar al máximo este recurso con la intención de reducir la contaminación del agua.
Esquivel Lazcano Carlos Valente, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)
DESARROLLO DE APLICACIóN MóVILAPLICACIóN MóVIL "GEOMETRíA PARA NIñOS" DIRIGIDA A PROMOVER LA EXPERIENCIA DE APRENDIZAJE EN NIñOS
DESARROLLO DE APLICACIóN MóVILAPLICACIóN MóVIL "GEOMETRíA PARA NIñOS" DIRIGIDA A PROMOVER LA EXPERIENCIA DE APRENDIZAJE EN NIñOS
Esquivel Lazcano Carlos Valente, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Hector Cardona Reyes, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Estudios recientes del INEE, que consistieron en encuestar a los mexicanos sobre que materias que fueron las mas difíciles, podemos observar que su conlcusión es: "la mayoría de los mexicanos tuvo problemas con las matemáticas."
El 67% de los usuarios encuestados dicen que durante la infancia no lograron comprender esta ciencia y al pasar el tiempo, (en la vida adulta) el 45% no logra apreciarla.
Es por ello que el desarrollo de la aplicación se enfoca en promover la expreriencia de aprendizaje en niños, en el ámbito de la geometría. Esto al ser una rama de las matemáticas que creémos puede ser atractiva para los más chicos.
METODOLOGÍA
El modelo de cascada, También llamado "Ciclo de vida básico" o "Modelo de cascada" tiene su origen en el "Modelo de cascada" ingeniado por Winston Royce, es el más básico de todos los modelos y ha servido como bloque de construcción para los demás paradigmas de ciclo de vida, hace referencia a un procedimiento secuencial que permite representar un proyecto en base a unas fases que se suceden entre sí.
1) Definción de requerimientos
2) Análisis y diseño del software
3) Implementación y Codificación
4)Integración y verificación del sistema
5)Operación y Mantenimiento
CONCLUSIONES
El uso de la aplicación facilitará al usuario interesado en el estudio de la álgebra una mejor interacción, fortalecimiento e intervendrá en la mejora de conocimiento de la rama ya que el e-learning crea nuevos espacios virtuales de enseñanza-aprendizaje.
Fajardo Galindo Jair Uriel, Instituto Tecnológico Superior de Venustiano Carranza
Asesor:Dr. Eduardo Raymundo Garrido Ramirez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
INNOVACIÓN Y DESARROLLO DE FRUTA CRISTALIZADA, MERMELADA Y GOMITAS A BASE DE YACA (ARTOCARPUS HETEROPHYLLUS LAM).
INNOVACIÓN Y DESARROLLO DE FRUTA CRISTALIZADA, MERMELADA Y GOMITAS A BASE DE YACA (ARTOCARPUS HETEROPHYLLUS LAM).
Fajardo Galindo Jair Uriel, Instituto Tecnológico Superior de Venustiano Carranza. Asesor: Dr. Eduardo Raymundo Garrido Ramirez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
El cultivo de yaca es de gran importancia económica para los productores de Ocozocoautla de Espinoza, Chiapas, sin embargo, su producción se ha visto afectada por la presencia de diferentes fitopatógenos y su producción es minoritaria. El presente proyecto interrelaciona el sector productivo y el social, de tal manera que el resultado que se produzca de incrementar la riqueza no solo este basado en la explotación de un recurso natural sino también en la utilización y manejo de las habilidades de una población, basándonos en la transformación e industrialización de sus productos naturales, para que contengan valor agregado, por ello es que se trabajará con el fruto conocido como yaca.
METODOLOGÍA
Fase 1: Recolección y despulpado de la fruta
Para la recolección de fruta se realizaron recorridos en la parcela del productor Sra. Genoveva Isabel Leyva Mejía, ubicada en la colonia Gavilán, municipio de Ocozocoautla de Espinosa, Chiapas, donde se seleccionaron frutos con características específicas.
Se selecciona un fruto verde que cumpla con el tamaño requerido, para posteriormente otorgarle un proceso de almacenamiento, para ello se utiliza 1 o 2 capas de papel periódico para envolver la fruta (según el tamaño de la yaca) y se procede a almacenar de 4 a 7 días en gavetas con poca luz solar, a temperatura ambiente (verificar el estado de madurez de la fruta).
Se procedió a obtener la pulpa haciendo un corte a lo ancho, por la mitad de la fruta entera, una vez que se realizó el corte, de forma manual se retiró la pulpa de los anillos y posteriormente se le quito la semilla.
Fase 2: Elaboracion de productos a base de yaca
Yaca cristalizada
Procedimiento:
Se coloca en un recipiente una solución de 50 g de cal por cada litro de agua, se agrega 1 kg de pulpa, se deja reposar mínimo 12 horas, máximo 1 día. Luego se saca la fruta de la solución antes mencionada, se lava perfectamente y se pica con un tenedor, se pone a hervir durante 10 minutos en agua simple para retirar el exceso de cal. Preparar el jarabe con el 666 mL de agua y 666 gr de azúcar, dejar que hierva, agregar la fruta que se dejó reposar en cal y posteriormente se lavó, mover un poco para evitar que se pegue a las paredes de la olla, cuando llegue al punto de hervor, dejarla hervir por 2 horas. Retirar del fuego, dejar en reposo durante 12 horas. Transcurrido el tiempo de reposo, colocar la fruta en el fuego y poner a hervir hasta que el jarabe se seque o la fruta quede transparente. Retirar del fuego, extraer la fruta y dejar secar. Empacar y etiquetar.
Mermelada de yaca
Procedimiento:
Se inició lavando 1 kg de pulpa de yaca con agua de garrafón (al lavar la fruta se elimina cualquier tipo de partículas extrañas, suciedad, resina y restos de tierra), dejar escurrir. Posteriormente se licuan 600 gr de la fruta con 250 mL de agua y 400 gr restante se tritura. En la olla se colocan 250 mL de agua y 300 gr de azúcar para realizar un jarabe. Se coloca en el fuego hasta que se derrita toda la azúcar. Después de obtener el jarabe se agrega la pulpa molida a la olla con jarabe aun en el fuego, con ayuda de una cuchara se integra bien y luego se añade la fruta triturada, se mezcla y se deja cocer un poco. Posteriormente agregamos 1 gr de ácido cítrico, mezclamos bien. Agregamos 6 gr de pectina y con ayuda de una cuchara integramos. Agregamos poco a poco el azúcar restante con un refractómetro tomamos los grados Brix que tienen que ser igual a 65°. Mezclamos. Retiramos del fuego y dejamos enfriar un poco. Envasamos, sellamos a vacio y etiquetamos.
Gomitas de yaca con chamoy
Procedimiento:
Se realizó el extracto de yaca agregando 750 mL agua y 1 kg de pulpa, se licua hasta tener una mezcla completamente homogénea, se filtra con ayuda del tamiz. De la mezcla filtrada solo se requiere 1 L. Reservar. En un vaso se agregan 50 mL agua y los 100 gr de grenetina para hidratarla, se deja reposar por 10 minutos. Se colocó la olla en el fuego y se le agrego 1 L de extracto de yaca con 250 gr de azúcar, se mezcla hasta el azúcar se disuelva por completo. Una vez que se tenga ejecutada la mezcla anterior se procede a licuar, agregar 100 gr de fécula de maíz y la grenetina hidratada. Licuar hasta obtener una mezcla homogénea. Posteriormente se vierte la mezcla de la licuadora en la olla de aluminio y se coloca a fuego por 5 minutos. Retirar la olla del fuego, dejar enfriar un poco. Mientras se enfría la mezcla, los moldes se humectan con ayuda del aceite en spray. Una vez que se enfrió nuestra mezcla se vacía aproximadamente 3/4 en los moldes. Se meten a refrigeración por aproximadamente 30 minutos. Cuando falten aproximadamente entre 5 a 10 minutos para sacar las gomitas del refrigerador, se procede a preparar la mezcla de chamoy agregándolo a la licuadora con 50 gr de grenetina hidratada y 50 gr de fécula de maíz. Posteriormente la mezcla se coloca en una olla y se pone a fuego lento. Retirar del fuego y dejar enfriar. Se procede a retirar las gomitas del refrigerador y se le agrega la mezcla de chamoy, se regresa al refrigerador por 30 minutos. Retirar las gomitas del refrigerador, dejar reposar unos 5 minutos, desmoldar y colocar las gomitas en su empaque. Etiquetar.
Fase 3: Evaluación organoléptica
Se realizó una evaluación organoléptica con 20 personas voluntarias de diferentes edades para saber el grado de aceptación de nuestros productos, para lo cual se requirió hacer la encuesta mediante un test con 4 escalas diferentes evaluando el color, olor, sabor y textura.
CONCLUSIONES
La innovación es particularmente un resultado novedoso, diferente, que es un producto de capacidad creativa y analítica de un individuo, con lo que se busca generar cambios de valor para la sociedad y que estos cambios pueden darse en un producto de consumo humano.
Para realizar nuestros productos requerimos de procesos dinámicos que se caracterizan por ser continuos y adaptivo a las necesidades de nuestro proyecto.
Los diferentes productos analizados por medio de la prueba de análisis sensorial, podemos concluir que es un producto aceptado por la población.
Nuestros resultados fueron mayores al 75% de aceptabilidad en todos nuestros productos, los cuales cumplieron con características de inocuidad, además de visuales y sensoriales.
Se pudo evidenciar que no hay en existencia negocios que hagan los mismos a base de yaca, ya que los consumidores no reconocieron los sabores rápidamente por lo tanto hay mucho mercado por explotar.
Federico Gutiérrez Sergio Octavio, Universidad de Sonora
Asesor:Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
EVALUACIóN DE LOS PARáMETROS FISICOQUíMICOS EN EL VERTIMIENTO DE UNA PLANTA PILOTO DE TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS
Castro Solarte Yolimar, Universidad Autónoma de Occidente. Escobar Martínez Maximiliano, Universidad de Sonora. Federico Gutiérrez Sergio Octavio, Universidad de Sonora. Asesor: Dra. Maria de Lourdes Saldaña Blanco, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Actualmente la contaminación ocasionada por el vertimiento de las aguas residuales domésticas hacia las aguas superficiales (principalmente ríos) en los países como México y Colombia, ha sido un tema que ha comenzado a afectar a muchas comunidades en los últimos años por la falta de saneamiento básico, ocasionada por las irregularidades en los vertimientos de aguas residuales, y la carencia en el análisis de los parámetros fisicoquímicos en las plantas de tratamiento de las aguas residuales, y la flexibilidad presente en algunos apartados de la normatividad.
El análisis de los parámetros fisicoquímicos aplicados en la inspección de calidad de aguas residuales domésticas después de su tratamiento constituye una herramienta fundamental para la evaluación de aguas superficiales, de la eficiencia de plantas de tratamiento de aguas residuales y el modelaje predictivo de la calidad de agua, que pueda llegar a perjudicar la vida acuática del cuerpo de agua receptor y del ecosistema en general.
Se considera de vital importancia sanitaria dar a conocer, de manera clara y concisa, los parámetros fisicoquímicos básicos para la evaluación del agua residual doméstica en su vertimiento hacia aguas superficiales, mostrando a la vez un análisis que muestre algunas relaciones entre ellos a lo largo del tiempo.
METODOLOGÍA
Se comenzó con exponer brevemente al lector el significado de las aguas residuales, así como su clasificación (domésticas e industriales), de tal modo que de acuerdo con las primeras investigaciones recopiladas, se buscó hacer un análisis de aguas residuales domésticas, no olvidando redactar y presentar los conceptos clave, como lo son los parámetros fisicoquímicos que determinan su calidad. Dichos parámetros nos ofrecen un mejor panorama de la naturaleza física y química del agua, por lo que existen una gran variedad de parámetros, sin embargo, hemos decidido considerar los siguientes para su desarrollo: Temperatura, turbidez, pH, fosfatos, ST (Sólidos Totales), SST (Sólidos Suspendidos Totales), SDT (Sólidos Disueltos Totales), NAT (Nitrógeno Amoniacal Total), DBO5 (Demanda Bioquímica de Oxígeno a los cinco días de incubación), DQO (Demanda Química de Oxígeno) y OD (Oxígeno Disuelto)
En cada uno de los parámetros señalados anteriormente se buscó definir: su significado, el significado de sus valores y la importancia que tienen en el análisis de aguas.
Adicionalmente, investigamos las técnicas de muestreo simple y compuesta, que son de las más utilizadas en la evaluación de dichos parámetros fisicoquímicos, de tal modo que cada una nos presenta ciertas ventajas, desventajas y usos distintos.
Por otro lado, se buscó complementar la información dirigida a los parámetros fisicoquímicos con su regularización dentro de la normativa mexicana y colombiana, en la cual se logró detectar los límites máximos permisibles presentes en el vertimiento puntual de aguas residuales domésticas hacia cuerpos de aguas superficiales a través de los sistemas de alcantarillado urbano o municipal:
En México, investigamos las Normas Oficiales Mexicanas (NOM) de la Secretaría de Medio Ambiente y Recursos Naturales (SEMARNAT) que se aplican a los casos de aguas residuales. En Colombia, revisamos las normas establecidas por el Ministerio de Ambiente y Desarrollo Sostenible dentro de la resolución 631 del 2015.
Además, se nos proporcionó una base de datos recolectada en un periodo de un año, los datos corresponden al afluente y efluente de una planta piloto de aguas residuales domésticas, la cual funcionaba por medio de un sistema biológico híbrido de crecimiento en suspensión y crecimiento adherido, ubicada en un sector de la ciudad de Cali, Colombia. A esta base de datos, aplicamos un análisis descriptivo a partir de la literatura consultada.
CONCLUSIONES
En el análisis descriptivo de la base de datos de la planta piloto de Colombia, el sistema de tratamiento arrojó una DQO promedio mensual de 36 mg/l, un máximo mensual de 62 mg/l y un mínimo mensual de 15.20 mg/l, reduciendo la materia orgánica presente en el efluente de la planta piloto, teniendo un porcentaje de remoción mayor a 52% de la DQO en función del objetivo de calidad que establece la resolución 631 del 2015 en Colombia para cargas menores o iguales a 625 kg DBO5 por día. A partir de datos de la DQO fue posible calcular la DBO5, la cual a la salida tiene un valor promedio mensual de 16.96 mg/l, un valor máximo mensual de 29,81 mg/l y un valor mínimo mensual de 7.31 mg/l, alcanzando una eficiencia mayor al 50% de remoción de acuerdo con el objetivo de calidad establecido en la resolución 631 del 2015 la DBO5 debe ser de 90 mg/l a la salida de la planta de tratamiento de aguas residuales.
Además, se estableció la relación de biodegradabilidad de la materia orgánica, donde DBO5/DQO obtuvo un valor de 0.5. Indicando que el 50% de la materia orgánica es biodegradable, por lo cual se valida la utilización del tratamiento biológico de agua residuales, utilizado en la planta piloto con tratamiento híbrido de crecimiento adherido y en suspensión.
Los resultados evidencian la reducción de la materia orgánica presente en el agua residual, sin embargo, el vertimiento se realiza con un grado aceptable de indicio de contaminación, por parte de los NO3 arrojó un promedio mensual de 8 mg/l, un máximo mensual de 13 mg/l y un mínimo mensual de 3 mg/l. Por lo tanto, se recomienda la recuperación de nutrientes para reusó agrícola, o la incorporación de un tratamiento más avanzado (terciario o cuaternario) que permita la degradación del contenido de nitrógeno presente en forma de nitratos.
Felix Alba Silvestre, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Lloyd Morris Molina, Universidad Católica de Pereira
ACCIONES PARA EL FORTALECIMIENTO DE LA COMPETITIVIDAD EN INICIATIVAS CLÚSTER, MEDIANTE LA UTILIZACIÓN DE LA ADMINISTRACIÓN DE OPERACIONES
ACCIONES PARA EL FORTALECIMIENTO DE LA COMPETITIVIDAD EN INICIATIVAS CLÚSTER, MEDIANTE LA UTILIZACIÓN DE LA ADMINISTRACIÓN DE OPERACIONES
Felix Alba Silvestre, Tecnológico de Estudios Superiores de San Felipe del Progreso. Marín Velásquez Eliana Salomé, Universidad Autónoma de Manizales. Asesor: Dr. Lloyd Morris Molina, Universidad Católica de Pereira
PLANTEAMIENTO DEL PROBLEMA
La competitividad indica cómo se han de administrar los recursos de las empresas, para maximizar su productividad y hacer frente a las exigencias de un mercado cambiante sujeto a procesos de globalización y expansión de las empresas.
La Secretaría de Planeación Departamental de la Gobernación de Risaralda en su Visión 2032, plasmados en el Plan Regional de Competitividad (PRC), por medio de los análisis propuso que la región del Eje Cafetero conformada por Risaralda y otros departamentos amerita encontrar una dinámica económica significativa, razón por la cual el enfoque del gobierno regional es hacia el desarrollo endógeno para el
mejoramiento de las capacidades regionales y la consolidación del clúster
Metalmecánica-Turismo-Agroindustria
El mayor reto de este proyecto es ayudar al fortalecimiento de las actividades realizadas por las MiPymes de Risaralda para formar una proyección creciente de competencia y apogeo a nivel departamental estableciendo técnicas de pronósticos y planeación agregada que capten las necesidades del sector empresarial y que logren la relación entre industria y academia con el objetivo de garantizar un enriquecimiento mutuo que permita la generación de ideas y el alcance de objetivos.
METODOLOGÍA
Este estudio fue realizado en el marco del proyecto: Acciones para el fortalecimiento de la competitividad en MiPymes - Risaralda, mediante la utilización de la administración de operaciones, proyecto financiado por la Universidad Católica de Pereira; el cual, tiene como objetivo el desarrollo del módulo de operaciones en software empresarial que contenga los tópicos de Pronósticos y Planeación Agregada; también enfatiza en la necesidad de realizar un contacto con el sector empresarial para la realización de entrevistas para conocer la manera en la que realizan su proceso productivo.
Para la realización del módulo de operaciones en software empresarial, se efectuó una revisión bibliográfica sobre los tópicos Pronósticos y Planeación Agregada en diversas herramientas de búsqueda de información como: Science Direct, Redalyc, Scielo, Jstor, Google Scholar. La información adicional fue encontrada en los recursos bibliográficos de la biblioteca de la Universidad Católica de Pereira. La información recolectada en la búsqueda se utilizó para un artículo de revisión y el modelo se efectuó el lucid chart con formato preguntas con de objetivo de generar un proceso adecuado para cada una de las empresas.
Para el contacto con el sector empresarial, se realizaron contactos vía telefónica a la Base de Datos entregada por la Cámara de Comercio de Dosquebradas compuesta por múltiples empresas de los sectores de: Alimentos, Metalmecánicos, Confección, Muebles, Eléctricos, entre otros, con el objetivo de solicitar un espacio presencial, virtual o telefónico para la realización de la guía de entrevistas aprobada por parte del comité técnico del proyecto que contenía 6 diferente tópicos que permitirán mostrar de forma clara la manera en la que los empresarios realizaban sus procesos productivos. El análisis de datos se generó por medio de una matriz que permitió hacer seguimiento a las respuestas de las empresas y que es la base para la realización de los artículos de revisión.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos que permiten la implementación de los tópicos de Pronósticos y Planeación Agregada en MyPimes, siendo un factor de suma relevancia para las profesiones de los pasantes. A su vez, se generaron modelos interesantes que permiten acercar el conocimiento técnico de la académica con la experiencia adquirida en algunos casos de manera empírica que poseen las MyPimes de Dosquebradas de los distintos sectores productivos.
Para el artículo de revisión realizado sobre Planeación Agregada se revisaron 53 artículos que poseen relación con el tema. La construcción del articulo está en curso y se considera un aporte fundamental para la investigación de este tópico.
El modelo de planeación agregada se efectuó con base en la revisión de la literatura y teniendo como referencia las encuestas realizadas con el objetivo de generar un modelo que se acerque a las necesidades de los empresarios, se tuvo en cuenta, los espacios con los que cuentan en la empresa, tanto para el posible almacenamiento de producto terminado (cambiar niveles de inventario), como para la colocación de nuevos puestos de trabajo (trabajadores a tiempo parcial). Los intereses del sector relacionados con la intención de despedir o contratar colaboradores, teniendo en cuenta la dificultad para la consecución de mano de obra (variar el tamaño de fuerza laboral), entre otros aspectos que permiten realizar un modelo que se acerque a las necesidades y entendiendo las limitaciones de las MiPymes.
En el acercamiento con las empresas pudimos observar discrepancias entre la Base de Datos emitida por la Cámara de Comercio de Dosquebradas y la realidad; inicialmente se contaba con 282 registros, de los cuales después de eliminar los repetidos, las empresas cerradas y trasladadas a otros departamentos, se logró observar que se generó un descenso de 17,73% ocasionando que la población de empresas sea 232 y que los tamaños de muestra varíen. Se hicieron 216 llamada y se entrevistaron 25 empresas de los sectores de Alimentos, Confección, Metálicos y Muebles de las 55 que se habían proyectado hacer durante todo el proyecto, por lo cual este resultado puede evidenciar que se obtuvo un gran avance que permitió tener un cumplimiento de 45,45% en las encuestas a realizar y de 93,10% en las llamadas a realizar.
Fernández Domínguez Jorge Jared, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
DETERMINACIóN Y OPTIMIZACIóN DE LA EFICIENCIA DE UN AEROGENERADOR DE USO RESIDENCIAL
DETERMINACIóN Y OPTIMIZACIóN DE LA EFICIENCIA DE UN AEROGENERADOR DE USO RESIDENCIAL
Fernández Domínguez Jorge Jared, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
PLANTEAMIENTO DEL PROBLEMA
Un aerogenerador casero es un sistema capaz de generar energía eléctrica a partir del aprovechamiento de la energía eólica, actualemente los hay de distintas configuraciones tanto en álabes como en la diposición de los ejes, con esto se ha buscado ser más eficientes, en el presente trabajo se plantea una propuesta para incrementar la eficiencia en álabes caseros sin comprometer la estructura, resistencia y costos.
METODOLOGÍA
El presente proyecto consiste en una propuesta de álabes paa un aerogenerador doméstico con la firme intención de incremetar su eficiencia, para ello seguimos la siguiente metodología:
Digitalización de los álabes del aerogenerador propuesto para su simulación de acuerdo a condiciones experimentales de velocidades de viento. En esta actividad se tomó como modelo los álabes de un aerogenerador casero, el cual se digitalizó y se sometió a velocidades de viento experimentales para registrar el comportamiento y posteriormente la eficiencia de conversión.
Análisis de geometrías propuestas de álabes para mejorar la eficiencia del aerogenerador. Una vez que se obtuvieron datos del comportamiento del aerogenerador digitalizado se analizaron diversas configuraciones geométricas de álabes para definir la más adecuada.
Digitalización de propuestas geométricas seleccionadas. Una vez definida la geometría del álabe, se digitalizó y se ajustaron los cambios al álabe que se tomó como base y adecuando la configuración al nuevo aerogenerador.
Determinación de eficiencia de propuestas geométricas seleccionadas bajo las mismas condiciones experimentales.
CONCLUSIONES
En la presente investigación se ha logrado desarrollar un prototipo de alabe teóricamente funcional y mejorado que el alabe inicial, en el cual se realizaron análisis empleados en software AutoCAD para la digitalización y NX en la simulación, los datos geométricos, fuerzas de fricción, se consideraron bajo condiciones experimentales.
El rendimiento del aerogenerador para convertir energía eólica en energía mecánica rotacional va a depender de la velocidad del viento, en los análisis se usaron condiciones normales de presión y temperatura.
Fernandez Iturralde Adolfo, Universidad Autónoma de Sinaloa
Asesor:Mtra. Irma Ramírez Ramírez, Universidad Autónoma de Baja California
CUANTIFICACIÓN DE LA INCERTIDUMBRE PARA UNA TÉCNICA DE ESTIMACIÓN DEL RUIDO
CUANTIFICACIÓN DE LA INCERTIDUMBRE PARA UNA TÉCNICA DE ESTIMACIÓN DEL RUIDO
Fernandez Iturralde Adolfo, Universidad Autónoma de Sinaloa. Asesor: Mtra. Irma Ramírez Ramírez, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El principal inconveniente de la DE es la degradación de la precisión de detección en presencia de incertidumbre del ruido, es decir, una variación aleatoria e inesperada en la potencia del ruido (Loringcz, Ramljak y Begu, 2019). La susceptibilidad de la ED a la incertidumbre del ruido puede reducirse mediante el ajuste del umbral de detección de tal manera que se pueda adaptar a las variaciones en la potencia del ruido.
La selección adecuada del umbral de ED puede brindar protección a la transmisión del operador establecido al reducir las detecciones erróneas y también mejorar el uso del espectro al identificar de manera eficiente las oportunidades de uso del espectro. Para adaptar el umbral de detección al entorno de radio actual, es necesario estimar con precisión y fiabilidad la potencia del ruido durante cada proceso de detección. Para lograr eso, se necesitan nuevos métodos o técnicas para proporcionar una estimación más precisa del nivel de ruido durante el proceso de ED.
METODOLOGÍA
Caracterización de la técnica: La caracterización de la técnica se realizó con los valores propuestos en la literatura para obtener la información sobre los parámetros operativos, identificación de etapas, variables y su rango.
Análisis de incertidumbre: el análisis de incertidumbre ayuda a reducir la propagación del error. Sabiendo esto, es posible mejorar la estimación ya que será posible identificar la variable o variables que tienden a incrementar el error.
Propagación del error: La propagación del error es simplemente el proceso de determinar la incerteza de un cálculo que se basa en una operación. Por ejemplo, en el laboratorio se miden el tiempo y el desplazamiento para poder calcular la velocidad de un objeto. Debido a que ambos, distancia y tiempo, se miden con un cierto grado de incertidumbre, afectará la respuesta final
Propuesta de modificación: Propuesta de mejora de la técnica estudiada para su aplicación en un entorno radio cognitivo.
Implementación y evaluación de la propuesta: a Identificar si la mejora en la técnica logra las características ideales para solucionar el problema
CONCLUSIONES
Debido a lo anterior, el producto final es un análisis de incertidumbre para evaluar la calidad de la técnica de estimación con la finalidad de cuantificar la imperfección del método e instrumento utilizado.
Fernandez Mejia Aliana Esther, Universidad de la Costa
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y ELABORACIóN DE PROTOTIPO DE BLOCK ECOLóGICO, CONSTRUIDO CON FIBRAS NATURALES DE BAGAZO DE CAñA DE AZúCAR Y PET TRITURADO.
DISEñO Y ELABORACIóN DE PROTOTIPO DE BLOCK ECOLóGICO, CONSTRUIDO CON FIBRAS NATURALES DE BAGAZO DE CAñA DE AZúCAR Y PET TRITURADO.
Fernandez Mejia Aliana Esther, Universidad de la Costa. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Uno de los factores que afectan cada día más a la población es la contaminación ambiental y el exceso de desechos. Los cuales muchas de las cosas que consideramos basura, pueden ser hoy día el futuro de muchos proyectos; ‘Según estudios realizados por el Ministerio de Ambiente y Desarrollo Sostenible se encontró que Colombia generaba, aproximadamente 9.488.204 toneladas al año de residuos sólidos, de las cuales son recicladas 1.775.191 toneladas, de las cuales se utilizó un 48% de material reciclado en la fabricación de papel, respecto al total producido (Andi, 2012). De manera similar, la empresa de vidrios Peldar declaró que utilizó 30% de vidrio reciclado en la fabricación de sus nuevos productos, para ello tomó un 4% de vidrio reciclado comprado de la calle y procesado en la planta de lavado de la compañía. Kenji Doku. (2015). Y esto es solo una muestra de que no todo lo que se desecha es basura, en sinónimos esto es la materia prima para realización de nuevos elementos.
Como ingenieros civiles en formación reconocemos que muchos de los materiales utilizados para la construcción no son reciclables ni económicos, Y ante las exigencias del mundo de hoy, es necesario conocer: ¿Qué materiales de construcción pueden desarrollarse en Barranquilla con el fin de garantizar una sostenibilidad en viviendas rurales de estrato 1 utilizando elementos reutilizables?
Es por ello por lo que la nueva generación de civiles dedicados al campo de la construcción, deben abordar nuevos métodos que permitan no solo el desarrollo de una región; sino prevaler por los recursos que en ella se encuentran, utilizando elementos alternos que de la misma manera posibiliten el proceso. Una de estas es la polución del plástico cuya creación y producción desmedida ha llegado a sus extremos. Por ello debemos tomar ese aspecto negativo a nuestro favor e invertir en el hasta disminuir sus consecuencias medioambientales convirtiéndolo en algo útil para el proceso de construcción; pues además de convertirse en una materia prima renovable, y tecnificada es económica y admisible para su utilización en la elaboración de bloques ecológicos aligerados.
METODOLOGÍA
El desarrollo de esta investigación plantea una metodología experimental de tipo cuantitativo, ya que el proyecto se considera viable de acuerdo con las variables establecidas para su regulación. A partir de las investigaciones revisadas durante este verano de investigación se encontró que las fibras naturales de caña azúcar poseen mejoras en las propiedades mecánicas del hormigón; las cuales recomiendan incluirlas en elementos prefabricados livianos como el propuesto, motivo por lo cual se decide agregar este material como parte del reemplazo del agregado del bloque.
Recolección de materiales:
PET: campañas de reciclaje en el municipio de santo tomas, tratamiento, limpieza y triturado.
Caña de azúcar: Recolección de la caña cada dos o tres días para su posterior tratamiento ya sea con inmersiones en cal o agua continua por 48 horas, secado natural y triturado en mechas de 1 y 2 pulgadas.
Diseño de mezclas
Se realizarán tomando como referencia la metodología ACI, para obtener un concreto de resistencia de 3000 Psi Utilizando Cemento Portland Puzolánico Tipo I, para el cual se tomara como referencia un reemplazo del 0,6% del agregado con caña de azúcar Huertas Alarcón, L., & Martinez Celis, P. (2019). Y porcentajes del 10%, 20% y 25% de PET. Piñeros Moreno, M., & Herrera Muriel, R. (2018). Los cuales a partir de la revisión bibliografía se identificaron como los recomendados para su aplicación en mezclas modificadas demostrando ser aceptables bajo los requerimientos que exige la normativa.
Moldes y vaciado
Se elige por molde el estandarizado por la ASTM C90-85 con dimensiones de 40x20x10 cm alivianado.
Plan de análisis e interpretación de resultados.
Se realizará de manera cuantitativa, a través de la verificación del cumplimiento de los requerimientos que exige la normativa colombiana para este tipo de elementos de construcción. Los cuáles serán determinados a partir de ensayos mecánicos y físicos de los mismos. La normativa por la cual se regirá esta investigación será la siguiente:
NSR 10
NTC 4076
NTC 4205-2
NTC 4205
NTC 6033
Población y muestra.
La población y la muestra serán las mismas. Por lo que propone elaborar (15) muestras por dosificación de PET, para tener un total de (45) especímenes entre ellos incluidos las muestras de control.Se recomendaría elaborar (2) muestras adicionales ante posibles eventualidades en el proceso de elaboración, curado y ensayo.
CONCLUSIONES
Debido a las circunstancias de la pandemia Covid 19 y las restricciones que se tienen en las universidades, no se logró elaborar el prototipo planteado. Por lo cual se deja esta investigación de manera teórica con el propósito de darle continuidad.
Para lo cual inicialmente se propone la gestión de recolección y tratamiento de los materiales (PET, y caña de azúcar) a través de los mecanismos planteados en el protocolo de esta investigación, que permitan el desarrollo de esta y el producto esperado junto con su validación como elemento apto para la construcción; A través de las pruebas mecánicas de los bloques en los tiempos que se requieren 7, 14 y 28 días, las cuales determinaran el valor de la resistencia a la compresión y por ende su aprobación para uso en viviendas en zonas rurales del Municipio de Santo Tomas - Colombia.
Los resultados que se esperan obtener de las pruebas y la caracterización del bloque serán los siguientes todos descritos según la normativa NTC 4026 y NTC 4076:
Densidad.
De peso liviano, con una densidad de menos de 1680 kg/m3.
De peso mediano, con una densidad entre 1680kg/m3 y menos de 2000kg/m3
Clasificación
Bloque estructural:(Rc28) B,(Anp)
Baja 7 Mpa
Alta 11 Mpa
Bloque no estructural: (Rc28), (Anp)
Baja 5 Mpa
Se espera que el bloque elaborado sea aligerado respecto a los encontrados en el mercado, y que además clasifique para ser un bloque de tipo estructural o de diseño; bajo las normativas revisadas en esta investigación.
Fernández Mendoza Pedro Enrique, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato
ESTUDIO COMPARATIVO DE UN SISTEMA DE CALEFACCIóN ELéCTRICO Y UN SISTEMA BIOCLIMáTICO PARA GRANJAS PORCíCOLAS
ESTUDIO COMPARATIVO DE UN SISTEMA DE CALEFACCIóN ELéCTRICO Y UN SISTEMA BIOCLIMáTICO PARA GRANJAS PORCíCOLAS
Fernández Mendoza Pedro Enrique, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Santiago Gutierrez Vargas, Universidad Politécnica de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
Actualmente la población en el mundo está creciendo de una manera inimaginable provocando que el consumo energético aumente acelerando el cambio climático por el uso de combustibles. (Bakirtas T, 2018) Los combustibles fósiles han aumentado su demanda conforme pasan los años reduciendo las reservas de estos mismos. Por tanto, investigadores hoy en día se encuentran enfocados hacia el desarrollo de energías alternativas que puedan reducir la dependencia en recursos no renovables. Dentro de estos usos se encuentra la biomasa en el sector de las granjas porcícolas mismas que necesitan fuentes de energía para la conservación de las condiciones ambientales optimas o de confort para el desarrollo del ganado.
Actualmente la demanda energética en el sector porcino ha sido un gran problema dado que una tercera parte de la energía utilizada en las explotaciones de producción de lechones se gasta en mantener las temperaturas óptimas en el área de maternidad. La siguiente investigación se propone con el fin de detallar las características de 2 diferentes tecnologías energéticas aplicadas a las granjas porcícolas, las cuales servirán como punto de partida para hacer una comparativa de las mismas.
El objetivo general de este trabajo fue el determinar la factibilidad técnica y económica de un sistema eléctrico por calefacción y un sistema bioclimático de calefacción con la hipótesis de si al hacer el cambio a un sistema bioclimático se logra un ahorro en gasto al año, por lo cual el trabajo fue dividido en 4 objetivos los cuales fueron: El análisis de la factibilidad energética entre ambos sistemas, análisis de la vida útil de los materiales de cada sistema, comparación de factibilidad económica y la realización de un análisis FODA.
METODOLOGÍA
Para la factibilidad energética fue necesario el calcular el gasto de cada uno de los sistemas, el sistema eléctrico emplea focos infrarrojos de ciertos Watts para brindar calor en una superficie donde los lechones se dirigirán cuando busquen calor y el consumo esta determinada por las estaciones del año donde en invierno estuvieron durante 24 horas en uso y en las demás estaciones 12 horas. El análisis se realizó con 3 opciones de focos de diferentes Watts: 100, 120 y 175 por lo que realizando el cálculo de consumo al año se obtuvo 546,655.2 y 955.5 kW respectivamente por cada foco utilizado, debido a que la granja contiene 5 vientres con 1 foco cada uno este consumo es 5 veces mayor: 2730, 3276 y 4777.5 kW. Por otro lado, el sistema bioclimático trabajó con un flujo constante de 0.02748 kg/s de aire caliente el cual al transformarlo y multiplicarlo por las horas de consumo se obtuvo un consumo energético de 2293.2 kW al año.
Para la Vida útil del sistema eléctrico los focos ofrecen según el fabricante 1000 horas lo cual de las horas totales de consumo en un año (5460) nos lleva a obtener que por vientre son necesarios 6 focos al año y 30 focos por los 5 vientres. Para el caso del sistema bioclimático lo constituye un intercambiador de calor y un sistema de tuberías de lámina galvanizada que se estima duren 15-25 años y el intercambiador con una vida útil de 20 años aproximadamente donde funcionara óptimamente y tiempo después no ofrecerá el mismo rendimiento.
Al realizar el cálculo de la TIR y VAN fue necesario obtener los gastos que se tienen al año en un sistema eléctrico y la inversión inicial de la instalación del sistema bioclimático a manera de poder conocer si el proyecto resulta rentable o no, se realizó con un plazo de 5 años. La inversión inicial contempla el intercambiador de calor, el sistema de tuberías, las lechoneras y el recubrimiento o aislante con un total de 55750 aproximadamente.
Para el caso del análisis FODA es necesario identificar fortalezas, oportunidades, debilidades y amenazas de cada uno de los sistemas representándolo en una tabla para poder llevar a cabo una comparación, ya que muchas de las fortalezas de un sistema terminan siendo las debilidades del otro y viceversa, para el área de amenazas y oportunidades son un enfoque a futuro por lo que se tiene que visualizar en un futuro que es lo que, en el caso de las oportunidades representa elementos potenciales de crecimiento o mejoría o en caso de amenazas representan fuerzas o aspectos negativos y problemas potenciales.
CONCLUSIONES
Partiendo de la hipótesis planteada al inicio del trabajo fue posible concluir que se logró un ahorro en gastos económicos y energéticos al año con respecto a ambos sistemas.
Suponiendo entonces un cambio de todo el sistema de calefacción bioclimático en 20 años después de su puesta en marcha se hizo la comparativa de la cantidad de focos empleados en ese tiempo frente a un sistema bioclimático donde en los 20 años de duración del intercambiador y el sistema de tuberías se consumen 600 focos.
En los cálculos del TIR y VAN se hizo la comparativa de pasar de un sistema eléctrico a uno bioclimático esto con cada uno de los focos ya que los flujos varían dependiendo el foco y su potencia. Se pudo concluir que la opción más viable fue el cambio de un sistema eléctrico con focos de 175 W a un sistema bioclimático, esto con la TIR y VAN respectivamente, ya que el ahorro que se produjo es mucho mayor en comparativa con los otros sistemas.
Cuando se tomaron las opciones del análisis FODA fue posible ver que las oportunidades del sistema eléctrico son muy poco probables y no lograrían un gran cambio logrando ofrecer mejores resultados que con el sistema bioclimático, por otro lado, las amenazas a las que se enfrentó el sistema eléctrico actualmente son muy latentes donde se encuentra la implementación de energías renovables.
Fernández Nava Sonia Leticia, Instituto Politécnico Nacional
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA PARA LA LECTURA Y VISUALIZACIÓN DE MÚLTIPLES SENSORES EN UNA INTERFAZ GRÁFICA
DISEÑO E IMPLEMENTACIÓN DE UN SISTEMA PARA LA LECTURA Y VISUALIZACIÓN DE MÚLTIPLES SENSORES EN UNA INTERFAZ GRÁFICA
Fernández Nava Sonia Leticia, Instituto Politécnico Nacional. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El poder visualizar los datos adquiridos por diferentes sensores en una sola ventana del monitor, al integrar todas las señales que recibe el arduino en una interfaz gráfica, facilita la obtención de la información requerida y la manipulación tanto del hardware como el software utilizado. También hace posible la creación de un dispositivo multitareas.
En resumen, las interfaces graficas ayudan a generar un entorno visual favorable al usuario, en este caso para obtener los datos de las muestras que toma el arduino de cada uno de los sensores en uso.
Existen diversas plataformas y lenguajes de programación para realizar una interfaz gráfica; En esta ocasión desarrollaremos nuestra interfaz gráfica mediante Python y su entorno de desarrollo integrado PyCharm, ya que destaca por contar con una sintaxis que favorece la lectura de su código, es multiplataforma, multiparadigma y es muy práctica para diversas áreas de aplicación.
METODOLOGÍA
Para comenzar con el desarrollo de este proyecto, se hizo una revisión bibliográfica con respecto a los sensores, tipos y características con el fin de plantear una idea más formal respecto al tema, el siguiente paso fue la realización de una investigación enfocada a la creación de interfaces de usuario para hacer posible la ejecución de las bases del desarrollo de la interfaz gráfica.
Como siguiente paso, se adquirió la tarjeta de control (Arduino Nano) y los sensores necesarios (sensor ultrasónico para medir distancia, sensor de temperatura y humedad y un potenciómetro) que serían ocupados para efectuar la extracción de las señales, una vez dada por terminada esta tarea se comenzó el montaje e implementación de los mismos, se programó el arduino, se ejecutó, se le hicieron pruebas y se depuraron errores, con el fin de iniciar la programación en Python.
Al programar en Python se verifico la inexistencia de errores y se añadieron los detalles de la presentación de los gráficos. Finalmente se integró el sistema, se le hicieron pruebas con éxito y en suma la interfaz gráfica culminó.
CONCLUSIONES
En relación a lo expuesto, el uso de interfaces gráficas aplicadas a la obtención de datos según las señales que emitan los sensores, facilita a los usuarios la interpretación y visualización de la información requerida, según lo que necesiten.
Fernandez Nicolas Diana Lizeth, Universidad de Guadalajara
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
ANáLISIS EXPLORATORIO DE DATOS PARA LA MITIGACIóN DE INCENDIOS
ANáLISIS EXPLORATORIO DE DATOS PARA LA MITIGACIóN DE INCENDIOS
Fernandez Nicolas Diana Lizeth, Universidad de Guadalajara. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El fuego ha sido un agente constante de cambios sobre el paisaje, en el mantenimiento y evolución de los ecosistemas, y parte esencial de los sistemas de la vida humana desde tiempos ancestrales, Su rol ecológico como regulador de procesos ha sido parte fundamental de la historia evolutiva de la tierra, en particular cuando su origen es consecuencia de procesos naturales.
Como bien ya se sabe, la actividad humana ha acelerado varios de los procesos naturales, entre ellos, el cambio climático, esto ha sido consecuencia de la intervención tan agresiva que ha tenido sobre los recursos naturales
Cada año, en todo el mundo, durante las temporadas de sequía aumenta el riesgo de incendios por diversos factores. En el caso de México, el 75% de la ocurrencia de los incendios forestales según la CONAFOR, se presenta de marzo a mayo, la época de mayor sequía y la más calurosa en el país, que coincide con el uso del fuego en las áreas rurales en la ejecución de quemas y con los trabajos de preparación de terrenos agropecuarios.
METODOLOGÍA
Se analizaron dos data sets , uno de Brasil que comprenden datos de los incendios ocurridos desde 1998 al 2017 y otro de California los cuales sus datos datan del 2013 al 2019 , a estos se les aplicó varios algoritmos como son clustering , que consiste en agrupar un conjunto de objetos en subconjuntos de objetos llamados clusters , arboles de decisión , este es un mapa de los posibles resultados de una serie de decisiones relacionadas y regresión lineal , los algoritmos se aplicaron con la herramienta Rapid Miner , también se utilizó la herramienta keplerGl para graficas de mapas geoespaciales , una calculadora para análisis de regresión lineal y paintMap para elaborar mapas de calor.
CONCLUSIONES
En el software Rapid Miner se pudo visualizar el resultado de todos los algoritmos aplicados, se pudo realizar una predicción aplicando regresión lineal y predecir la superficie quemada hasta el 2024 , también con las graficas generadas se nos permitió observar los lugares donde ocurren más incendios tanto en Brasil como en california así como los lugares más afectados con pérdidas en infraestructura.
Fernández Ramírez Javier Johary, Benemérita Universidad Autónoma de Puebla
MEJORAMIENTO DE LA RESISTENCIA DEL CONCRETO A COMPRESIóN, FLEXIóN Y TRACCIóN POR MEDIO DE LA ADICIóN DE FIBRA DE COCO PARA PAVIMENTOS RíGIDOS
MEJORAMIENTO DE LA RESISTENCIA DEL CONCRETO A COMPRESIóN, FLEXIóN Y TRACCIóN POR MEDIO DE LA ADICIóN DE FIBRA DE COCO PARA PAVIMENTOS RíGIDOS
Fernández Ramírez Javier Johary, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington
PLANTEAMIENTO DEL PROBLEMA
El concreto es uno de los materiales más usados en la industria de la construcción, debido a su gran versatilidad y a su alta resistencia. Por lo anterior es preocupante la sobreexplotación de materiales de cantera como lo son la arena y la grava a la hora de producir el hormigón.
Algunos efectos negativos que se generan por la extracción de agregados pétreos son la disminución de los niveles freáticos, la contaminación del aire con partículas de polvo y gases producto de la combustión de diésel y gasolina en maquinaria, la contaminación de ríos y cambios en los flujos de agua alterando su ciclo, la erosión del terreno y daños a la flora y fauna.
Es por eso que se ha buscado trabajar con materiales que sean biodegradables, en este caso con fibras vegetales, ya que prácticamente son recursos que tenemos a un fácil alcance y tienen bajos costos en sus procesos de industrialización.
Para esta investigación se busca encontrar los % con mejores resultados en cuanto a resistencia a compresión, flexión y tracción.
METODOLOGÍA
Esta investigación estará basada en la recopilación de información técnica, como lo son tablas, graficas, pruebas de campo, etc., haciendo uso de las diferentes fuentes de información bibliográfica como lo son artículos, tesis y revistas científicas con respecto al tema incremento de la resistencia a compresión, tracción y flexión del concreto al adicionar fibra de coco para poder ser utilizado en pavimentos.
CONCLUSIONES
Tomando en cuenta los resultados encontrados sobre la adición de fibra de coco en el concreto, podemos argumentar que esta fibra vegetal aporta un aumento considerable de resistencia a tracción y flexión cuando usamos % mayores al 0.5%.
Una desventaja hallada, es que el exceso de adición de fibra de coco (% mayores del 0.5%) en el concreto disminuye la resistencia a compresión, además de que es importante realizar un tratamiento de polimerización que selle los poros de las fibras para evitar la retención de sales que dañen el concreto.
En cuanto al tema de trabajabilidad, el uso de fibra de coco en el concreto genera que a medida que se va adicionando un mayor % de fibra de coco va disminuyendo el asentamiento (revenimiento) de nuestro concreto, lo cual para la construcción de un pavimento no genera mayor problema.
El uso de fibras ayuda en el proceso de fraguado, reduce las tensiones internas evitando la formación de grietas, mejora la resistencia a la abrasión, a la fractura y al impacto y debido a la configuración en la que esta acomodada la fibra mantienen unido el concreto.
Lo que buscamos con esta investigación es hacer mayor énfasis en el uso de materiales naturales y biodegradables que aporten mayor resistencia al concreto, para ser usado en pavimentos rígidos, mejorando costos, calidad y durabilidad.
Ferrer Sánchez José del Carmen, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México
DISEñO DE ELEMENTO DE RECONOCIMIENTO PARA ENFERMEDADES CARDIACAS USANDO HERRAMIENTAS DE QUíMICA COMPUTACIONAL.
DISEñO DE ELEMENTO DE RECONOCIMIENTO PARA ENFERMEDADES CARDIACAS USANDO HERRAMIENTAS DE QUíMICA COMPUTACIONAL.
Ferrer Sánchez José del Carmen, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardíacas que afectan solamente al corazón generan un desgaste en este musculo y en ocasiones la muerte cuando el deterioro es demasiado.
Alrededor del 25% de la población mexicana tiene hipertensión y una buena cantidad no lleva un control adecuado, lo que se vuelve un problema grave de salud pública. Existen situaciones delicadas en donde el desgaste o la afectación al corazón puede desencadenar un infarto. En este contexto, es sabido que el cuerpo humano libera distintas sustancias en condiciones de salud, sin embargo, estas son liberadas en concentraciones superiores a los estándares normales cuando existe alguna enfermedad cardíaca. Por lo que, con el monitoreo de la concentración de estas sustancias se puede prevenir un escenario de gravedad. Hoy en día se tienen pruebas rápidas las cuales tardan de entre 15 a 20 minutos, con las cuales se pueden medir los niveles de estas sustancias de manera ocasional. Sin embargo, en ocasiones resulta necesario tener un registro día a día o incluso, minuto a minuto para prevenir escenarios fatales o para mantener un control constante independiente a las circunstancias de memoria o de accesibilidad del paciente. Los biosensores son dispositivos que pueden ayudar al monitoreo constante y en cuestión de segundos indicarle a la persona los niveles de concentración de sustancias críticas, y evitar así una complicación.
Por lo que en esta estancia de investigación se abordó el problema de diseñar un elemento de reconocimiento para un biomarcador especifico asociado a enfermedades cardíacas, siguiendo la metodología de investigación y desarrollo de nuevos elementos de reconocimiento establecido en el grupo de investigación, en donde se realiza la estancia.
METODOLOGÍA
El primer paso fue definir la enfermedad para la cual se desea diseñar el elemento de reconocimiento, posteriormente se realizó una búsqueda bibliográfica sobre los biomarcadores asociados a la enfermedad de interés y se seleccionó uno de ellos como molécula objetivo. Posteriormente, en la Base de Datos de Proteínas (por sus siglas en inglés, PDB) se seleccionó buscó el biomarcador seleccionado; en este caso se decidió trabajar con la troponina C asociada a enfermedades cardíacas.
En la Base de datos de proteínas fue posible abalizar información sobre la interacción química de la troponina C con diferentes ligandos naturales, los cuales fueron co-cristalizaron con troponina C. A partir del análisis de estas interacciones químicas con los ligandos se determinó que grupos químicos funcionales logran interactuar con la troponina C. Con esta información, es posible diseñar una estructura química para un químiosensor fluorescente, el cual se modela usando programas como Avogadro y Orca, en el programa Avogadro se dibuja la molécula en 3D para estudiar posteriormente sus posibles interacciones químicas con la troponina C usando el programa de AutoDockTools.
Ya teniendo el biosensor y los ligandos a trabajar se procede a la unión entre el biosensor y cada uno de los ligandos con el programa de AutoDockTools, esto se le conoce como Docking y es un método bioinformático de mecánica molecular utilizada para predecir energías y modos de enlace entre ligandos y proteínas.
CONCLUSIONES
En esta estancia virtual se logró determinar un biomarcador que se presenta al producirse un desgaste y en ocasiones daño severo al corazón esto por alguna afección cardiaca presente, se lograron obtener los conocimientos necesarios en los programas de simulación y modelado molecular como los son Avogadro, Orca y AutoDockTools, esto para poder estudiar la interacción de los ligandos y el biosensor en este caso la Troponina C. Se obtuvo un banco de 2 estructuras de ligandos en este caso la glicerina y el ion acetato, se obtuvo la optimización geométrica y análisis de absorción de radiación ultravioleta todo esto con el uso de los programas ya mencionados antes.
Para las técnicas de búsqueda de información principalmente se utilizo PDB para la obtención de información y la selección del biomarcador con conexión a las afecciones cardiacas, modelación de las estructuras químicas en 3D de los ligandos y su optimización geometrica usando el programa Avogadro, posteriormente usando el programa orca se obtuvieron las energías a través de los distintos orbitales y así su energía eV esto nos indica las mejores opciones para que la molécula objetivo pueda fluorescer.
Por lo que se concluyo que entre los 2 ligandos la propuesta del glicerol es mejor ya que tiene una diferencia de energía menor en comparación con el ligando del ion de acetato, lo cual no puede decir que libere energía y así dar lugar al fenómeno de fluorescencia.
Florencio Martínez Miguel Angel, Instituto Tecnológico de Chilpancingo
Asesor:Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
DESARROLLO DE SKILLS DE ALEXA
DESARROLLO DE SKILLS DE ALEXA
Florencio Martínez Miguel Angel, Instituto Tecnológico de Chilpancingo. Vázquez Gómez Alfonso, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
Los dispositivos que cuentan con Alexa integrada, facilitan tareas cotidianas y no cotidianas a través de skills de Alexa, ya sea que deseemos saludar a Alexa, conocer cuál es el clima, el resultado de un partido, cambiar de canción, pausar un vídeo o incluso encender luces de la sala. El problema planteado en esta investigación, consiste en descifrar el cómo funciona una skill de Alexa, es decir, como desde una instrucción de voz, Alexa puede realizar la tarea que nosotros especificamos, donde debemos identificar tanto los conceptos abstractos como los conceptos del campo informático. A su vez, buscamos aplicar todos los conocimientos relevantes al funcionamiento de Alexa, y a través de conocimientos informáticos, desarrollar un prototipo de skill de Alexa básico, en el cual simplifiquemos un problema de la vida real.
METODOLOGÍA
Con el fin de alcanzar los resultados planteados, en primera instancia se realizó el proceso de consulta de información, información de diversas fuentes, como lo es el sitio web Amazon Developers, el cual brinda la información para el desarrollo de diversas herramientas tecnológicas con el respaldo de Amazon, otra fuente de consulta fueron videotutoriales de la plataforma Youtube. Una vez recabada la información, se comenzó el filtrado de la misma, un proceso donde se analizaron los conceptos tanto los obtenidos directamente de Amazon Developers, como de los videotutoriales de youtube. Tras la realización de esto, se materializó una definición propia de los conceptos relacionados al desarrollo y funcionamiento de skills de Amazon Alexa, diseñando la definición más sencilla de comprender si se tiene pocos conocimientos en el ámbito tecnológico. Ya completados la definición de conceptos, creamos una cuenta de Amazon para poder hacer uso de la herramienta Console, del sitio web Amazon Developers, la cual permite desarrollar dentro del mismo sitio web diversas herramientas de software para la gama de dispositivos Amazon Alexa. Configuramos la región de la cuenta para hacer uso del lenguaje Español en el desarrollo de la misma. A continuación, el equipo se planteó el enfoque que tendría la skill que se tenía que desarrollar, donde se tomaron en cuenta diversos criterios, que sea útil, que dé solución a un problema real y que fuera sencillo de desarrollar, según los mismos conceptos definidos previamente en el desarrollo del proyecto. Se llegó a la conclusión de que el enfoque de la skill sería un horario o calendario escolar, el cual cuando se le hagan cuestionamientos como ¿Qué tengo el lunes? o ¿Qué hay el jueves? , la skill deberá describir todo el horario definido al día en el que se le solicita, describiendo el nombre y horario de cada una de las asignaturas definidas, en segundo lugar, la skill deberá responder con el nombre de la asignatura, el horario y días definidos de la misma, cuando se le cuestione ¿Cuál es el horario de Métodos Numéricos? o ¿Cuando tengo tópicos avanzados de programación?, por último la skill deberá describir su finalidad y quienes fueron sus desarrolladores cuando se le solicite responder. Creamos la skill dentro de la consola en Amazon Developers, cambiamos el nombre de invocación a Horario escolar, añadimos todos los intents necesarios para los días, las materias y la información de la skill, entrenamos el modelo de intents y evaluamos el modelo entrenado para identificar posibles errores tanto en la creación de intents como en el entrenamiento del modelo. En el código de la skill a través de conocimientos básicos de Node.js desarrollamos los ResquestHandler para cada día, cada materia y para la información propia de la skill, después, se añadieron los handlers para el funcionamiento correcto de los métodos creados previamente. Hecho esto, desplegamos la skill, es decir compilamos la skill, donde hasta este punto tendríamos un prototipo, dicho prototipo fue probado tanto en los intents como a la skill entera, se corrigieron algunos errores, añadiendo más intentos a los intents de días y materias, abarcando así una mayor gama de posibilidades a los cuestionamientos de la skill. Continuando el proceso, descargamos la skill ya desplegada, para ser probada en otros equipos ajenos al usado para el desarrollo, para comprobar la portabilidad que se obtiene al desarrollar este tipo de aplicaciones que basan el grueso de su funcionamiento en servicios de la nube. Se obtuvieron resultados positivos en cada uno de los casos de prueba. Por último, se contrastó los conocimientos planteados al inicio del desarrollo de la skill, con los conocimientos reales aplicados en el desarrollo del prototipo
CONCLUSIONES
Tras concluir el desarrollo del proyecto, concluimos que los resultados planteados fueron alcanzados con éxito, ya que, en lo general, los conceptos y la información definidos en la investigación, se puede entender el funcionamiento que existe tras una skill de Alexa y en sí, el cómo funciona Alexa. A su vez, fueron definidas y utilizadas las herramientas necesarias para el desarrollo de una skill de Alexa, permitiendo así el desarrollo de un prototipo sólido dando solución o facilitando más la vida estudiantil. Es necesario destacar que algunas de esas herramientas están al alcance de la mayoría de los individuos, además de que es posible desarrollarla con mucha facilidad una vez entendiendo la metodología que se ocupa en el proceso de construcción de una Skill. Mediante el uso de Node.js, la plataforma de Amazon y video tutoriales es posible lograr la creación de una skill aún si no se tiene el conocimiento suficiente en cuanto a programación se habla. El uso de las skills de Alexa o de algún otro asistente de voz, puede ayudarnos en gran manera a medida que su implementación se va extendiendo y aprendiendo gracias a la tecnología que hay detrás de la misma. Es importante mencionar que al personalizar nuestras skill podemos extender aún más el funcionamiento que tiene y por consecuente también se puede extender el nivel de capacidad que tiene para ayudarnos de manera particular, permitiéndonos así explotar mucho más el funcionamiento que esta herramienta nos puede brindar.
Flores Alvarez Ivan, Instituto Tecnológico de Toluca
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
Calle Zuleta Juliana, Institución Universitaria Colegio Mayor de Antioquia. Flores Alvarez Ivan, Instituto Tecnológico de Toluca. Ramirez Fabra Michelle, Universidad de Medellín. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Obtener energía electrica representa en la actualidad una necesidad en la realización de tareas esenciales en el sector laboral, doméstico, industrial, etc. El uso constante de registros fosiles se posiciona como la materia prima básica para el procesamiento, explotación y distribución de la energia que usamos en la actualidad; según data la historia, las maquinarias y equipos que existen para el aprovechamiento de la energia electrica se desarrolló solo para combustibles derivados del carbon puesto a su origen emergente.
La energía convencional influye desde el punto de vista social generando impactos como la generación de presión sobre los recursos naturales renovables y no renovables, se identifica que en la zona de estudio los recursos energéticos no son aprovechados en un 100%. La falta de legislación y los vacíos existentes referentes a la energía hace que sea arbitrario y no obligatorio para las personas el aprovechamiento de los recursos existentes en la zona de estudio. La implementación de energía química solar en la región en cuestión, permitirá aprovechar y explotar de forma controlada el recurso energético, disminuyendo costos de consumo energético derivados de la energía convencional y combustibles fósiles, un 60% de habitantes de Hermosillo seria impactado de forma positiva con la implementación de energía química solar en sus hogares.
En esta instancia, se requiere el estudio de la energia química solar y su posterior implementación partiendo de la premisa de que "las necesidades mundiales de energía eléctrica se podrán abastecer solo con energía solar", según Ignacio Mártil, catedrático de Electrónica. Actualmente la energía solar concentrada, también conocida como termosolar concentrada tiene el potencial necesario para la generación de electricidad a través de sistemas de espejos, en donde la radiación solar directa es concentrada, logrando temperaturas de entre 40 a 1000ºC (Pfahl et al. 2017). De esta forma, incursionar en energias renovables comprende un reto desde el marco de los Objetivos de Desarrollo Sostenible (ODS) debido a que la energía solar se mueve en el rango de eficiencias de las fuentes convencionales con el añadido de que no requiere quemar combustibles. En lo que respecta a los costos, cada tecnología renovable tiene sus propias características con base en la tecnología utilizada, la energía solar, puede tener un mayor beneficio y un costo de operación menor, sin embargo, presenta un costo de inversión alto y en múltiples ocasiones resulta económicamente inviable. A consecuencia de ello, los proyectos de generación con fuentes renovables de este tipo que se han implementado son muy pocos y tienen condiciones y finalidades muy especiales para su implementación, tal es el caso de la Plataforma Solar de Hermosillo (PSH) cuyo objetivo principal es la generación de conocimiento.
De acuerdo al rendimiento de la tecnología usada en la PSH, en la presente investigación, realizaremos el análisis de sostenibilidad del helióstato concentrador y mini helióstatos concentradores (comprendiendo el ámbito social, económico y ambiental) con el fin de elegir el equipo con mejor rendimiento y mayor eficacia dado que los helióstatos son el componente más importante de las plantas de torre central y hacen parte de aproximadamente el 50% del costo total de toda la planta solar de torre central (Gwiazda and DiBella, 2005).
METODOLOGÍA
Se llevó a cabo la visita a las instalaciones de la Plataforma Solar de Hermosillo y una posterior revisión de los planos centrales del helióstato concentrador (H36) y mini helióstatos concentradores (H6) con el fin de determinar la trazabilidad de la investigación asi como establecer con mayor claridad los aportes de Ingeniería Ambiental e Ingeniería Industrial. Al reconocer con exactitud los equipos en estudio, procedimos a la toma de datos en campo para posteriormente llevar a cabo cálculos cualitativos y cuantitativos en el software Tonatiuh; es preciso aclarar que se realizó toma de muestra independiente para helióstato concentrador H6 y H36, por lo cual fue indispensable el montaje, puesta en escena de cada artefacto y definir las horas con mayor productividad en términos de actividad luminica.
Con la información recopilada, realizamos el análisis de datos enmarcados en la sostenibilidad del proyecto basado en heliostatos concentrador H6 y H36 con el fin de precisar la revisión de costos vs beneficios (sociales, económicos y ambientales) en base a los resultados alcanzados durante la simulación realizada en el software en estudio en el que se obtuvo los perfiles para cada equipo. Es importante resaltar que el costo de instalación de heliostato H36 es de $360,120.00 pesos mexicanos, mientras que, para los heliostatos tipo H6 es de $207,600.00. Ambos con una vida útil promedio de 25 años.
Por último, trabajamos en la redacción y avance en el informe constatado.
CONCLUSIONES
1. Se identificó las variables de rentabilidad de los heliostatos concentradores H36 y H6.
2. Observamos varíables de sostenibilidad del proyecto, teniendo en cuenta la potencia, puntos focales y ópticos.
3. Interactuamos con el software Excel y Tonatiuh para realizar la modelación de reflectividad de rayos solares e incidencias de este en cuanto a la mayor generación de Flux (W/m2) de los heliostatos concentradores H36 y H6.
4. Realizamos pruebas de campo con el fin de verificar los spots generados por cada una de las superficies de los heliostatos concentradores y los miniheliosatatos.
5. Verificamos el impacto social de la implementación de energias limpias.
BIBLIOGRAFIA
E, & E. (2015). Implicaciones de la (baja) densidad energética solar eléctrica. Grupo de Energía, Economía y Dinámica de Sistemas. http://www.eis.uva.es/energiasostenible/?tag=energia-solar
Gwiazda, Jonathan, and Francis DiBella 2005 Power Generation by Solar/Pneumatic Cogeneration in a Large, Natural or Man-Made, Open Pit. http://www.google.com/patents/US20050150225, accessed November 3, 2017
Pfahl, Andreas, Joe Coventry, Marc Röger, et al. 2017 Progress in Heliostat Development. Solar Energy 152(Supplement C). Progress in Solar Energy Special Issue: Concentrating Solar Power (CSP): 3-37
Flores Ayala Carlos Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora
ROBóTICA, CONTROL INTELIGENTE Y SISTEMAS DE PERCEPCIóN
ROBóTICA, CONTROL INTELIGENTE Y SISTEMAS DE PERCEPCIóN
Flores Ayala Carlos Eduardo, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Mtro. Alejandro Mendez Navarro, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
La estimación de parámetros en el análisis y desarrollo de soluciones en el proceso de infiltración es una alternativa para reducir el consumo de agua y así mejorar la calidad y cantidad de producción en los cultivos. Ello permite identificar estrategias definidas para optimizar la calidad y cantidad de producción; permite seleccionar los componentes y funciones esenciales. Por lo tanto, en la actuliadad los sistemas de irrigación requieren comprender el proceso de irrigación ya que es una práctica común en la agricultura que conduce a un consumo excesivo de los recursos hidráulicos.
La ecuación de Richards juega un papel importante en el estudio de la hidrología ya que modela el movimiento del agua en suelos no saturados. Sus estados y parámetros son esenciales en la precisión de los modelos matemáticos; sin embargo difíciles de obtener experimentalmente. La solución de la ecuación de Richards existe solo para casos simplificados, por lo que en la mayoría de las situaciones prácticas requieren una solución numérica para problemas que se presenan en una, dos o tres dimensiones, depende la situación del flujo del agua. A pesar de que el primer método de solución surgió a principios de la década de 1990, la ecuación sigue siendo computacionalmente cosotosa y, a veces, no confiable.
El objetivo principal de este trabajo es proponer un enfoque simplificado para estimar parámetros hidráulicos del suelo para el desarrollo de soluciones en el proceso de infiltración del agua y con ellos evaluar el efecto del contenido de agua en el suelo.
METODOLOGÍA
En la actulidad aún no se ha identificado una solución precisa de la ecuación de Richards que sea aplicable en todas las condiciones. Las soluciones existentes se han modificado a lo largo de los años para intentar aumentar la confiabilidad. A pesar de los resultados teóricos sobre la existencia de soluciones con datos suficientemente regulares y relaciones constitutivas, los métodos numéricos aún no logran demostrar un comportamiento de convergencia confiable en la práctica. Debido a la falta de confiabilidad, de precisión y el costo computacional que involucra, se necesitan diversos enfoques, métodos de solución y parámetros para el desarrollo de las soluciones en el proceso de infiltración del agua.
La ecuación de Richards se compone esencialmente de la ecuación de continuidad y la ley de Darcy, que se incorpora con dos ecuaciones algebraica de conductividad hidraúlica y capacidad capilar. Los parámetros de la ecuación de Richards están relacionados con las propiedades del suelo.
Existen dos alternativas para estimar los parámetros del suelo: directa e indirecta; la primera se realiza en laboratorio donde se ajusta directamente el agua del suelo usando datos de campo recolectados de humedad, conductividad hidraúlica y presión capilar, pero, estas propiedades del suelo cambian con el tiempo y es costoso tomar muestras frecuentes para laboratorio, más cuando el análisis se considera en una extención grande de suelo; y la indirecta se encuentra basada en la ecuación de Richards y mediciones de campo de fácil acceso como humedad del suelo o altura de presión capilar.
La inflitración es un proceso de gran importancia práctica para el diseño del riego de superficie. La infiltración se puede tratar teóricamente resolviendo la ecuación de Richards con modelos de simulación numérica. Se ha demostrado que el uso de métodos numéricos es preciso y prácticamente puede hacer frente a todas las condiciones iniciales y de contorno.
Dentro de zonas no saturadas, el movimiento del agua es impulsado principalmente por potencias capilares y gravitacionales. Esta dinámica del agua se puede modelar utilizando la ecuación de Richards bajo los siguientes supuestos:
Las propiedades del suelo son espacialmente homogéneas entro del sistema
El riego se aplica uniformemente sobre la superficie del sistema
La dinámica del agua horizontal es mucho más pequeña que la dinámica vertical debido a la fuerza de gravedad y el agua horizontal la dinámica se puede descuidar.
CONCLUSIONES
Como se ha mencionado a lo largo de este trabajo, el modelo que se propone realizar es algo complejo, principalmente por la difícil programación de una interfaz que funcione con datos que ayuden a estimar datos de propiedades del suelo debido a la diferente condición que abarca a cada tipo de suelo y sus condiciones de humedad y constante riego. Otro de los retos a vencer es la dificil representación gráfica de dichos datos porque, como se dijo anteriormente, su costo computacional es muy alto, lo que lleva a diferentes dificultades debido al conocimiento, tiempo y presupuesto con el que se cuenta. En caso de lograr lo anteriormente establecido, se logrará lo siguiente:
Estimación de parámetros para un sistema de infiltración de agua basado en el análisis de datos proporcionados por los sensores instalados en el suelo.
Identificación del modelo para el sistema de infiltración de agua.
Simulaciones que comparan el rendimiento del riego.
Simulaciones que ilustran la efectividad del enfoque propuesto.
Crear un sistema de irrigación con un bajo costo computacional para que las comunidades marginadas tengan acceso a él, mejoren la calidad de cultivos a bajo costo, reducir el trabajo físico y aumentar productividad.
Con esto se busca lograr de manera general un impacto positivo en la sociedad para estimar un sistema de irrigación funcional que nos lleve a un punto cercano a la perfección de la cantidad de agua que se debe utilizar para alimentar las diferentes tierras dependiendo del tipo de suelo y sus condicione;, principalmente lograr moderar el uso de agua para utilizar sólo la necesaria según los tiempos; reducir el trabajo físico, ya que serán sistemas automatizados y programados; y producir cultivos de mayor calidad.
Flores Domínguez Jesús Alberto, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
INTERNET DE LAS COSAS
INTERNET DE LAS COSAS
Flores Domínguez Jesús Alberto, Instituto Tecnológico Superior de Huauchinango. Ibañez Salas Mario Alberto, Instituto Tecnológico de Tepic. Asesor: Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PLANTEAMIENTO DEL PROBLEMA
Actualmente seguimos viviendo una época de riesgo debido a la presencia del Corona-virus. Aunque poco a poco hemos ido saliendo de esto, y aún con la llegada de la vacuna, es indispensable seguir manteniendo el distanciamiento social para no recaer. Con el inicio de la nueva normalidad y con la reanudación de actividades presenciales, es de suma importancia contar con dispositivos que nos ayuden a mantener la sana distancia de manera eficiente y así, en conjunto con las otras medidas de prevención, asegurar un regreso más seguro y positivo. En el proyecto que se desarrolla en el verano de investigación se busca diseñar dispositivos IoT que nos ayuden a mantener la sana distancia en las aulas de clases, cumpliendo así el objetivo ya mencionado.
METODOLOGÍA
Para el desarrollo del proyecto se están utilizando sistemas embebidos como Arduino y ESP32. Primeramente, se diseñó un dispositivo que proporcionará un apoyo para mantener la distancia correcta entre el escritorio del profesor y los alumnos, para ello se utilizó una tarjeta Arduino Uno y 3 sensores ultrasónicos HC-SR04 los cuales están posicionados en una carcasa hexagonal pequeña de manera que cubren un ángulo de detección de casi 180 grados, en el cual son capaces de percibir la presencia de una persona a una distancia menor o igual a 1,5 metros. La función del dispositivo es activar una alarma, ya sea auditiva o visual, en el momento en el que alguien se acerque al profesor rebasando el límite de la sana distancia, haciendo así que éste se detenga o retroceda según sea el caso. La carcasa se diseñó en SolidWorks y la programación se hizo en Arduino IDE. Se hicieron varias pruebas para evaluar su comportamiento hasta que se encontró el modelo y programación más eficiente. El dispositivo está pensado para colocarse en el centro del escritorio del profesor, con los sensores hacia enfrente, donde deben estar los alumnos.
El segundo dispositivo, que aún está en proceso, es un cinturón, que también ayudará a mantener la sana distancia entre los alumnos y profesores, con la diferencia de que éste registrará los datos obtenidos en una base de datos a través de internet, y en los lugares con poca señal los datos se guardarán en una memoria microSD para después ser descargados. Este dispositivo funcionará con la tarjeta ESP32 ya que tiene conexión Wifi y tendrá solo 2 sensores HC-SR04, uno frontal y otro trasero, además contará con ubicación vía GPS. Los resultados que se esperan de este dispositivo, es garantizar que se mantenga eficientemente la sana distancia entre el personal de la escuela.
CONCLUSIONES
En este verano de investigación se ha aprendido a mejorar las técnicas en el uso de sistemas embebidos, así como técnicas de soldadura y montaje. También se espera aprender a trabajar con bases de datos de manera inalámbrica a través de internet. Cabe destacar que la funcionalidad de estos dispositivos es de suma importancia, ya que está en juego nuestra salud y se debe garantizar un regreso a clases presenciales seguro.
El ángulo de apertura del sensor HC-SR04 es pequeño, sin embargo, con tres sensores se cubrió de manera eficiente casi los 180° de rango, pero con el cinturón al solo tener dos sensores, de frente y trasero, existe un rango de aproximación por los costados. Otro punto a tener en cuenta es el ruido que a veces generan los sensores, no fue necesario ponerle un filtro ya que era mínimo, pero si se busca realizar un prototipo comercial debe tomarse a consideración.
Flores Hidalgo Lucia Sofia, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
COMPARACIóN DE LOS REPORTES DE ACTIVIDAD ANTIMICROBIANA DE LAS AG-NPS OBTENIDAS MEDIANTE EXTRACTOS NATURALES
COMPARACIóN DE LOS REPORTES DE ACTIVIDAD ANTIMICROBIANA DE LAS AG-NPS OBTENIDAS MEDIANTE EXTRACTOS NATURALES
Flores Hidalgo Lucia Sofia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La resistencia bacteriana a diversos antibióticos ha sido un problema que ha ido en aumento a lo largo del tiempo. Las infecciones causadas por estos organismos pueden conducir a un tratamiento incorrecto, lo que se asocia a obtener un peor resultado para el paciente. Debido a esto han surgido métodos alternativos, de los cuales se espera, puedan sustituir los actuales tratamientos. Uno de estos métodos es el uso de nanopartículas metálicas, las estudiadas en el presente trabajo, son: nanopartículas de plata (Ag-NPs).
Para verificar el efecto antibacteriano de dichas nanopartículas se planteó responder la siguiente pregunta: ¿Cuál es la concentración mínima de nanopartículas de plata obtenida con extractos naturales que inhibe el crecimiento bacteriano en placas de agar?
METODOLOGÍA
El protocolo se redactó utilizando los elementos de informes preferidos para revisiones sistemáticas y protocolos de metaanálisis (PRISMA-ScR). En la revisión se incluyeron artículos escritos en inglés o español, además de que fueron publicados en el periodo de 2019-2021 y extraídos de las fuentes como: Web of Science, Scopus y ScienceDirect. Se realizó un proceso de selección y filtración de archivos utilizando como estrategia de búsqueda: (Silver nanoparticles OR AgNP) AND (Natural extract) AND (Antibacterial). A partir de lo cual, primero se revisaron los títulos y palabras claves de cada uno de los artículos, excluyendo aquellos que no tenían relación con el tema para que finalmente se analizara el resumen y contenido de cada uno de ellos, a los cuales se le aplicaron los criterios de exclusión.
Los criterios de exclusión fueron: no utilizar las nanopartículas de plata como tratamiento contra infecciones causadas por bacterias, el método de obtención no era mediante extractos naturales, el experimento no fue realizado en placas de agar con el método de dilución y no calcular la concentración inhibitoria mínima.
Para la recolección de datos se hizo uso de la herramienta Excel Microsoft, en la cual se clasificaron los datos encontrados en los artículos seleccionados que respondían la pregunta de investigación. Los datos se clasificaron de manera individual tomando en cuenta los criterios de exclusión y se presentaron en una tabla, en la cual se muestra la bacteria que se usó en el estudio, los extractos naturales utilizados como agentes reductores para la obtención de nanopartículas de plata, la concentración inhibitoria mínima y de ser mencionada, la concentración bactericida mínima.
Además del uso de Excel, otra de las herramientas utilizadas fue: Mendeley Web Importer; el cual fue utilizado para agregar los artículos seleccionados para la revisión.
CONCLUSIONES
Los estudios fueron realizados con éxito, debido a los resultados obtenidos de acuerdo con la concentración inhibitoria mínima, la cual, mientras el número sea menor refleja una mayor eficacia antimicrobiana de las nanopartículas de plata. Podemos observar que los números varían dependiendo de la bacteria en estudio y el extracto utilizado, sin embargo, todas las bacterias presentaron una disminución en su crecimiento. Por lo que podemos resaltar los éxitos contra la problemática inicial junto con la facilidad y conveniencia de realizar este tipo de síntesis para la obtención de Ag-NPs. Lo que nos permite presentar a este método alternativo como una de las opciones más prometedoras a utilizar en un futuro.
Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT DE 2GDL MEDIANTE LA IMPLEMENTACIóN DEL OBSERVADOR DE NICOSIA Y CONTROL ADAPTATIVO
SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT DE 2GDL MEDIANTE LA IMPLEMENTACIóN DEL OBSERVADOR DE NICOSIA Y CONTROL ADAPTATIVO
Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla. Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Actualmente ha aumentado el número de aplicaciones que se le pueden dar a los robots manipuladores y muchas de ellas no solo se usan en el área industrial, sino que también se han empleado en el ámbito académico e incluso en el médico. Una de las grandes desventajas de estos dispositivos es el precio, ya que mientras más características tenga, se pueden volver menos accesibles para muchos sectores como el de los estudiantes.
Por esta razón es que el presente trabajo busca analizar y desarrollar la simulación de un robot manipulador que funcione de manera eficiente, que sea reproducible y de bajo costo, lo cual se pretende lograr mediante la aplicación de un modelo Dinámico el cual está basado en la teoría de estabilidad de Lyapunov.
Al estudiar a fondo el diseño y modelo de la edición del 2020 de este programa de investigación se logró detectar que no había tanta precisión en el resultado, esto debido a problemas en las ganancias del derivador e integrador, por lo que se buscó un método que no tuviera tales limitaciones.
En el presente trabajo se implementará el Observador de Nicosia en el sistema de Control-Planta (Robot 2GDL) mediante la simulación correspondiente en MATLAB/SIMULINK, y finalmente se aplicará Control Adaptativo al nuevo sistema generado.
METODOLOGÍA
Para la implementación del Observador de Nicosia y el Control Adaptativo se siguieron los siguientes pasos:
1. Modelado del sistema de referencia garantizando que siga la trayectoria deseada.
2. A través del Control Adaptable la Planta debe seguir al modelo.
MODELO DINÁMICO DEL SISTEMA
Para este ejercicio se consideró la estructura y sistema de un robot cartesiano de 2GDL, el cual está propuesto en el Apéndice B del libro Control de movimiento de robots manipuladores, del Dr. R. Kelly y del Dr. V. Santibáñez.
Para poder generar el comportamiento del brazo robot se implementaron los parámetros establecidos y la representación matricial como funciones para entablar comunicación con MATLAB/SIMULINK, donde se consideraron los siguientes elementos:
• Vector de coordenadas generalizadas articulares,
• Matriz de inercia, la cual es simétrica y positiva,
• Vector de Coriolis y fuerza centrípeta,
• Par gravitacional,
• Vector de pares que actúan en las articulaciones.
Para el bloque de CONTROL se empleó un Control PD con compensación de gravedad, en el cual se usaron los siguientes componentes:
• Error de posición,
• Posición deseada, la cual es suave y acotada,
• Ganancia proporcional,
• Ganancia derivativa.
Se crearon dos bloques más: la TRAYECTORIA, el cual describe la trayectoria deseada, la cual en este caso es un cardioide y la PLANTA, el cual contiene la descripción de un diseño sencillo de la estructura de un robot manipulador de 2 Grados de Libertad.
OBSERVADOR DE NICOSIA
Una vez que se comprobó el correcto funcionamiento del sistema, se procedió a implementar el Observador de Nicosia, el cual fue desarrollado con la variable de estado que corresponde a la aceleración.
Para describir el modelo del observador se emplearon los siguientes componentes:
• Coordenadas generalizadas de la posición y la velocidad,
• Ganancias del observador (proporcional y derivativa),
• Constante positiva Épsilon,
• Posición articular.
Después se procedió a corroborar el correcto funcionamiento del observador en conjunto con el modelo del robot, mediante la observación del error, pues este debe ser cero, ya que este valor se traduce en que las trayectorias del modelo y de la planta son iguales.
Es importante destacar que si existe algún retraso en la señal se deben modificar las ganancias hasta que esta siga correctamente a la señal de posición y velocidad, lo cual se puede corroborar visualizando el comportamiento del transitorio, y no rebasando los límites del par aplicado, así como asegurar que la señal observable/diferenciable sea idéntica a la salida, que en este caso corresponde a la posición.
CONTROL ADAPTATIVO
A partir de la Dinámica del Error se procede a usar la función de Lyapunov con el fin de cumplir con los criterios de estabilidad de Lyapunov.
Después de cumplir con las condiciones ya mencionadas, se obtiene una estructura de Control Adaptable de la forma Cr + Dx, en donde Cr es la señal de referencia que proviene de la estructura de control PD que alimenta al modelo, y el termino Dx es la lectura de la posición real o estado en todo momento.
Esta estructura de control adaptable obtenida es simple o ideal por lo que no tiene ganancias, sin embargo, sí compensa el sistema como se requiere.
Se procede a realizar las conexiones del sistema, por lo que se enlaza el bloque de Control con la Planta y el Control del modelo, con lo que se logra que la Planta siga al Modelo y se reafirma que el modelo sigue a la posición deseada.
Es fundamental tener en cuenta que el Control Adaptativo es capaz de forzar el funcionamiento de la Planta del sistema, incluso aun cuando se sobrepasan los valores establecidos, por lo tanto, se enfatiza la importancia de revisar el valor del error, así como tener pleno conocimiento de las limitaciones del modelo físico.
CONCLUSIONES
Los resultados de las simulaciones del mecanismo con los métodos ya descritos arrojaron respuestas satisfactorias, ya que la trayectoria está dentro de los parámetros establecidos, con lo que se observa que se logró el objetivo de implementar un Observador de Nicosia y Control Adaptativo a un modelo ya propuesto de un Robot Manipulador de 2 GDL, con el cual se visualizó y mejoró su funcionamiento.
Teniendo en consideración lo anterior, se visualizó que gracias al observador que se implementó se puede seguir al sistema, obteniendo no solo la trayectoria deseada, sino que también se generó una mejor estructura de control.
Flores Juarez Luis Roberto, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
MAITEC: MOBILITY ASSESSMENT AND INSIGHTS FROM TECNOLóGICO DE MONTERREY
MAITEC: MOBILITY ASSESSMENT AND INSIGHTS FROM TECNOLóGICO DE MONTERREY
Flores Juarez Luis Roberto, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La contaminación del aire es una situación que se presenta en las zonas urbanas. Las fuentes se agrupan en puntuales (Industria), móviles (Transporte), área y naturales. Nuevo León es el 3er estado con el parque vehicular más grande. Según cifras del INEGI en 2019, Monterrey cuenta casi tres millones de vehículos registrados en circulación, lo que 2.2 millones son automóviles de uso diario. Entre los principales contaminantes generados por estos son el monóxido de carbono (CO) y los óxidos de nitrógeno (NOx), así como material particulado con diámetro dinámico igual o inferior a 10 µm. (PM10). Actualmente se cuenta con una herramienta llamada MAITec (Mobility Assessment and Insights from Tecnológico de Monterrey - https://maitec.info/app) desarrollada por el Tecnológico de Monterrey, la cual permite identificar los efectos en las concentraciones de contaminantes atmosféricos en la salud humana por parte de la emisión de fuentes vehiculares bajo diferentes escenarios. La herramienta conecta diversas capas de información, dentro de las que se encuentran la capa de emisiones y concentración de contaminantes. Parte del objetivo de este trabajo es modelar el escenario base incorporando detalles finos tanto en el modelo de emisiones (MOVES) como en el modelo de calidad del aire (AERMOD).
METODOLOGÍA
PROCESO DE MODELACIÓN
MOVES y AERMOD son programas de modelación que demandan cierta capacidad de cómputo, por tanto, para su ejecución se hace uso de Work Station propiedad del Tecnológico que cuenta con una capacidad de 12 gigas de memoria ram. Se realizo una conexión remota por medio del programa Chrome Remote Desktop
Para la generación de los factores de emisión por MOVES es necesario obtener una simulación de tráfico de la zona . En este caso la simulación es desarrollada por parte del grupo de microsimulación, quienes reportan información vehicular de un día de trafico real en el área de Distrito TEC.
Se eligió la Escala Proyecto en el modelo MOVES para poder demostrar una diferencia con la modelación original del modelo base. El modelo base es aquel donde no existe uso de ni de autos eléctricos o de bicicleta que ayuden a disminuir la cantidad de emisiones en la zona, por lo que se considera un día normal en el distrito TEC. Las corridas de MOVES se ubican en el año 2019, en días de la semana de ciertos meses y se realizaron 24 corridas por día. Se agregan los vehículos en carretera, en este caso consideramos los vehículos que circulan por el distrito TEC los cuales se segmentan en carros de pasajeros, camionetas de pasajeros y autobuses interurbanos. El tipo de vía corresponde a carreteas urbana de acceso restringido, así como libres.
El contaminante seleccionado fue material particulado con un diámetro aerodinámico menor o igual a 2.5 µm. Se crea un base de datos de salida, la cual se puede leer en SQL, y de esta forma exportarla a Excel para la conversión necesaria para usarla en AERMOD. La última fase se resume en crear la base de datos de entrada, en la cual se ingresa las tablas necesarias para que la escala proyecto de MOVES funcione. Las tablas deben ser llenadas en base al modelo deseado, cada una de ellas lleva datos correspondientes a la zona de estudio. Como resultado de los conversión de los resultados de MOVES, se obtienen los valores de emisión que AERMOD requiere. Los datos meteorológicos utilizados correspondieron al 2019 que fueron usados, tanto en AERMOD como en MOVES. Los datos topográficos fueron obtenidos a través del preprocesador AERMAP y se definió una resolución espacial de 90 m y una malla cartesiana con 4030 receptores y 312 receptores discretos. Esta información corresponde a la misma utilizada en el primer modelado de dispersión de contaminantes realizado por el TEC (Huertas, J., Huertas, M. 2020). Se modelaron un total de 945 fuentes de línea, cada fuente de línea se identifico el ancho correspondiente en base a la clasificación de vías en el distrito TEC.
CONCLUSIONES
El Tecnológico de Monterrey también tiene un plan para crear un prototipo de ciudad inteligente, por lo que la creación de diferentes modelación con opciones de transporte es vital para esto. Una de las ideas fundamentales es realizar posteriormente una comparación con dos futuras modelaciones donde se tomen en cuentan vehículos eléctricos, así como bicicletas y de esta forma poder presentárselo a las autoridades correspondientes con la intención de crear nuevas opciones de transporte en el distrito, y esto se escale a la ciudad de Monterrey. Durante mi estancia de verano logré adquirir conocimientos teóricos sobre los modelos de dispersión de contaminantes, así como de simuladores de emisión de contaminantes de fuentes móviles. También realice diversas corridas de prueba para conocer el funcionamiento de los programas. Los resultados de la corrida del nuevo modelo base no se pueden mostrar debido a que es un trabajo extenso que se compone de tres fases, y cada una de ellas debe ser calibrada de acuerdo con el contaminante y tipo de simulación deseado. Se espera que los datos se encuentren disponibles después de la fecha limite por parte del programa Delfín.
Flores Reyes Axel Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
CINéTICA DE ADSORCIóN DE FENOL EN CARBóN ACTIVADO GRANULAR EN MEDIO DE SAL BASAL.
CINéTICA DE ADSORCIóN DE FENOL EN CARBóN ACTIVADO GRANULAR EN MEDIO DE SAL BASAL.
Flores Reyes Axel Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Los compuestos fenólicos existen en los cuerpos de agua debido a la descarga de efluentes de diversas industrias, como es la industria petrolera, petroquímica, agrícola, etc. Estos son compuestos tóxicos, que representan un riesgo a la salud para los seres vivos. Específicamente, son compuestos carcinogénicos que dañan los glóbulos rojos y al hígado, incluso a concentraciones pequeñas.
Derivado de esto, se han estudiado e implementado diversas técnicas para la remoción de compuestos fenólicos en agua. Como es la degradación foto catalítica, la ozonación, técnicas de extracción, etc. Una de las técnicas más apropiadas para este proceso es la adsorción, debido a que no se producen residuos tóxicos y que es muy fácil de operar e implementar. La eficacia del proceso de adsorción depende de muchos factores, como es el pH, las características físicas del adsorbente (área superficial, porosidad, tamaño de poros, distribución del tamaño de poro, etc), del tipo de proceso para la adsorción (Por lotes o mediante columnas empacadas), temperatura, y concentración inicial. Uno de los adsorbentes más atractivos es el carbón activado granular (GAC), debido a su enorme área superficial, lo que se traduce en una elevada capacidad de adsorción.La distribución del tamaño de poro del adsorbente es: 68% poros de tamaño menor a 5 nm, 32 % poros mayores a 5 nm y el 12% son poros con tamaño menor a 1nm.
Por otra parte, existe una bacteria denominada Pseudomonas putida, que se ha reportado tener la capacidad de degradar compuestos aromáticos. Esta bacteria se cultiva en un medio de sal basal. Por lo que, si al carbón activado, se le añade un medio de sal basal, crecerá la bacteria P.putida. De esta forma, incrementamos el tiempo de vida del adsorbente, debido a que degradará a los compuestos fenólicos que estén adsorbidos en él.
Para el estudio de este proceso, es necesario la realización de experimentos, ya que, con base en estos, se pueden obtener diversas características físicas del adsorbente, además de comprender los fenómenos que ocurren en la superficie del adsorbente. Estos experimentos suelen realizarse a escalas pequeñas, con bajas dosis de adsorbente.
Sin embargo, si este proceso va a escalarse a nivel industrial, es necesario el uso de modelos matemáticos basados en la transferencia de masa, para poder predecir con certeza el comportamiento del sistema respecto al tiempo en una escala industrial. Por lo que, en el presente trabajo, el objetivo es simular el comportamiento de la adsorción de fenol en carbón activado granular, y compararlo con datos experimentales, para así evaluar la confiabilidad de nuestro modelo matemático y determinar si este adsorbente es viable para la remoción de fenol.
METODOLOGÍA
Se planteó un modelo matemático basado en el transporte de masa de la fase fluida (solución de fenol) a la fase sólida (carbón activado). Este modelo matemático se obtuvo con base a 2 suposiciones. Que la etapa determinante es el transporte de masa externo, y que las partículas de adsorbente tienen una forma esférica. Posteriormente, este modelo se acopló a 3 tipos de isotermas de adsorción, Henry, Freundlich, y Redlich-Petersen. En el caso del modelo de Henry, el modelo tiene una solución analítica. Para el modelo de Freundlich y Redlich-Petersen, se requiere una solución numérica, debido a que se forma un sistema de ecuaciones diferenciales ordinarias no lineal, que se resolvió utilizando el programa Polymath.
Un parámetro muy importante es el coeficiente de transporte de masa Kl. El cuál debe estimarse a partir de una comparación de los datos simulados respecto a los datos experimentales. En los 3 casos, se calculó la suma residual de cuadrados (RSS). En el caso del modelo de Henry, se minimiza la RSS variando el valor de Kl utilizando el complemento Solver. Sin embargo, es diferente para el modelo de Freundlich y Redlich-Peterson debido a que no tienen solución analítica, por lo que se realizó la simulación para varios valores de Kl, se estimó la RSS para cada valor, y se construyó una función que ajustará los valores obtenidos de RSS en función de Kl, RSS=f(Kl). Posteriormente se encontró el valor que minimizará la función obtenida. Los resultados obtenidos son:
Modelo de Henry, Kl=3.16e-4 m/min
Modelo de Freundlich, Kl=3.80e-3 m/min
Modelo de Redlich-Peterson, Kl=3.75 e-3 m/min
Posteriormente, con el valor óptimo de kl, se realizó la simulación y se comparó con datos experimentales. Los resultados indican que el modelo planteado no tiene la capacidad de reproducir adecuadamente los datos experimentales, especialmente en aquellos puntos en los que se tiene un tiempo elevado (mayor a 800 min). Como se observa en las gráficas, el proceso de adsorción es muy lento, y sufre una desaceleración visible a partir de los 900 min. Esto sugiere que el proceso está limitado por la difusión intrapartícula, debido a que el adsorbente es principalmente mesoporoso, por lo que la difusión el interior de la partícula limita el proceso, debido al tamaño de la molécula del fenol (0.46nm-0.54 nm), que es mayor al tamaño de los poros que predominan en el adsorbente
CONCLUSIONES
La comparación de los datos simulados con los experimentales indica que la etapa determinante es el transporte intrapartícula, lo que explica que la adsorción se lleve a cabo lentamente. Esta idea se refuerza evaluando el tamaño de la molécula del fenol en comparación con el tamaño de los poros, lo que sugiere el uso de otro adsorbente que tenga poros con un tamaño mayor. Pese a esto, el GAC muestra un desempeño prometedor para la remoción de fenol, ya que, de acuerdo con los datos experimentales, es capaz de reducir considerablemente la concentración de fenol.
Flores Rodríguez Karla Paola, Instituto Tecnológico de Toluca
Asesor:M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa
MEDIDOR DE RESISTENCIA A LA RADIACIÓN SOLAR
MEDIDOR DE RESISTENCIA A LA RADIACIÓN SOLAR
Flores Rodríguez Karla Paola, Instituto Tecnológico de Toluca. Asesor: M.C. Federico Ampudia Ramírez, Instituto Tecnológico de Reynosa
PLANTEAMIENTO DEL PROBLEMA
MARCO TEÓRICO
Actualmente, el mundo se encuentra en una revolución tecnológica en el área de la generación de energía eléctrica en la que se busca el máximo aprovechamiento de las fuentes de energías renovables: una de las principales es la energía solar, la cual es aquella que se extrae de la radiación emitida por los rayos del sol.
Según estudios científicos, México es uno de los países más beneficiados en lo que se refiere a la disposición de luz solar, esto debido a su posición geográfica; esto representa muchas oportunidades dentro del área de instalación de paneles solares y de fotoceldas.
Se plantea desarrollar un dispositivo medidor de resistencia eléctrica de una fotocelda para determinar si es viable o no la idea de implementar paneles solares o fotoceldas en la ciudad de Toluca.
METODOLOGÍA
METODOLOGÍA DEL PROYECTO
Durante la estadía se llevó a cabo el proyecto de la instalación de una fotocelda en un determinado espacio, ubicado en la zona oeste de la ciudad de Toluca, Estado de México, México, con coordenadas 19.281 de latitud, y -99.666 de longitud. Esto con el fin de que la fotocelda recibiera una cierta cantidad de luz solar, la cual debía ser medida y registrada por medio de una tarjeta Arduino Mega 2560® a través del programa Matlab-Simulink®. Esto mediante la metodología de crear circuitos, tanto de forma física como virtual, que permitiera tomar las mediciones de la resistencia presente en la fotocelda durante un periodo de 3 a 4 semanas durante intervalos de 5 minutos con 2 hrs de separación entre cada medición.
Arduino® es una plataforma de creación de electrónica de código abierto, la cual está basada en hardware y software libre, flexible y fácil de utilizar; mientras que Matlab® es una plataforma de programación y cálculo numérico utilizada para analizar datos, desarrollar algoritmos y crear modelos. Matlab-Simulink® es una herramienta dentro del mismo Matlab® que sirve para la simulación de circuitos y otras estructuras a través de bloques.
Para la instalación de la fotocelda, se realizó la compra de los materiales necesarios: una laptop, una base, una tarjeta Arduino Mega 2560®, una resistencia de 10kΩ, cables, una protoboard, jumpers y una fotoceldas de 10X6 cm. Además de la instalación del software del Matlab®.
Para armar el medidor, se llevó a cabo el siguiente procedimiento: lo primero fue la medición y el proceso de soldadura de los cables a la fotocelda, para posteriormente pegar la fotocelda a la base. Una vez hecho esto, se armó el circuito en la protoboard conectado a la tarjeta Arduino Mega 2560®.
El circuito consiste en los siguiente: La salida de 5V del Arduino Mega 2560® es conectada a la alimentación de la protoboard, así como la tierra. Se conecta un cable que una a la alimentación con la terminal positiva de la fotocelda y se cierra el circuito al conectar la terminal negativa de la misma con una resistencia de 10kΩ la cual se conecta a tierra. Para finalizar se conectó un jumper que conecte la salida de la terminal negativa de la fotocelda a la entrada A0 del Arduino Mega 2560®.
Para llevar a cabo el experimento, se decidió colocar el dispositivo medidor dentro de un área cerrada que tuviera acceso a una ventana que le otorgara la luz solar a la fotocelda.
Algunas de las características claves para la colocación del experimento fueron: Primero, colocar el dispositivo a nivel del piso para que éste detectara mayor cantidad de luz solar durante el día. La segunda, que la fotocelda tuviera una orientación hacia el sur, y, por último, que la base donde estuviera pegada la fotocelda estuviera inclinada a 35°.
CONCLUSIONES
RESULTADOS
La resistencia de una fotocelda disminuye o aumenta de forma escalonada a medida que detecta la radiación solar conforme avanza el día.
Se demostró que en promedio la fotocelda presenta un comportamiento de resistencia de 0Ω en un periodo de entre 4 y 5 hrs (iniciando a contar desde las 10 hrs) debido también a las variaciones climatológicas.
Durante los intervalos de lluvias, la fotocelda logró alcanzar niveles semejantes a los registrados durante las lecturas nocturnas, aún en momentos en los que las lecturas anteriores registraban un valor de resistencia igual a cero. Estas variaciones también se vieron afectada por el tipo de precipitación (lluvia o granizo).
Existen variaciones frecuentes a partir de las 14:00 hrs donde los datos arrojaban la presencia de niveles de resistencia menores a 100Ω o incluso superiores a los 700Ω que perduraban dependiendo de la exposición de la fotocelda a la luz solar.
Durante las mediciones vespertinas, entre 15:00 y las 18:30 hrs, existieron variaciones notables en cuanto al aumento y disminución de la resistencia de la fotocelda. De esto se concluye que este es el periodo de tiempo en el que más varía la cantidad de luz solar que la fotocelda alcanza a detectar.
Se observó que el mejor periodo para adquirir la luz solar a través de la fotocelda es entre las 11:00 y las 14:00, esto dependiendo de la posición en la que se encontraba la fotocelda y las condiciones climatológicas.
CONCLUSIONES
La conclusión final de que en la ciudad de Toluca de Lerdo, Estado de México, México, si es viable la instalación de fotoceldas y paneles solares ya que se demuestra que en el mes de julio del 2021 se obtuvieron valores bajos o nulos de la resistencia de estos dispositivos.
Se logró el objetivo de desarrollar un medidor de la resistencia que adquiere una fotocelda de 10X6 cm expuesta a ciertos niveles de radiación solar durante periodos específicos del día.
Se obtuvieron los conocimientos para trabajar de manera exitosa en el software Matlab-Simulink® para el desarrollo de un modelo gráfico con el cual se registran los datos obtenidos de una recolección para una investigación.
Se logró el objetivo de despertar el interés de la juventud por continuar contribuyendo a la investigación logrando cumplir las expectativas del estudiante al ser guiado a través del proceso de investigación.
Flores Rodríguez Saul Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
DIGITALIZACIóN DE PERFILES ALARES MEDIANTE EL MéTODO DE PROYECCIóN DE FRANJAS
DIGITALIZACIóN DE PERFILES ALARES MEDIANTE EL MéTODO DE PROYECCIóN DE FRANJAS
Flores Rodríguez Saul Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Actualmente el avión o aeroplano es el medio de transporte con mayor repercusión a nivel global debido a su velocidad a la hora de realizar una ruta. El perfil alar es una parte muy importante de los aviones y que es vital para su funcionamiento. Su principal función es generar una diferencia de presiones entre su parte inferior y su parte superior de modo que este logre una sustentación al desplazarse en el aire, dicho de otro modo gracias al diseño del perfil es posible que la aeronave logre volar. A lo largo de la historia los tipos de experimentos realizados en estos han variado pasando de ser hechos de forma directa a hacerse con modelos computarizados en programas de computadora con aplicaciones en estructuras y aerodinámica. Algo a considerar es que una vez manufacturados dichos perfiles es poco común volver a usar métodos de experimentación por computadora para analizar su comportamiento; el objetivo de este proyecto es usar el método de proyección de franjas para poder hacer la digitalización de un perfil alar de modo que pueda someterse a pruebas en programas de simulación aeronáutica con el propósito de determinar la eficiencia o mejoras necesarias en aeronaves que ya llevan un largo tiempo de operación cuyas alas se han expuesto a distintas condiciones que pueden afectar su geometría original.
METODOLOGÍA
El objetivo de la estancia fue la construcción de un perfilómetro óptico mediante una cámara y un proyector. Para lograr lo anterior adquirimos una serie de conocimientos teóricos en la rama de álgebra lineal como lo fueron operaciones con vectores y matrices además del uso de coordenadas homogéneas con especial énfasis a sus operadores de conversión desde y a coordenadas rectangulares.
Contando ahora con las herramientas matemáticas que nos ayudarían en la estancia, repasamos el modelo de cámara pinhole, el proceso que lleva a cabo para formar la imagen y sus componentes. Aplicando el uso de las herramientas matemáticas previas vimos las demostraciones que mediante operaciones matriciales permiten determinar propiedades de la cámara como la matriz de parámetros intrínsecos (K), la matriz de rotación (R), la distancia focal (f), entre otras.
En la parte práctica repasamos el uso del software Matlab, en el la cual aprendimos a implementar las fórmulas teóricas en forma de algoritmos para determinar las propiedades antes mencionadas. Primero, se implementaron rutinas de procesamiento de imágenes para determinar homografías en base a fotografías de un objeto iluminado por un proyector y determinar su matriz de parámetros intrínsecos, pose de la cámara, distancia focal entre otros. Además en este aspecto vimos la creación de dichos patrones usando funciones sinodales y las propiedades que estos presentan al ser iluminados por luces de distintos colores.
Una vez aprendida la calibración pasamos a ver los fundamentos teóricos y la aplicación práctica para digitalizar a un objeto usando el método de proyección de franjas. Este método consiste en usar el proyector para iluminar el objeto de estudio con patrones de franjas que varían en función a su posición, ancho y dirección. De esta forma, la cámara captura una fotografía por cada variación hasta llegar a 30 imágenes, las cuales se procesan usando diversas implementaciones que hicimos en Matlab ( para capturar la luz de fase y fondo, desdoblar la fase, triangular los puntos, entre otras) y finalmente obtener un modelo digitalizado de la parte del objeto que fue iluminada con franjas. Como nota adicional algo que vimos es la posibilidad de optimizar el resultado obtenido mediante el ajuste de resolución, la cantidad de franjas y su longitud, además de restringir el rango de estas.
Finalmente la última parte de la estancia consistió en aplicar todo el proceso completo de digitalización a los proyectos individuales y a construir el perfilómetro y llevar a cabo su calibración de forma individual. Específicamente, en mi proyecto apliqué todo lo aprendido en mi estancia de investigación para digitalizar perfiles alares mediante el método de proyección de franjas. Al tener todas las herramientas para la calibración, captura y procesamiento de imagen los modelos 3D se obtuvieron sin mayor dificultad, quedando listos para su estudio en software de simulación aerodinámica.
CONCLUSIONES
A modo de conclusión los principales conocimientos y habilidades fueron el uso del software Matlab desde sus fundamentos a usos más avanzados en procesamiento de imagen. Además analizamos todas las demostraciones de fórmulas que realizamos usando operaciones de álgebra lineal aplicada a propiedades de la cámara. Finalmente también vimos de forma rápida el uso de LaTex mediante la plataforma "Overleaf" el cual es fundamental para la redacción de artículos científicos.
Aplicando lo anterior fue posible realizar la digitalización de diversos perfiles alares de pequeño tamaño como lo fueron aspas de ventiladores entre otros. Con el método de proyección de franjas pudimos observar como ventaja la detección de detalles específicos del objeto. En cuanto a las limitaciones encontramos dos principalmente. Primero, el proceso de calibraciones es un poco tardado. Segundo, el perfilómetro solo puede digitalizar una vista del objeto en cuestión. El siguiente paso en mi proyecto sería la digitalización de perfiles de mayor tamaño y su posterior análisis usando software de estructuras y aerodinámica como lo son "Ansys" y "OpenRocket" de modo que sea posible realizar pruebas más fiables en aeronaves reales. Este proyecto representa un gran aporte dado que las aeronaves analizadas podrán recibir un mantenimiento más adecuado a su desempeño en los programas de simulación, disminuyendo los gastos de mantenimiento y posibles incidentes que estos puedan llegar a tener.
Flores Sáyago Marlon Paul, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla
CRIPTOGRAFIA EN DISPOSITIVOS MÓVILES
CRIPTOGRAFIA EN DISPOSITIVOS MÓVILES
Flores Sáyago Marlon Paul, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Barbara Emma Sanchez Rinza, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Podemos considerar a la Criptografía como el arte de transformar, reordenar, distorsionar o modificar de algún modo (o mediante algún algoritmo de cifrado), alguna pieza de información que consideremos relevante, con el fin de ocultarla del conocimiento de otros usuarios. En la cotidianeidad, es imprescindible esta ciencia debido a la importancia de la discreción de información de gobiernos, empresas o individuos, y gran parte de ésta fluye no sólo entre grandes computadoras y servidores empresariales, sino también en dispositivos móviles personales.
Es por esto, para favorecer la investigación y el desarrollo de este campo tan imprescindible, que se plantea este proyecto, y para obtener de esto un prototipo de plataforma diseñada y desarrollada con enfoque a la comunicación concurrente segura para dispositivos móviles.
METODOLOGÍA
En primera instancia, se realiza investigación exhaustiva sobre los dispositivos móviles: evolución, funcionalidades y software. También se realiza investigación sobre criptografía: historia, técnicas de criptografía y los algoritmos más usuales. Posteriormente se plantea el enfoque de ambas áreas hacia el diseño de una plataforma de comunicación.
Finalmente, con base en lo realizado, se desarrolla un modelo y un prototipo de plataforma de mensajería móvil con seguridad criptográfica real.
CONCLUSIONES
Se obtiene una investigación fundamentada con una aplicación de la criptografía en la comunicación móvil, así como un prototipo de plataforma que permite la misma, todo esto con el fin de fomentar el reconocimiento de su relevancia en el funcionamiento de la sociedad y el mundo hoy en día.
Flores Tapia Roberto Carlos, Universidad Tecnológica de Nayarit
Asesor:Mg. Mauricio Andres Vásquez Carbonell, Universidad de la Costa
DISEñO Y DESARROLLO DE UN PROTOTIPO DE APLICACIóN EDUCACIONAL PARA AFIANZAR LOS CONOCIMIENTOS EN INFORMáTICA A ESTUDIANTES UNIVERSITARIOS.
DISEñO Y DESARROLLO DE UN PROTOTIPO DE APLICACIóN EDUCACIONAL PARA AFIANZAR LOS CONOCIMIENTOS EN INFORMáTICA A ESTUDIANTES UNIVERSITARIOS.
Flores Tapia Roberto Carlos, Universidad Tecnológica de Nayarit. Meza Enciso Jonathan Alejandro, Universidad Tecnológica de Nayarit. Asesor: Mg. Mauricio Andres Vásquez Carbonell, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Las aplicaciones educativas están definidas por Hirsh-Pasek et al. (2015) como aquellas en los que los niños son cognitivamente activos y comprometidos, cuando las experiencias de aprendizaje son significativas y socialmente interactivas, y cuando el aprendizaje está guiado por un objetivo específico (p. 5).
Mediante una revisión de la literatura efectuaba en una base de datos científica, se pudo constatar que las TIC han ido permeando los contextos escolares, convirtiéndose en recursos esenciales al interior de las instituciones educativas; a pesar de ello, la integración y apropiación de éstas no ha sido fácil, ya que se ha evidenciado por parte de muchos autores, la falta de la calidad de las apps y de un correcto uso de estas herramientas tecnológicas limitando su potencial. (Papadakis et al., 2018)
Chang, Lai, & Hwang en el 2018, explica que el aprendizaje basado en la investigación, el aprendizaje móvil contextual, las herramientas mentales, el aprendizaje basado en proyectos y la evaluación por pares podrían ser beneficiosos para los alumnos en términos de su pensamiento de orden superior, como la resolución de problemas y el rendimiento del pensamiento crítico por lo tanto es importante la implementación de estas aplicaciones debido a que se ha demostrado que el grupo de usuarios que utiliza los dispositivos móviles están en una edad Típica para los estudiantes universitarios, la cual oscila entre 18 y 29 años, por lo que hay facilidad para el uso de estas, además de conocimiento por parte de los usuarios que serán beneficiados. Esto se confirma con algunos investigadores, como la de Kallissa et al. (2017), la cual demuestra que el teléfono celular continúa siendo el dispositivo electrónico más usado (43%).
Otra problemática encontrada, relacionada con la principal, es la queja de varios autores expresando la falta de una validación de las llamadas aplicaciones educativas, así como la falta de un correcto desarrollo de estas, debido a la ausencia de un grupo de expertos interdisciplinarios (Educadores, expertos en el área a desarrollar la aplicación, diseñadores y desarrolladores, por mencionar algunos) lo cual evita que la aplicación sea 100% beneficiosa de acuerdo al tema que planea abordar.
Vaala, Ly y Levine en el 2015, comentan que la mayoría de las aplicaciones no cumplen con los requisitos educativos estándar para los niños de hoy y de mañana. En la mayoría aplicaciones educativas, el contenido educativo se basa solo en el formato de preguntas de tipo cerrado, como las de opción múltiple preguntas con una sola respuesta posible.
METODOLOGÍA
Inicialmente, se dividió la investigación en dos fases dentro de la primera se encuentra la búsqueda de información, la realización de prototipos y la codificación de la app, la segunda fase corresponde a la implementación de un SGBD (Sistema Gestor de Base de Datos) y la realización de las pruebas correspondiente a la app. De acuerdo a la fase 1 se realizó una búsqueda del estado del arte sobre aplicaciones educativas a fin de conocer las problemáticas relacionadas. Se revisaron diferentes artículos científicos enfocados a aplicaciones educativas para obtener una visión general y como resultado se encontró falencias en las validaciones de estas por ejemplo la falta de acompañamiento por educadores al momento de realizarlas, así como la falta de un correcto proceso de desarrollo.
Posteriormente, se inició el proceso de creación de una app educativa, utilizando para ello una herramienta para la creación de prototipos y bocetos de aplicaciones para dispositivos móviles y páginas web, llamada ninjamock. Se procedió a buscar el logo e iconos con ayuda de freepik para incorporarlos como contenido multimedia que se utilizaran a fin de diseñar la interfaz para luego proceder a codificar la aplicación educativa. Se utilizo el entorno de desarrollo de Visual Studio con la plataforma de código abierto de Xamarin para realizar las interfaces aprovechando que está diseñada para codificar aplicaciones multiplataforma. Iniciando la fase 2 se utilizo un SGDB (Sistema Gestor de Base de Datos) llamado SQLite para poder registrar y guardar la información, durante las pruebas correspondientes.
CONCLUSIONES
Como resultados de avance, se cuenta con la codificación de la aplicación móvil orientada al refuerzo de los conocimientos informáticos en estudiantes de universidad específicamente
en Excel, usando como base el plan de asignatura de la Universidad de la Costa, terminando así la fase 1 de la investigación y procediendo a implementar el SGBD (Sistema Gestor de Base de Datos) dentro de la app.
Flores Vazquez Andrea Yoselin, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
VALORIZACIóN DE BIOMASAS PARA LA PRODUCCIóN DE BIOENERGéTICOS Y OTROS PRODUCTOS DE VALOR AGREGADO.
VALORIZACIóN DE BIOMASAS PARA LA PRODUCCIóN DE BIOENERGéTICOS Y OTROS PRODUCTOS DE VALOR AGREGADO.
Flores Vazquez Andrea Yoselin, Instituto Politécnico Nacional. Martínez Monzón Bryan, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
El crecimiento y la evolución de nuestra civilización implican mayores cantidades de energía, la cual hasta ahora se obtiene mayormente de combustibles fósiles, como el petróleo, carbón y gas natural. Sin embargo, los efectos cada vez más devastadores del cambio climático y del calentamiento global sumado al agotamiento de los combustibles fósiles, han llevado a la sociedad moderna a buscar e implementar nuevas tecnologías que garanticen su sostenibilidad y que sean factibles, económicamente competitivas y ambientalmente amigables.
Una de las fuentes de energía alternativas más estudiadas y que destaca sobre las demás es la biomasa. La biomasa es la materia orgánica obtenida por procesos biológicos, pudiendo ser esta de origen vegetal o animal. De la biomasa vegetal se puede obtener biodiesel, ya que se compone principalmente por celulosa, hemicelulosa y lignina, además de otros compuestos como aceites cuya composición varía según la fuente de biomasa; son estos aceites que pueden transformarse en biodiesel mediante una reacción de trans/esterificación catalizada. Es por ello que el problema principal está en encontrar biomasas que no sean comestibles y que contengan un alto contenido de lípidos. Por tanto, en este proyecto se determinaron las condiciones que permitieran una mejor extracción de los lípidos mediante el empleo de solventes verdes ya que el objetivo es obtener un proceso de producción de bioenergéticos que sea sustentable.
METODOLOGÍA
Dentro de las materias primas estudiadas, se consideraron las siguientes biomasas: hueso de aguacate y semilla de guayaba.
Pretratamiento de las biomasas. Las biomasas fueron molidas, secadas y finalmente tamizadas para homogenizar el tamaño de partícula. Se utilizaron tamices de malla 35-16 para el hueso de aguacate y tamiz de malla 40 para las semillas de guayaba.
Extracción de lípidos. Se utilizó hueso de aguacate con un tamaño de partícula de 0.5 - 1.18 mm. Se evaluó el efecto de la relación masa-solvente donde se adicionaron 5 g de biomasa con 20, 30, 40, 50 y 60 mL del solvente acetato de etilo. Después se mantuvieron en agitación constante en una parrilla por 10 min a temperatura ambiente y se dejó reposar por 4 h para obtener la separación de fases extrayendo la fase líquida de las muestras. En una campana de extracción se evaporó el solvente para recuperar el aceite vegetal que se utilizará para la producción del biodiesel. El procedimiento anterior se empleó con la semilla de guayaba con un tamaño de partícula de 0.42 mm.
Se evaluó el efecto del solvente sobre la extracción de lípidos contenidos en el hueso de aguacate. Se realizaron extracciones por triplicado para cada uno de los siguientes solventes: Hexano, Propionato de Etilo y Acetato de Etilo, con una relación biomasa/solvente de 0.1 g/mL. A diferencia de las pruebas anteriores, las muestras se colocaron en un baño con agitación a 30 °C durante 3 h y a 120 rpm.
El porcentaje de lípidos extraído se calculó con la fórmula: %lípidos=(((vaso+aceite)-vaso)/(masa de biomasa))*100
Experimentos cinéticos. Para determinar la cinética del proceso de extracción de los aceites se realizó un experimento similar a los anteriores, pero variando el tiempo en un rango de 0.08 a 9 h, manteniendo la cantidad de biomasa y el volumen del solvente constantes. Las cinéticas se realizaron por duplicado utilizando una relación biomasa/solvente de 0.1 g/mL con butirato de etilo como solvente verde. Se evaluó el efecto de la temperatura a 20 °C y a 30 °C en un baño con agitación marca LabTech modelo LSB-0155. Cada par de tubos se retiró en el tiempo indicado, desde 0.08 hasta 9 h.
Reacción de trans/esterificación. A partir del aceite extraído de la semilla de guayaba con butirato de etilo se llevó a cabo la esterificación utilizando una relación molar de 10:1 (metanol/aceite). El tubo de reacción se colocó en una parrilla con control de temperatura a 60 °C y agitación por 6 h, utilizando como catalizador HCl al 0.25 % en peso con respecto al aceite. Se utilizó un catalizador ácido porque el índice de acidez del aceite es mayor que 1% y puede provocar la formación de jabón en la reacción. Posteriormente, se realizó la reacción de transesterificación del producto de reacción anterior con una relación molar 6:1 (metanol/aceite), a una temperatura de 60 °C, en y empleando 0.043 g de KOH como catalizador básico.
La cantidad de ésteres metílicos de ácidos grasos (o biodiesel) obtenida en la reacción se determinó por Cromatografía de Gases, donde el estándar interno utilizado fue heptadecanoato de metilo con una concentración de 2.01 g/L, como base para el cálculo del porcentaje de formación de FAMEs.
CONCLUSIONES
Al obtener los resultados y compararlos con pruebas anteriores se observa que la cantidad de aceite de semilla de guayaba extraído con butirato de etilo fue mayor que la de hueso de aguacate. Dicha cantidad incrementa conforme aumenta la cantidad de solvente y así mismo la temperatura. Por otra parte, el solvente propionato de etilo extrajo una mayor cantidad de lípidos del hueso de aguacate.
Con relación a las cinéticas de extracción, los resultados indican que a mayor tiempo de extracción mayor porcentaje de lípidos es extraído. Así mismo, al aumentar la temperatura se obtiene mayor porcentaje de lípidos. A partir de las 7 horas, no existe una apreciable variación en la cantidad de aceite extraído, es decir, llega a un punto en donde la velocidad de extracción es casi constante.
Finalmente, con los valores obtenidos por cromatografía de gases se obtuvo el porcentaje de ésteres metílicos de ácidos grasos, determinando que cuando se utilizan aceites refinados el porciento de biodiesel es más alto que cuando se utilizan aceites sin refinar. A pesar de que todavía es necesario realizar más experimentos para encontrar las mejores condiciones de operación, los resultados obtenidos fueron de gran utilidad para la producción de biodiesel.
Flores Zapata Rafael, Universidad Autónoma de Tamaulipas
Asesor:Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas
IMPLEMENTACIóN DE UNA HERRAMIENTA DE APRENDIZAJE AUTOMáTICO Y MINERíA DE DATOS
IMPLEMENTACIóN DE UNA HERRAMIENTA DE APRENDIZAJE AUTOMáTICO Y MINERíA DE DATOS
Flores Zapata Rafael, Universidad Autónoma de Tamaulipas. Asesor: Dr. Edgar Tello Leal, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La minería (data mining) de datos es el proceso de hallar anomalías, patrones y correlaciones en grandes conjuntos de datos para predecir resultados. Con la minería de dato se puede filtrar encontrar relevancia en los datos de un gran conjunto para poder aplicarles un buen uso a dicha información, esto a su vez favorece y optimiza la toma de decisiones; tomando en cuenta además que con la minería de datos procesos como la filtración del ruido y la repetitividad de datos son situaciones desfavorecedoras manejables. Para realizar el proceso de la minería de datos se pueden emplear una amplia variedad de técnica, las cuales entre muchas cosas, se aplicaran en base al objetivo que se le quiera dar a los datos que se procesen y a la forma con la que estos se procesaran o se desea que sean procesados. Actualmente la minería de datos tiene una gran cantidad de ámbitos en los cuales se puede aplicar, esto ya que se puede observar implementada en las comunicaciones, en la manufactura, en los bancos, en el retail, educación, entre otros ámbitos. Además, cabe destacar la estrecha relación que se encuentra entre la minería de datos y los procesos de machine learning tomando en cuenta que mientras que la minería de datos se enfoca en procesar datos para descubrir patrones que anteriormente eran desconocidos, el machine learning se usa para reproducir patrones conocidos y hacer predicciones basadas en patrones a partir del aprendizaje supervisado, el cual es aquel que se podria decir cuenta con información y datos previamente identificados; sin embargo también es relevante el aprendizaje no supervisado, el cual seria el manejo de datos que no cuentan un etiquetas o no ha sido identificado al momento de trabajar con el.
METODOLOGÍA
Para realizar las actividades y ejercicios de minería de datos este verano de investigación se científica se utilizó como herramienta de trabajo el lenguaje de programación Python, el cual fue complementada por un conjunto de librerías, entre las cuales destaca principalmente Scikit-learn, la cual dio acceso a herramientas y opciones de aprendizaje supervisado y no supervisado para trabajar con machine learning además de modelos para procesamiento de datos, de selección y evaluación de datos y su graficación, entre otras funciones que nos aportó. Es de mencionar también el uso que se le dio al IDE (entorno de desarrollo integrado) de Jupyter como medio para interactuar con las librerías ya mencionadas y el lenguaje de programación en cuestión. En conjunto, apoyados de las librerías ya mencionada, el IDE anterior y el lenguaje de programación Python ya mencionados se utilizó el método KMeans para realizar la minería de datos y el proceso de Clustering (agrupamiento de datos), la selección de este método consto de ser un método accesible y fácilmente entendible para una introducción al ámbito de la minería de datos, como lo podría ser el manejo de las distancias euclidianas y el hecho de tener que elegir por nuestra propia cuenta la cantidad de centroides y agrupaciones. Los datos que se manejaron fueron creados de forma aleatoria a la vez que fueron dados por el investigador, es destacable que los datos que se manejaron fue de aprendizaje no supervisado ya que no estaban etiquetados con anterioridad.
CONCLUSIONES
Durante el verano de investigación se realizaron dos principales actividades.
La primera actividad consto de la implementación y utilización de todo el conocimiento adquirido en el verano para procesar un conjunto de datos aleatorios generados específicamente para este ejercicio.
El proceso de la realización de este ejercicio partió de la implementación de las librerías que se utilizarán en la IDE de Jupyter.
Posterior a eso, se procedió a ingresar los datos que se iban a procesar en el ejercicio en cuestión, a la par que se expresaban de forma gráfica los datos para poder tener una interpretación visual de estos antes de ser tratados.
Una vez ingresados los datos y graficados, se ingresó la cantidad de agrupaciones (clusters) en las cuales se buscaría agrupar los datos.
Por último, y una vez teniendo los datos, y la cantidad de agrupaciones que se desean, se imprimió en pantalla cuales serían los centros de dichas agrupaciones con el procedimiento de K-Means, al igual que se imprimió que se identificaran y que posteriormente se graficaran en pantalla con distinción de colores entre ellas para poder verlas y comprenderlas a simple vista.
La segunda actividad consiste en importar el conjunto de datos (dataset) desde una fuente en formato .CSV, con el fin de aplicar el algoritmo de agrupamiento (clustering) K-means sobre un conjunto de datos de mayor tamaño. En este ejemplo, el archivo fuente es un documento CSV pero el procedimiento es similar para otros tipos de archivos.
Primeramente, se definen las librerías requeridas para implementar el algoritmo de clustering.
A continuación, se cargan los datos a partir de la fuente de datos .CSV, definiendo la ruta de almacenamiento del archivo, desplegando parte del contenido del documento en pantalla, con el fin de verificar que las instancias del conjunto de datos se importaron correctamente.
A partir de esto, se pueden manipular los datos y realizar operaciones estadísticas sobre las instancias, por ejemplo, calcular media aritmética, mínimo, máximo, conteo, entre otras operaciones.
También, se puede desplegar en pantalla los atributos del conjunto de datos por separado.
Además, los valores de los datos en bruto y las operaciones calculadas se pueden representar mediante diferentes tipos de gráficas, permitiendo tener un punto de vista diferente para analizar los valores de datos.
En la siguiente imagen, se muestra el código para ejecutar el agrupamiento a partir de los atributos o variables identificadas y/o seleccionadas del conjunto de datos, mostrando en consola los grupos generados de acuerdo al valor definido de centroides (k).
Por último, los grupos generados por el algoritmo K-means se pueden representar mediante una gráfica, la cual muestra el posicionamiento de cada elemento y los elementos similarmente coincidentes que forman cada grupo. Lo anterior, permite una visualización de los elementos que conforman cada grupo, las distancia entre los elementos de un grupo, y la separación entre grupos.
Flota Chuc Erick Ronaldo, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
RUTEO VEHICULAR
RUTEO VEHICULAR
Flota Chuc Erick Ronaldo, Consejo Quintanarroense de Ciencia y Tecnología. Ortega Bañuelos Natali, Tecnológico de Estudios Superiores de Valle de Bravo. Samano Peña Heimy Lissette, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Ramírez Leslie Marlene, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
El ruteo de vehículos nace de la necesidad de determinar las rutas posibles de entrega a los diferentes clientes o consumidores dentro de un área geográfica definida. Las entregas mencionadas se realizan con vehículos que tienen capacidad de carga o volumen. Se pretende realizar las entregas con la menor cantidad de vehículos o bien con el menor recorrido. En el ruteo de vehículos, existe un depósito central de donde parten los vehículos, se tiene un conjunto de clientes que requieren el producto, se cuenta con una flota vehicular y se conocen las distancias de recorrido para llegar a los clientes.
El VRP optimiza las rutas que se tienen que seguir dependiendo de las condiciones que se nos brindan, como lo son la distancia, capacidad del vehículo y el pedido de los destinos. En otras palabras, el Ruteo de Vehículos permite establecer las rutas que debe seguir una flota de vehículos, con el propósito de optimizar las variables asociadas al transporte de mercancías o prestación de servicios, tales como costos, distancias, nivel de satisfacción al cliente, entre otros.
Ahora bien, los objetivos principales que busca el VRP son obtener el menor costo total asociado a transporte, menor distancia recorrida, menor tiempo de distribución, entre otras variables, sujetas a los requerimientos que se nos brinde.
Los componentes generales que se establecen para el estudio de un problema de ruteo son: los clientes, vehículos, depósitos, restricciones y objetivos. El cliente cuenta con una demanda establecida que necesita ser satisfecha por la flota de vehículos, la cual debe salir y regresar al depósito. Los objetivos y restricciones se establecen dependiendo del caso de estudio. Con el parámetro que hace falta mencionar, se tiene que dejar claro si al final todos los vehículos deben regresar.
Este tema ha sido objeto de una gran cantidad de estudios, trabajos de investigación y publicaciones; por su gran utilidad y por ser práctico. Entre las técnicas más utilizadas para su solución se encuentran las relacionadas con heurísticos, también los métodos exactos y los métodos de aproximación. Aunque los métodos de aproximación no brindan una respuesta exacta, si permiten evaluar una mayor cantidad de variables y se pueden plantear escenarios más apegados a la realidad.
METODOLOGÍA
Los algoritmos genéticos son considerados una excelente herramienta para resolver problemas complejos en optimización con restricciones difíciles. Las etapas de esta metodología son:
Población inicial: En la población inicial los individuos deben estar bien dispersos por el espacio de soluciones. La manera más simple de cumplir con este objetivo es elegir individuos al azar, pero el uso de alguna técnica de indagación y descubrimiento.
Evaluación de los individuos: Para la evaluación de los individuos simulando la selección natural, se utiliza una variable llamada fitness, que representa qué tan buenos son los individuos que hay en la población.
Selección: Esta etapa será la encargada de elegir qué individuos van a disponer de oportunidades de reproducirse y cuáles no. Existen diferentes métodos:
Método de selección de la ruleta (roulette wheel method).
Método de selección del ranking.
Método de selección del torneo.
Operadores genéticos: permiten que las soluciones puedan reproducirse y mejorar sus características, mutar cambiando aleatoriamente sus genes y así poder moverse por el espacio de búsqueda. Se divide en los siguientes apartados:
Cruzamiento (crossover).
Mutación.
Inversión.
Criterio de término: es el encargado de definir el momento en el cual debe interrumpir el ciclo de evolución y adoptar el individuo más apto como la solución encontrada por el algoritmo genético. Estos pueden ser:
De identidad.
De aptitud.
De generaciones.
CONCLUSIONES
La introducción a un nuevo lenguaje de programación es un reto en sí, pero también lo es el trabajo en equipo. Para la creación de un algoritmo genético en C++ nos da la oportunidad de conocer cómo aplicar el lenguaje para resolver el problema del ruteo vehicular. Transformando instrucciones escritas a líneas de código que realizan lo mismo, hemos llegado a la conclusión que los algoritmos genéticos son de gran ayuda al resolver problemas con varias restricciones.
Este tipo de algoritmos se basan en los principios de genética y selección natural, resultan útiles como técnica de optimización y búsqueda. El algoritmo genético que se estuvo realizando durante casi cuatro semanas es un método para la optimización de procesos, en este caso en el ruteo vehicular donde podemos comprender que la función que debe realizar es buscar la mejor ruta que debe recorrer un vehículo para entregar la carga a sus diferentes clientes. Teniendo en cuenta que el vehículo tiene una capacidad de carga, los clientes piden diferentes tamaños de carga y la distancia que recorre el vehículo en cada una de las trayectorias.
Este tipo de métodos nos ayudan a obtener las mejores rutas que pueden ser tomadas, teniendo en cuenta las características antes mencionadas, haciendo de la ruta un ruteo vehicular eficiente y eficaz.
De igual manera fue necesario contemplar algunos factores relevantes que influyeron en el desarrollo del problema como la distribución desde un depósito central a un conjunto de clientes geográficamente dispersos. Además de conocer la demanda en cada punto de venta, cantidad de vehículos disponibles con sus respectivas capacidades, ubicación geográfica del depósito y clientes. La presencia de estos factores en problemas de ruteo de vehículos hace que sean difíciles de resolver por encontrarse en la categoría NP- complejo, con base en las características derivadas de cada problema.
Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
APLICACIóN MóVIL PARA INCENTIVAR LA AGRICULTURA URBANA "U-FARMER"
Barajas Vargas Dulce Odaliz, Instituto Tecnológico Superior de Uruapan. Espinosa Moreno Victor Hugo, Universidad Autónoma de Chiapas. Fonseca Cruz David, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Juan Fernando Garzón Álvarez, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
En México el tema de los huertos urbanos no es tema del día a día, por lo tanto se sufre de desinformación sobre los beneficios que estos traen consigo. Siendo que algunos de estos son: ayuda económica, mejora de la salud, disminución del desgaste físico-mecánico del suelo y las aguas residuales.
METODOLOGÍA
El modelo ADDIE es el proceso utilizado por diseñadores y desarrolladores de capacitación. Las cinco fases: Análisis, Diseño, Desarrollo, Implementación y Evaluación representan una guía para construir herramientas de capacitación y apoyo al desempeño.
En la fase de análisis, se aclara el problema de instrucción, La fase de diseño se ocupa de los instrumentos de evaluación, La fase de desarrollo es donde se crea y ensambla el contenido, En la fase de implementación, se desarrolla un procedimiento para capacitar a los facilitadores y alumnos y por último la fase de evaluación proporciona oportunidades de retroalimentación de los usuarios.
CONCLUSIONES
Una de las tendencias estimadas para el 2030 es un alto incremento de la densidad poblacional, según la ONU seremos tres mil millones de habitantes más, donde aproximadamente el 60% de la población total vivirá en las ciudades, teniendo en cuenta que, al incrementar la densidad poblacional. Si no se hace una buena gestión de los recursos, nosotros como sociedad nos veríamos obligados a generar estrategias en un contexto, tal vez, con menos posibilidades que las de ahora. Por lo que los huertos urbanos representan una opción de cultivo sustentable que se realizan en espacios pequeños dedicados a sembrar y cosechar alimentos, logrando así parte del cuidado del medio ambiente y también del beneficio personal.
Es por ello, que promover prácticas que sean sostenibles y enseñar a la población a fortalecer su capacidad científica para avanzar hacia modalidades de consumo y producción sostenible, es algo fundamental para la supervivencia y bienestar de nuestra especie.
Forero Segovia Nicolas, Universidad Autónoma de Manizales
Asesor:M.C. Irma Alejandra Amaya Patrón, Universidad Autónoma de Baja California
MONITOREO E INTERVENCIONES PERSUASIVAS MHEALTH PARA CUIDADOS POSTOPERATORIOS
MONITOREO E INTERVENCIONES PERSUASIVAS MHEALTH PARA CUIDADOS POSTOPERATORIOS
Forero Segovia Nicolas, Universidad Autónoma de Manizales. Vera Betancourt Carlos Alberto, Universidad Autónoma de Manizales. Asesor: M.C. Irma Alejandra Amaya Patrón, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El objetivo de desarrollo sostenible número tres titulado salud y bienestar [2], es aquel que busca garantizar una vida sana y promover el bienestar en todas las edades como un punto esencial para el desarrollo sostenible y donde se resalta que existen un gran número de problemas de salud, tanto constantes como emergentes. De hecho, una de las metas de este objetivo es reforzar la capacidad de todos los países, en particular los países en desarrollo, en materia de alerta temprana, reducción de riesgos y gestión de los riesgos para la salud nacional y mundial
Es por esto que se decide aportar en la obtención de esta meta desde el cuidado postoperatorio de pacientes, con el cual se puede asegurar una buena recuperación de la cirugía realizada a la persona [3]. Dentro de estos cuidados se encuentran diferentes recomendaciones e indicaciones según el proceso realizado y a seguir, como lo puede ser:
Realizar movimientos y actividad física [4]-[6]; como se evidencia en el trabajo de Sporrel et al. [6] donde relacionan la actividad física con la duración de la estancia en el hospital.
Mantener reposo y/o la inmovilización [7], [8], por ejemplo la investigación de Shimizu et al. [8] donde comparan diferentes tipos y periodos de inmovilizaciones después de la reconstrucción de ligamentos cruzados anteriores.
De acuerdo a lo mencionado anteriormente es que se propone desarrollar un prototipo mHealth de monitoreo e intervenciones persuasivas para el cuidado postoperatorio de pacientes, con lo que se busca mejorar la calidad en la atención a los pacientes, el bienestar de los mismos y la toma de decisiones en base a la información recolectada.
Después de una revisión de la literatura centrándose en el monitoreo del paciente y basándose en los conceptos clave acelerómetro, cuidados postoperatorios, sensores específicos, sensores del smartphone, autocuidados informados, comparación de sensores frente a datos autoinformados, medición reposo y medición actividad física, se vió reflejado que no existe un trabajo que relacione todos los conceptos mencionados.
De igual manera se realizó otra revisión de la literatura, está centrándose en intervenciones mHealth persuasivas a pacientes postoperatorios y basándose en los conceptos clave Diseño de sistemas persuasivos, Estrategias de persuasión, Adherencia a los sistemas, mHealth, Comparación de estrategias, Cuidados post-operatorios, Descanso, Intervención adaptativa. Al igual que en la primera revisión nombrada, en esta también se vió reflejado que no existe un trabajo que relacione todos los conceptos. Es por esto, que se decide continuar con el proyecto y el desarrollo del prototipo mHealth.
METODOLOGÍA
Revisión de literatura
Lectura de artículos científicos acerca de las intervenciones, las técnicas y/o estrategias de monitoreo, las estrategias de persuasión, y el diseño de sistemas persuasivos para el cuidado de pacientes postoperatorios mediante mHealth
Selección de estrategias de monitoreo al paciente
Esta consiste en la búsqueda de las estrategias para monitorear al paciente haciendo uso del mHealth. Conociendo estas se selecciona la que se considere más adecuada para el proyecto.
Selección de estrategias de persuasión
Similar a la actividad anterior, se realiza una búsqueda de las estrategias existentes que se usan para generar un cambio de comportamiento (o mantenerlo) en el usuario, y de estas se seleccionan las que presenten una mejor adherencia a la hora de persuadir al usuario.
Identificación del funcionamiento y características básicas del prototipo
Obtener y especificar los requerimientos funcionales y no funcionales del sistema que se va a desarrollar. Para esto se intenta dar respuesta a las preguntas de ¿Qué debe hacer el prototipo? y ¿Qué características va a tener? [13]
Selección de la arquitectura del sistema
En esta actividad se escoge cuáles son las tecnologías con las que se desarrollará el prototipo en sus diferentes fases y con las que se implementarán las estrategias de persuasión escogidas.
Elaboración del wireframe del prototipo
Consiste en elaborar el esquema del prototipo, en cómo serán sus interfaces y el flujo en sus diferentes pantallas. En este esquema se visualiza la experiencia del usuario al interactuar con el prototipo.
CONCLUSIONES
Conforme a las actividades realizadas se cuenta con un diseño para el prototipo mHealth centrado en el usuario. Donde se hace uso de elementos con los que ya cuentan los teléfonos inteligentes como lo es el acelerómetro y de tecnologías que permiten el desarrollo del prototipo sabiendo los sistemas operativos móviles como Rest Api, microservicios de notificaciones push, y servicios en la nube. Las interfaces, flujos y experiencias de usuario del prototipo presentan características persuasivas que motivan a los pacientes postoperatorios a mantener un buen comportamiento en su cuidado. Logrando esto mediante el monitoreo del estado del paciente, el establecimiento de metas, el acceso continuo a recordatorios, la ganancia de recompensas y halagos virtuales según se cumplan las metas, y la muestra de que la información que provee el sistema es de fuentes confiables. De esta manera, mejorando la recuperación del paciente y disminuyendo el tiempo para que pueda retomar la realización de movimientos que no se pueden hacer recién se sale de una operación.
Finalmente, uno de los retos con los que cuenta la organización mundial de la salud para realizar el seguimiento y monitoreo de los ODS (SDG), en este caso salud y bienestar, están relacionados a la recolección de datos, como la disponibilidad limitada de datos o pobre infraestructura y herramientas de la infraestructura [23]. Este proyecto aporta en esta dirección como una oportunidad de apoyar la obtención de datos mediante sensores que recopilan información y la almacenan en datos masivos para su procesamiento a gran escala, lo cual beneficia y sirve para mejorar y promover la salud de las personas, en este caso pacientes postoperatorios que necesitan mantener una serie de cuidados y reposo mientras se recuperan.
Franco Enríquez Catalina, Universidad Autónoma de Occidente
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
Franco Enríquez Catalina, Universidad Autónoma de Occidente. Miranda Albiter Ervyn, Instituto Politécnico Nacional. Mujica Gómez Valeria, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El proyecto se basa en utilizar las Interfaces Cerebro-Computadora (BCI), para medir las señales electroencefalográficas y así convertirlas en salidas las cuales sean interpretadas en el uso de tecnologías de apoyo para las personas. En el proyecto se utilizan los potenciales evocados visuales en estado estable los cuales son registrados en la zona occipital del cerebro y se presentan mediante estímulos visuales; se le realizará la debida extracción de características y preprocesamiento con el fin de reducir en mayor medida los falsos positivos para prevenir riesgos que estos puedan generarse cuando un paciente hace uso de esta tecnología.
METODOLOGÍA
El modelo funcional está compuesto por un estimulador visual, una etapa de adquisición de biopotenciales, una etapa de procesamiento y por último el generador de comandos que manejará el dispositivo de asistencia al usuario.
Lo primero que se realiza es la adquisición de las señales a partir de la estimulación por medio de diferentes frecuencias; continúa el preprocesamiento de los datos para reducir artefactos, se procede a implementar la extracción de características, se clasifican y por último se efectúa el sistema de control.
CONCLUSIONES
Los registros se dividieron en cinco participantes, en donde nosotros únicamente estamos analizando al participante número dos, nos apoyamos de dos herramientas que son la matriz de confusión y la curva ROC.
Un parámetro para evaluar la eficacia de la prueba en la curva ROC es el área bajo la curva que tomará valores entre 1 (prueba perfecta) y 0,5 (prueba inútil).
En la matriz de confusión se obtienen verdaderos positivos y negativos, y falsos positivos y negativos en donde el mejor clasificador obtuvo 104 verdaderos positivos de 135 trials.
El modelo que tuvo más acierto fue el de regresión logística el cual se trata de un modelo de probabilidad lineal, en el que la probabilidad condicionada es función lineal de los valores de las variables de entrada. Por tanto, obtenemos la probabilidad de que la variable dependiente tenga un valor categórico u otro (0 o 1) debido a que es un clasificador binario.
Finalmente observamos que al realizar las pruebas de clasificadores con cada una de las frecuencias observamos que las primeras (5-7 Hz) y últimas (15-30 Hz) obtuvieron un menor porcentaje de exactitud, y entre 8-12 Hz se obtuvieron porcentajes más altos.
Y que al eliminar los trials con ruido obtenemos menores porcentajes de exactitud en los clasificadores.
De igual manera al analizar los datos obtenidos del estudio de modelos de clasificación, observarmos que las frecuencias de mayor exactitud son aquellas que forman parte de las ondas alfa y beta, relacionadas a actividades cerebrales de concentración y meditación que se relacionan de manera directa con el ensayo experiemental del cual se obtuvieron las bases de datos, de esta manera intuimos que los resultados obtenidos mantienen cierto grado de veracidad respecto a la relación que encontramos entre nuestros resultados y las referencias relacionadas al tema.
Franco Gómez Ana Valentina, Universidad Católica de Pereira
Asesor:Dra. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México
ANTROPOMETRíA FACIAL Y CRANEAL DE NIñOS DE 4, 5 Y 6 AñOS PARA LA REALIZACIóN DE MASCARILLAS FACIALES EN PEREIRA, COLOMBIA.
ANTROPOMETRíA FACIAL Y CRANEAL DE NIñOS DE 4, 5 Y 6 AñOS PARA LA REALIZACIóN DE MASCARILLAS FACIALES EN PEREIRA, COLOMBIA.
Franco Gómez Ana Valentina, Universidad Católica de Pereira. Asesor: Dra. Raquel Muñoz Hernández, Universidad Politécnica del Valle de México
PLANTEAMIENTO DEL PROBLEMA
Con la llegada del Covid-19 y el inicio de la pandemia mundial, detener la expansión del virus se volvió crucial para el regreso a las actividades cotidianas. La población de mayor susceptibilidad al contagio del virus son las personas mayores o aquellas que poseen alguna afección médica preexistente; por otro lado, lo niños tienen un sistema inmune diferente al que los adultos pueden tener, haciendo que su mortalidad sea extremadamente baja (Palacios, 2020), sin embargo los niños menores pueden ser mucho menos conscientes de la importancia de las normas de bioseguridad y el uso de mascarillas de protección, esto los convierte en un punto decisivo en la transmisión del virus, por ser en su mayoría asintomáticos.
Es importante aclarar antes de empezar el desarrollo de la investigación, el significado de la antropometría, en términos generales la antropometría puede ser definida como La ciencia que se ocupa del dimensionamiento del cuerpo humano (Ramírez, 1997), esta ciencia nos permite tomar medidas específicas del cuerpo humano y hacer uso de ellas como herramienta para diferentes fines en gran variedad de campos del saber, como lo son las artes plásticas, la medicina, el deporte, la ergonomía, el diseño de espacios y de productos, entre otros.
Los estudios antropométricos faciales existentes dirigidos a la población de niños son escasos y esto combinado con la necesidad latente de productos para la protección de las vías respiratorias no ayuda al diseño y desarrollo de artefactos dirigidos a disminuir el riesgo de transmisión del Covid-19 de esta población. Por lo anterior, es necesario una guía de medidas que será realizada gracias a un plan de obtención de información antropométrica.
En esta investigación se tomará provecho de la antropometría para tomar las dimensiones faciales y craneales de los niños de 4, 5 y 6 años con el fin de proporcionar las medidas de los percentiles 5, 50 y 95 para el futuro diseño de mascarillas faciales u otras aplicaciones de las que se pueda hacer uso tales medidas. Como lo mencionan los Diseñadores Industriales Maria Fernanda Maradei y Francisco Espinel en su texto:
Es por esto que en el momento de diseñar cualquier equipo o herramienta la cuál será utilizada por seres humanos, es necesario pensar en esa gran variedad que existe en la población que la usará. Por ello es necesario definir claramente cuál es la población en estudio y señalar cuales serían los parámetros a seguir para el diseño apropiado dependiendo de las dimensiones de esta población o muestra seleccionada.
METODOLOGÍA
La metodología se plantea a partir de cuatro puntos específicos, donde se sigue la secuencia según los objetivos para obtención de datos antropométricos, para ello se aborda como primer punto la temática desde la teoría, luego se desarrolla un plan específico para la obtención de información antropométrica, como siguiente paso el plan se ejecuta en una institución donde se encuentren los niños de 4, 5 y 6 años, y al final se ordenan y exponen los resultados.
Esta metodología es creada con el fin de crear un vínculo físico con los niños que harán parte de la medición, generando una comprensión más amplia y específica del contexto, llegando a medidas más específicas para unos resultados exactos.
El desarrollo de la metodología de investigación se plantea en las siguientes cuatro fases:
Fase 1. Análisis en procesos de antropometría facial y craneal: Investigación y abstracción de conceptos en procesos antropométricos ya realizados anteriormente, análisis de herramientas y ubicación de puntos faciales y craneales para el desarrollo de mascarillas faciales.
Fase 2. Plan de obtención de información antropométrica: En esta fase se realiza el plan detallado de la jornada de medición, el lugar donde se realizará el encuentro para la extracción de medidas y se harán las cartas de autorización para los padres de familia.
Fase 3. Ejecución: Desarrollo del plan de obtención de información antropométrica a los niños de 4,5 y 6 años de acuerdo a las actividades, tomando evidencias fotográficas y datos necesarios para la investigación.
Fase 4. Resultados: Muestra de los datos recolectados, resultados de las medidas de cada una de las edades y género extraídas en la investigación.
CONCLUSIONES
Durante la estancia de verano se logró ubicar la importancia que tiene la antropometría y los diferentes percentiles en las distintas edades para el desarrollo del diseño de cualquier artefacto del cual hará uso un humano.
Se fortalecieron las habilidades investigativas y de trabajo en equipo multidisciplinar en la estudiante involucrada en el verano.
El proceso investigativo queda abierto para seguir ultimando detalles con el objetivo de que el artículo científico sea publicado en diferentes revistas que darán vista internacional al contenido.
Este tipo de actividades nacionales como lo son el Programa Delfín abren las posibilidades de los estudiantes de trabajar en conjunto con diferentes áreas del conocimiento y abrir sus ojos hacia la investigación más allá de su país de origen, fortaleciendo su aprendizaje profesional y sobrepasando expectativas del área de la investigación.
La gestión que realiza la asesora es eficaz, siendo un apoyo durante todo el tiempo del verano.
La participación en los veranos de investigación son muy valiosos tanto a nivel profesional, como académico y laboral, porque llenan de oportunidades al estudiante de realizar ponencias e introducirse en el campo de la investigación, fuera de su zona de confort o lo que ya conoce dentro de su ciudad o país.
Franco Orzuna Daniel Adan, Instituto Tecnológico de Ciudad Juárez
Asesor:Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
Barajas Casillas Carlos Adrian, Universidad de Guadalajara. Franco Orzuna Daniel Adan, Instituto Tecnológico de Ciudad Juárez. Rodríguez Rodríguez José Ricardo, Universidad de Guadalajara. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 ha impulsado en los últimos años a las empresas a aplicar nuevas tecnologías a sus líneas de producción que les permitan adaptabilidad, interconectividad y aumenten su eficiencia. La pandemia por COVID-19 aceleró la visibilidad de esta nueva tendencia debido a que el control y monitoreo remoto se volvieron componentes fundamentales para continuar los procesos de producción mientras se combate este problema de salud mundial.
Se busca abordar en este proyecto de investigación la aplicación de un sistema SCADA, el cual representa en sí mismo el control y la supervisión de procesos industriales a distancia, e involucra tecnologías completamente establecidas en la mayoría de las empresas nacionales como la automatización o la robótica, así como modelos de transición presentes ya en distintas industrias a lo largo del mundo como el internet de las cosas (IoT) o big data.
METODOLOGÍA
Inicialmente se definió el proceso industrial sobre el cual se basaría la fábrica a simular en el software de Factory IO, consiste en la producción automatizada de tarjetas electrónicas, específicamente las etapas de clasificación de material, maquinado, ensamblaje, paletización y almacenaje. Definido lo anterior, se realizó el diseño de la planta industrial, buscando apegarse lo más posible a la realidad. Se utilizaron elementos como máquinas CNC, brazos robóticos, bandas transportadoras, sensores de visión, sensores infrarrojos, racks de almacenamiento, entre otros.
La automatización de la fábrica se realizó a través de un PLC Siemens virtualizado, el cual se programó en el entorno de TIA Portal mediante lenguaje escalera (Ladder), se utilizó un modelo S7-1500 con módulos I/O agregados para manejar todas las señales de entrada y salida de la línea de producción.
Luego de comunicar el PLC con la planta industrial, se realizó el diseño de la interfaz de monitoreo en el software de LabVIEW, dicha interfaz permite la visualización remota del estado de los procesos en la fábrica, brindando la posibilidad de acceder las categorías principales (producción, almacenaje y base de datos) por separado para facilitar la lectura de los datos. Para conectar las señales que controla el PLC con la interfaz, se utilizó un servidor OPC. Finalmente se programó el sistema de rastreo de las piezas para guardar esta información en la base de datos.
CONCLUSIONES
Al final del programa de investigación se logró finalizar la implementación del sistema SCADA, desde la construcción, programación y simulación de la línea de producción hasta el diseño, programación y conexión de la interfaz (HMI). Se trabajó utilizando la dualidad de teoría y práctica para poder aplicar conceptos de diseño y manejar distintos softwares requeridos durante todo el proceso.
Fuentes Avila Marcos Leonardo, Instituto Politécnico Nacional
Asesor:Dr. Jorge Raúl Pérez Gallardo, Centro de Investigación en Matemáticas (CONACYT)
PANORAMA DE LA GENERACIóN DE ENERGíA POR FUENTES RENOVABLES Y VENTA DE VEHíCULOS HíBRIDOS EN LA REGIóN BAJíO.
PANORAMA DE LA GENERACIóN DE ENERGíA POR FUENTES RENOVABLES Y VENTA DE VEHíCULOS HíBRIDOS EN LA REGIóN BAJíO.
Fuentes Avila Marcos Leonardo, Instituto Politécnico Nacional. Asesor: Dr. Jorge Raúl Pérez Gallardo, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Con una serie de problemas derivados de la quema indiscriminada de combustibles fósiles, adquiere exponencialmente mayor relevancia la elección de métodos generación de energía alternativos, sustentables y amigables con el medio ambiente.
Además, la producción de energía a base de combustibles fósiles en México es realizada principalmente por la CFE, costando al país entre 300.000 y 350.000 millones de pesos anuales. Esta inversión no genera rendimientos reales, puesto que gran parte es destinado al mantenimiento de centrales obsoletas que generan alrededor del 20% de la energía total.
METODOLOGÍA
En este documento se hace un repaso del panorama actual de la producción de energía utilizando procesos sustentables dentro de la región que comprenden los estados de Aguascalientes, Guanajuato, Jalisco, San Luis Potosí, Querétaro y Zacatecas. Así mismo, se analiza la venta de vehículos del tipo híbrido en la región ya descrita.
Se realizó una investigación utilizando datos proporcionados por instituciones gubernamentales (SENAR, INEL, etc).
Estos datos fueron tratados y concentrados para poder definir el panorama actual de la producción de energía limpia y consumo de vehículos eléctricos e híbridos dentro de la región definida.
CONCLUSIONES
Según la SENER, en 2020 la energía limpia renovable contribuyó un 20.67% al total de energía producida en el país. Además, un 4.82% se le atribuye a la producción de energía limpia no renovable. Estos datos presentan un panorama positivo con respecto al de años anteriores.
Por otra parte, la venta de vehículos híbridos y eléctricos (en conjunto) presentó en 2018, 2019 y 2020 tasas de crecimiento del 68.72%, 43.81% y -4.31%, respectivamente. El decrecimiento en 2020 puede explicarse fácilmente por la pandemia originada por SARS-CoV-2.
La región en cuestión, contaba en 2016 con 42 de las 266 plantas de energías limpias del país, además de ser consumidores de 14,174 de los 86,639 vehículos eléctricos e híbridos vendidos en el país durante el periodo 2016-2020.
Fuentes Maciel Diego, Universidad de Guadalajara
Asesor:Dr. Dainet Berman Mendoza, Universidad de Sonora
SíNTESIS DE NANOPARTíCULAS DE SILICIO PARA LA FABRICACIóN DE RECUBRIMIENTOS EN CELDAS SOLARES.
SíNTESIS DE NANOPARTíCULAS DE SILICIO PARA LA FABRICACIóN DE RECUBRIMIENTOS EN CELDAS SOLARES.
Fuentes Maciel Diego, Universidad de Guadalajara. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La globalización y el crecimiento de la población en todos los territorios ha significado una demanda energética mayor en los últimos años. El cambio climático ha exigido una mayor presencia de energía sustentable, siendo una de las más populares la producida por los paneles solares; sin embargo, su instalación no es suficiente, ya que una celda solar cotidiana no aprovecha ni la mitad del porcentaje de radiación que recibe diariamente debido al rango tan reducido de absorción en cada celda. Es posible, mediante el downshifting, aumentar el alcance de aprovechamiento de los dispositivos y evitar la pérdida de esta energía en forma de calor. En la literatura, se han implentado para dicho propósito recubrimientos de distintos materiales, tales como SiO2, CdTe o, para el caso de este proyecto, nanopartículas de silicio.
METODOLOGÍA
La síntesis de las nanopartículas de silicio puede resumirse brevemente como: la síntesis magnética de APTES en agua desionizada, posteriormente la adición de AS que funcionan como fuente de silicio para su obtención al final.
Para la película de ZnO que sería incorporada a la celda, se empleó acetato de zinc dihidratado en alcohol etílico sobre un baño ultrasónico y la agregación adicional de TEA para la obtención de la solución transparente.
CONCLUSIONES
Las nanopartículas lograron sintetizarse sin complicaciones, con formas y propiedades que variaban con respecto a parámetros como temperatura y presión.
Los mayores logros a destacar fueron los aumentos de eficiencia de 11.90% a 13.47% (mejora general 12.4%) con las nanopartículas de APTES; y para el caso de las nanopartículas de silicio embebidas (SiQDs-ZnO) del 4.33% al 5.09% (mejora general 17.58%), siendo estos, en términos de desempeño de celdas solares, un gran éxito tanto para el experimento como para el proyecto.
Fuentes Pérez Paola Andrea, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Tatiana Pérez Gosteva, Universidad La Gran Colombia
POSIBILIDAD DE USO DE ENERGÍA SOLAR EN EL ESTADO DE PUEBLA, MÉXICO Y EL DEPARTAMENTO DEL QUINDÍO, COLOMBIA EN UN PERÍODO DE 20 AÑOS
POSIBILIDAD DE USO DE ENERGÍA SOLAR EN EL ESTADO DE PUEBLA, MÉXICO Y EL DEPARTAMENTO DEL QUINDÍO, COLOMBIA EN UN PERÍODO DE 20 AÑOS
Fuentes Pérez Paola Andrea, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Tatiana Pérez Gosteva, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, el mundo pasa por una gran problemática económica y ecológica que, si no trabajamos en ello, empeorará con el paso del tiempo.
Una de las alternativas para mitigar estos problemas es el uso de energías renovables, por ejemplo, la energía solar.
¿Por qué trabajar con energía solar?
Este tipo de energía es una fuente que tiene muchas ventajas importantes sobre las otras, como su naturaleza inagotable, renovable y no contaminante. Sin embargo, presenta varias complicaciones para su aprovechamiento, ya que es necesario tener en cuenta que es variable y tiene baja densidad de potencia.
El sol lleva proporcionando energía desde hace 6,000 millones de años y la seguirá proporcionando por otros 8,000 millones de años más, por lo que se puede considerar como una fuente de energía inagotable.
Sin embargo, no toda la energía llega a la tierra, ya que ésta solo es una superficie captadora insignificante por lo que la potencia que recibe es muy pequeña y en su mayoría es reflejada o absorbida. Es por eso que se desarrollan aparatos que se encargan de captar esa potencia y convertirla en otro tipo de energía.
La parte más importante de un sistema de captación solar, es el colector, que es el que se encarga de captar la energía solar y convertirla en energía útil.
Existen dos maneras de convertir la energía del sol: Energía térmica y energía eléctrica.
METODOLOGÍA
Método: Empírico- analítico.
Tipo: Exploratorio- evaluativo
Enfoque: Mixto
Identificación de los factores principales en el uso y aprovechamiento de la energía solar: Revisión de fuentes bibliográficas. Según González, L. (2016), se obtienen los principales factores del uso de energía solar.
Se consultaron distintas fuentes bibliográficas con el fin de entender que es la energía solar y como trabajar con ella para un óptimo aprovechamiento al momento de utilizar paneles solares.
También se identificaron los factores principales en el uso y aprovechamiento de la energía solar que son la inclinación, radiación y tipo de colector.
Análisis de la variación de radiación solar en las zonas de estudio en un periodo de 20 años: Datos obtenidos a partir de la NASA
Se ingresó a la página de la NASA y se buscaron los factores meteorológicos que influyen en la captación de energía solar, como lo son la latitud, velocidad del viento, presión atmosférica y lo más importante, la radiación solar. Enfocándonos en esta última, se analizó el nivel de radiación solar de cada una de las zonas de estudio, día por día en un periodo de 20 años, abarcando desde el año 2000 al 2020. Finalmente se hizo un promedio de cada una dividiéndolos en dos periodos de 10 años.
Establecimiento de los requerimientos para el uso de paneles solares Según el manual técnico de medioambiente y desarrollo sustentables, se identifican factores que permiten establecer el uso de paneles solares, principalmente la latitud y radiación solar de las zonas de estudio que son Puebla, México y Quindío, Colombia. Estos factores nos indican de qué manera se deben colocar los paneles solares.
CONCLUSIONES
Resultados obtenidos:
•Identificación de los factores principales en el uso y aprovechamiento de la energía solar: Se encuentran la inclinación, radiación y tipo de colector.
•Análisis de la variación de radiación solar en las zonas de estudio en un periodo de 20 años:
Entre el año 2000 y 2010 la radiación fue de 4.98 kWh/m² en Puebla y 14.44 kWh/m² en Quindío.
Entre el año 2010 y 2020 la radiación fue de 0.18 kWh/m² en Puebla y 8.34 kWh/m² en Quindío.
•Establecimiento de los requerimientos para el uso de paneles solares: Corresponden al tipo de colector, dividido en plano y concentradores con sus características:
1) Colector plano:
Estos pueden dar temperaturas entre 50 grados a 200 grados Celsius, con una eficiencia promedio entre 40% al 60%. Según el principio básico, es necesaria una placa metálica pintada de negro mate, para que pueda absorber al máximo la radiación directa y la difusa y después ser transformada en energía térmica.
2) Colector concentrador:
Son de tipo parabólico capaz de dar temperaturas de entre 500 - 2000 grados Celsius o tipo cilíndrico, el cual puede generar temperaturas entre 200 - 500 grados Celsius, ambos con una eficiencia de 30% - 50%.
En su composición, se utilizan materiales altamente refractivos. Aquí solo la componente directa de la radiación solar cae sobre la superficie reflectora, concentrándose los rayos en un único punto (tratándose de colectores parabólicos) o en una sola línea (tratándose de colectores cilíndricos).
Conclusiones:
La tendencia mundial se enfoca al uso de energías renovables, mismas que son amigables con el medio ambiente, aprovechando los recursos naturales para generarlas (Vega, 2010). Se estudiaron los tipos de colectores solares y las características meteorológicas de las zonas en donde se pretenden instalar, concluyendo que Puebla y Quindío, son lugares aptos para su instalación y máximo aprovechamiento, en beneficio del medio ambiente y de la economía de quien lo instale.
Galeano Blanco Marly Judith, Universidad Autónoma de Bucaramanga
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
ESTUDIO DE LOS MARCAPASOS BIOLóGICOS COMO ALTERNATIVA TERAPéUTICA ANTE LA DISFUNCIóN DE MARCAPASO
ESTUDIO DE LOS MARCAPASOS BIOLóGICOS COMO ALTERNATIVA TERAPéUTICA ANTE LA DISFUNCIóN DE MARCAPASO
Galeano Blanco Marly Judith, Universidad Autónoma de Bucaramanga. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Una de las complicaciones cardíacas más graves es la disfunción del marcapasos, como el bloqueo cardíaco completo (también conocido como bloqueo cardíaco de tercer grado o bloqueo auriculoventricular AV) y el síndrome sinusal, que puede provocar insuficiencia cardíaca e incluso la muerte; para esta disfunción el marcapasos electrónico es el único tratamiento actual. El primer marcapasos electrónico se implantó en 1958 y falló dentro las primeras tres horas. Independientemente del esfuerzo por mejorar los marcapasos electrónicos, se han publicado algunos estudios sobre sus complicaciones, que incluyen neumotórax, perforaciones, desprendimiento de cables, hematomas e infecciones, etc. Frente a los problemas asociados con los cables, en el año 2012 se lanzó al mercado europeo el primer marcapasos sin cables, Micra (Medtronic Inc., Dublin, Irlanda). Sin embargo, estos marcapasos novedosos tienen un mayor riesgo de perforación cardíaca o derrame pericárdico, pero menor riesgo de complicaciones mayores, y es lo mismo en términos de mortalidad y pérdida de función del dispositivo en comparación con los marcapasos tradicionales. Además, los marcapasos electrónicos tienen algunas limitaciones, como la interferencia electromagnética, la necesidad de una cirugía de trasplante, la falta de respuesta emocional, el tamaño fijo y el uso de baterías.
Debido a las complicaciones y limitaciones de los marcapasos electrónicos, el concepto de marcapasos biológico surgió como un tratamiento potencial para la disfunción del marcapasos. Los artículos sobre el diseño de marcapasos biológicos comenzaron a aparecer hace 2 décadas, el primero se publicó en el 2002 utilizando un vector adenoviral en un enfoque de terapia génica. Hasta el 2004 se publicó el primer marcapasos biológico basado en un enfoque híbrido gen-celulas, que consistía en células madre mesenquimales humanas (hMSC) que cargaban el gen marcapasos de ratón HCN2 (canal 2 activado por nucleótidos cíclicos activado por hiperpolarización) a través de electroporación en lugar de un vector viral como sistema de entrega de gen. De esta manera, las investigaciones continuaron en los últimos 20 años y hasta el momento no existe una revisión previa que compare el rendimiento obtenido en modelos animales de los marcapasos biológicos. Por este motivo, se realizó un estudio cuyo producto principal es una revisión de alcance para mapear sistemáticamente la investigación realizada en esta área y así entender el estado actual para orientar los trabajos de investigación futuros. Tomando la frecuencia cardíaca (FC) como parámetro clave para comparar los estudios, se formuló la siguiente pregunta de investigación: en los últimos 10 años, ¿qué enfoque de marcapasos biológico ha promovido la mayor restauración de la FC en animales con bloqueo cardíaco completo?
METODOLOGÍA
Semanalmente se investigó y se realizó una exposición de las diferentes temáticas relevantes para la comprensión de los artículos que desarrollaron marcapasos biológicos, como la anatomía, sistema de conducción y bloqueo del corazón, terapia génica y fuentes celulares para la ingeniería de tejido cardiaco; adicionalmente se indagó acerca de los antecedentes que estructuran el planteamiento del problema de este trabajo de investigación. Paralelamente se exploraron herramientas útiles en la formación académica como lo son: Biorender, Prospero, Prisma, Systematic Reviews, Flipgrid, entre otros. Con todos estos insumos se desarrolló una revisión de alcance siguiendo los lineamientos del Prisma ScR, para lo cual se estableció un protocolo de investigación, el cual consiste en la definición de los criterios de elegibilidad, las fuentes de información, la estrategia de búsqueda, la selección de las fuentes de evidencia, la recolección de los datos y síntesis de los resultados obtenidos. Posteriormente se seleccionaron las fuentes de evidencia, proceso plasmado en un diagrama de flujo; y finalmente, se extrajeron los datos relevantes de cada documento incluido en la revisión para proceder con la realización del informe que reúne todos estos elementos, incluyendo los resultados y la discusión.
CONCLUSIONES
Durante la estancia del verano se logró adquirir conocimientos teóricos relacionados con el desarrollo de marcapasos biológicos, así como del proceso de desarrollo de una revisión de alcance, dado que ese fue el producto principal del verano. La revisión de alcance arrojó que el enfoque más prometedor en los marcapasos biológicos es el basado en células haMSC, debido a que durante 2 semanas logró mantener la FC del modelo animal después del bloqueo AV dentro de valores fisiológicos relevantes. No obstante, aún queda mucho camino por recorrer y trabajo por hacer en el campo de marcapasos biológicos para poder comenzar con ensayos clínicos. Entre los temas de investigación sobresalientes que deben abordarse se incluyen una mejor persistencia de expresión en el enfoque basado en genes y la evaluación de la función a largo plazo para cualquier enfoque, especialmente necesario para desarrollar un marcapasos biológico permanente.
Galeote Vázquez Karen, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango
PROPUESTA DE DISEñO DEL EMPAQUE DE UN JUGUETE DIRIGIDO A UN MERCADO CON CEGUERA
PROPUESTA DE DISEñO DEL EMPAQUE DE UN JUGUETE DIRIGIDO A UN MERCADO CON CEGUERA
Galeote Vázquez Karen, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Matilde Sampayo Carcamo, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Diseñar un empaque idóneo para Tifli el cual garantice su protección y la comercialización teniendo en cuenta que el usuario pueda realizar algunas pruebas, sin sacarlo del empaque.
METODOLOGÍA
Para desarrollar el diseño del empaque se realizaron las siguientes actividades:
Actividad 1: Búsqueda y análisis de la normatividad aplicable en los empaques para juguetes, teniendo como resultado la NORMA OFICIAL MEXICANA NOM-015-SCFI-2007, INFORMACIÓN COMERCIAL-ETIQUETADO PARA JUGUETES.
Actividad 2: Lluvia de ideas
Para la realización de dicha actividad se analizaron diversos empaques de marcas de juguetes reconocidas mundialmente. Los cuales nos ayudaron a determinar las características esenciales para el diseño de las dos propuestas para el empaque.
Actividad 3: Realización del bosquejo de la forma del empaque
Una vez que se obtuvieron las características necesarias, se realizaron los bosquejos a mano alzada para amabas propuestas.
Propuesta 1: Un empaque rectangular con un corte diagonal que permita la realización de pruebas del juguete protegido por una cubierta transparente incluyendo círculos de prueba, con espacio para accesorios y/o manual de usuario ocultos en la base.
Propuesta 2: Un empaque que permita la exposición parcial para que el usuario pueda manipularlo casi en su totalidad, con una base que garantice su soporte y seguridad, además un espacio para accesorios, manual del usuario y manual de lecto-escritura braille. Contando con una cubierta cubica para su embalaje.
Actividad 4: Desarrollo de los diseños en un software.
Para tener una mejor apreciación de las propuestas, se realizaron con la ayuda de un software (AutoCAD) tomando como referencia las cotas y los planos de Tifli.
Propuesta 1: Se diseño un empaque que se divide en 3 partes:
Base con compartimentos: Cuenta con dos compartimentos, los cuales fueron pensados para albergar los accesorios que acompañan a Tifli.
Base de Tifli: Esta diseñada para cubrir los compartimentos de la base y al mismo tiempo brindarle apoyo y seguridad a Tifli el cual será sujetado con ayuda de cinturones de seguridad.
Cubierta trasparente: Diseñada para la protección de Tifli, teniendo espacios para poder realizar una serie de pruebas en cuanto a las funciones electrónicas y apreciar el relieve del caparazón.
Propuesta 2:
Se diseño un empaque que se divide en 3 partes:
Base general con compartimentos: Cuenta con dos compartimentos, los cuales fueron pensados para albergar los accesorios que acompañan a Tifli, servirá de soporte para la base de Tifli, cuenta con dos paredes laterales de forma triangular y una pared trasera, las cuales ayudaran a proteger a Tifli y a su vez permitirá una exposición para poderlo manipular casi en su totalidad.
Base de Tifli: Esta diseñada para cubrir los compartimentos de la base y al mismo tiempo brindarle apoyo y seguridad a Tifli el cual será sujetado con ayuda de cinturones de seguridad.
Cubierta: Diseñada para la proteger a Tifli durante el traslado del mismo, ya sea individual, en masa o en un embalaje, sujetada a la base general con la ayuda de cintas adhesivas.
Actividad 5: Selección del diseño del empaque idóneo
Después del análisis realizado de los diseños de empaques, se determinó que el más idóneo es el diseño número 2.
Actividad 6: Diseño del armado.
Armado de la base general con compartimentos:
Paso 1. Doblar las pestañas de las caras laterales (triangulares).
Paso 2. Doblar las caras laterales hacia el centro.
Paso 3. Doblar cara posterior y anterior (rectangulares).
Paso 4: Doblar cara posterior y anterior (superiores) hacia dentro cubriendo las pestañas de las caras laterales.
Paso 5. Insertar el separador al interior del empaque.
Paso 6. Insertar base para cubrir los compartimentos.
Armado de la cubierta:
Paso 1. Elaboración del plano general de la cubierta.
Paso 2. Doblar las caras hacia el centro de la cubierta hasta que tenga una forma cubica.
Actividad 7: Distribución de los datos en el etiquetado.
Cara frontal: el nombre de la marca en la parte superior izquierda, en la parte inferior izquierda un mensaje lúdico, al centro el logo de Tifli con su eslogan, en la parte superior derecha el indicador de edad y en la parte inferior derecha un código QR que da acceso a un manual rápido de usuario.
Cara posterior (trasera): se colocó al centro una imagen de Tifli y la descripción de sus funciones señalándolas con flechas, en la parte superior izquierda se colocó la marca, en la parte superior derecha se coloco el logo de Tifli y n la parte inferior derecha el fabricante y los datos de referencia.
Cara lateral derecha: se colocaron los siguientes logos:
Logo de Tifli
Logo de la marca
Logo de la Norma Oficial Mexicana
Logo de Hecho en México
Cara lateral izquierda: se colocó el logo de Tifli y el contenido del empaque:
Tifli
Repuestos de Extremidades
Cargador
Manual de Usuario
Manual de Lecto- Escritura braille
Cubierta: se colocaron 4 logos de Tifli en cada una de las caras laterales y en la parte superior el nombre de Tifli en braille.
CONCLUSIONES
Gracias al análisis e investigaciones aplicadas en este proyecto se pudo alcanzar el objetivo establecido, así como también cumpliendo con el décimo objetivo (Reducir las desigualdades entre países y dentro de ellos) de la Agenda 2030 para el Desarrollo Sostenible.
Se llevó a cabo la aplicación del diseño del etiquetado en el empaque con la ayuda de un software (AutoCad), de igual forma se realizó la aplicación de colores mediante un análisis de colorimetría, buscando tonos tenues que dieran realce al etiquetado, así como también a la presentación de Tifli.
La determinación de los colores fue la siguiente:
Empaque interno: (R:255, G:242, B:204)
Base de Tifli: (R:238, G:138, B:37)
Cubierta: (R:255, G:255, B:255)
Debido a la falta de tiempo no fue posible realizar la impresión de la propuesta seleccionada, ya que hubo actividades que complicaron el desarrollo de este proyecto, sin embargo, se le dará continuidad para poder garantizar la protección de Tifli y la comercialización teniendo en cuenta que el usuario pueda realizar algunas pruebas, sin sacarlo del empaque.
Galiote Estrada Leslie Teresa, Instituto Tecnológico Superior de Huauchinango
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
REDISEñO DE MECANISMO PARA EL MOVIMIENTO MANDIBULAR DE UN ROSTRO ANIMATRóNICO.
Aguilera Rodríguez Edgar, Universidad de Guadalajara. Cinco Martínez Fernando André, Universidad de Guadalajara. Galiote Estrada Leslie Teresa, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
En el instituto Nacional de Lenguas Indígenas (INALI), realizó un Catálogo de Lenguas Indígenas Nacionales donde nos habla de las familias lingüísticas de México, el INALI por medio del catálogo presenta a 11 familias lingüísticas.
La lengua nahuatl es el idioma de los Mexicas y esta sirvió como vehículo de comunicación en la época anterior como la posterior, a partir de la llegada de españoles el nahuatl comienza a perder función y prestigio en los ámbitos religiosos y públicos.
Por ello la pérdida de las lenguas es lamentable, con la determinación de intentar revertir esta problemática el Instituto Tecnológico Superior de Huauchinango desarrolló un títere animatrónico, con la finalidad de que las comunidades del municipio de Huauchinango aprendan el lenguaje nahuatl haciendo a la población.
Pero una problemática que se presenta en con el animatrónico es el movimiento de la mandíbula, puesto que, al abrir y cerrar ya con la máscara, no se puede percibir el movimiento que se desea, y se busca un mecanismo mandibular que sea el más adecuado para que pueda hacer las gesticulaciones más humanas posibles.
METODOLOGÍA
Diseño 3D de Yugo Escocés
Primeramente, se diseñó el mecanismo de yugo escocés en 3D y se simuló su movimiento. Para este ensamble se diseñaron cuatro piezas: la pieza excéntrica, la corredora, los ejes y las guías. La pieza excéntrica, que es la pieza circular que realizará la rotación y en la construcción en físico estará adjunta a la flecha del motor. Esta cuenta con un eje en el centro su cara posterior que le permite girar, y un eje el cual la une con la corredora. Se colocaron dos guías, una de cada lado de la corredora, por donde pasan las extensiones de estas, referidos como seguidores. El resultado obtenido es el de un cambio de movimiento rotatorio a lineal, al simular la acción de un motor sobre la pieza excéntrica.
Movimiento de Traslación Mandibular
Para realizar este movimiento de traslación se utiliza un solo mecanismo de yugo escocés, pero con dos ligeras variantes. La primera radica en la ausencia de un segundo seguidor, pues solo es necesario el seguidor que generará la traslación de la mandíbula. En este seguidor, se agregó una extensión vertical que cuenta con una ranura, donde se inserta un pequeño eje sobresaliente de la mandíbula, ubicado justo en el centro de esta. Este eje cuenta con un cabezal que permite que la mandíbula se mueva tanto adelante como hacia atrás junto con la corredora. El propósito de esta ranura y el eje que puede moverse libremente a través de esta es otorgar a la mandíbula ángulos de libertad para desplazarse hacia arriba y hacia abajo, debido a que este sistema se combinará con el sistema de rotación. Si la mandíbula estuviese fija a la corredora, tanto la mandíbula como el mecanismo de yugo escocés se moverían como un solo sistema, haciendo que todo el peso de estos dos elementos tenga que ser soportado por los mecanismos de apertura y cierre mandibular. Para evitar esto, se planifica hacer una plataforma ubicada en el cuello, puesto que este no se moverá y por lo tanto no hay mecanismos que se coloquen en este espacio. En esta plataforma se colocarán las dos piezas fijas, como lo son el motor y la guía, y sobre estas se colocarán las demás piezas móviles que conforman este sistema.
Movimiento de Rotación Mandibular
Para recrear este movimiento se utilizaron dos yugos escoceses, uno de cada lado de la mandíbula respecto al plano sagital. Cada uno de estos mecanismos se mantiene anclado tanto al maxilar superior, como al inferior mediante un pivote. Adicionalmente, ambos mecanismos pasan a través de un balero lineal que funciona como guía para un movimiento vertical.
Sobre el maxilar inferior se colocaron ranuras, donde se insertan los pivotes de los yugos escoceses; estas ranuras permiten el movimiento de traslación mandibular, ya sea de manera independiente o un conjunto de ambos movimientos. Todo este mecanismo simula la función de los músculos de la masticación.
CONCLUSIONES
Durante la estancia del verano, se logró adquirir conocimientos teórico y prácticos del software SolidWorks, en el cual se llevó a cabo del diseño propuesto, pues gracias a su gran variedad de herramientas de edición nos permitió un gran rango de posibilidades de diseño. Con ello, el mecanismo pensado para el rostro animatrónico es el llamado yugo escocés, sin embargo, por el momento solo es una idea que aún no se ha probado y se espera en el futuro pueda ponerse a prueba para ver las fallas y complementar con nuevas ideas.
Gallardo Poblete Anayatzin, Instituto Tecnológico de Toluca
Asesor:Mg. Mónica María Vásquez Arias, Corporación Universitaria Empresarial Alexander von Humboldt
COMPETENCIAS 4.0 REQUERIDAS AL INGENIERO INDUSTRIAL DEL INSTITUTO TECNOLóGICO DE TOLUCA POR PARTE DEL CORREDOR INDUSTRIAL DE LERMA, ESTADO DE MéXICO.
COMPETENCIAS 4.0 REQUERIDAS AL INGENIERO INDUSTRIAL DEL INSTITUTO TECNOLóGICO DE TOLUCA POR PARTE DEL CORREDOR INDUSTRIAL DE LERMA, ESTADO DE MéXICO.
Gallardo Poblete Anayatzin, Instituto Tecnológico de Toluca. Asesor: Mg. Mónica María Vásquez Arias, Corporación Universitaria Empresarial Alexander von Humboldt
PLANTEAMIENTO DEL PROBLEMA
México, se posicionará como uno de los países con mayor potencial de oferta laboral en torno a la industria 4.0, cabe mencionar que son distintos los rubros: mano de obra, personal de ventas, negocios internacionales, etc. Esto es un aliciente, pues a diferencia de otros países, como China y Japón según (Manyika et al., 2017); en México la industria 4.0 no traerá una ola de desempleo.
Para esta transición es necesaria la cooperación no solo del sector industrial y gubernamental; en el marco académico es importante que los planes de estudio formen líderes que puedan desarrollar su maximo potencial y el de su grupo de trabajo.
Para que el Instituto Tecnológico de Toluca brinde a sus estudiantes las herramientas necesarias, se debe revisar lo que la industria mexicana y en específico el corredor industrial de Lerma en el Estado de México está requiriendo y verificar lo qué es necesario ajustar en el plan de estudios actual.
METODOLOGÍA
Esta investigación pretende un enfoque cuantitativo, pues por medio de un instrumento se buscará identificar las competencias genericas y espeificas que debe desarrollar el ingeniero industrial. El alcance de este proyecto será descriptivo pues primero se necesita definir y comprender la Industria 4.0, que en este caso como lo menciona (Hernandez Sampieri et al., 2014) sería el fenómeno estudiado mientras que sus componentes son las tecnologías asociadas.
Ademas, para la recoleccion de datos se elaborará un cuestionario dirigido a los egresados del Instituto Tecnológico de Toluca que laboren en el corredor industrial de Lerma, Estado de México.
CONCLUSIONES
Se identificaran las áreas de la industria 4.0 en las que se puede desempeñar el ingeniero industrial del instituto Tecnológico de Toluca en el corredor Industrial de Lerma, en el Estado de México; para poder analizar la retícula del Instituto Tecnológico de Toluca e identificar la proporción de asignaturas con un contexto de industria 4.0 en relación con las de contexto tradicional, es decir, las ya establecidas.
Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca
Asesor:Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz
SIMULACIóN EN REALIDAD VIRTUAL DE DOS MóDULOS DE LA MáQUINA HAS-200 CON PROPóSITOS EDUCATIVOS
SIMULACIóN EN REALIDAD VIRTUAL DE DOS MóDULOS DE LA MáQUINA HAS-200 CON PROPóSITOS EDUCATIVOS
Gallardo Sánchez Rubén, Instituto Tecnológico de Toluca. Asesor: Dr. Jorge Luis Bacca Acosta, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
Tanto la realidad aumentada como la realidad virtual han tenido un crecimiento bastante notable en los últimos años, tanto es así que ya se usa esta tecnología en distintas industrias y sectores de tecnología.
Las empresas más grandes de tecnología en el mundo están tomando esto en serio, como Facebook que busca crear un metaverso para crear la realidad con lo virtual en reuniones empresariales o familiares, la industria automotriz busca de cerca a la realidad virtual (RV) y realidad aumentada (RA) para mostrar sus productos y diseños de una manera más interactiva, sucede lo mismo con la arquitectura, educación, comercio, moda, videojuegos, entretenimiento, entre otros.
Cada vez más son las personas que están interesadas entra trabajar directamente con esta tecnología que ofrece un universo de posibilidades en donde mezclar lo real con lo ficticio ya no es un problema. En un tiempo en donde la tecnología prácticamente está al alcance de todos y cualquiera puede aprovecharse de eso y crear un mundo propio ya es posible, es por ello por lo que RV y RA será una tendencia actual y futura.
METODOLOGÍA
El desarrollo de este proyecto consta de una simulación del sistema de producción automatizado HAS-200, en la cual cualquier usuario con la aplicación de RV pueda visualizar de una manera didáctica los componentes del sistema y cómo es que funciona, es un proyecto enfocado a la educación y busca desarrollarse aún más con el tiempo para formar el sistema HAS-200 con todos sus componentes.
Se utiliza el software CAD de diseño: Siemens NX, este software CAD permite el modelado de las piezas y componentes usados, teniendo cuidado de todas las especificaciones técnicas del sistema HAS-200 para tener un balance entre calidad gráfica, rendimiento y optimización de memoria, HAS-200 en su versión completa cuenta con estos módulos:
Llenado
Calidad
Tapado
Almacén
Paletizado/Despacho
Se trabaja por lo pronto con los primeros dos módulos del sistema.
Con la ayuda de SolidWorks y Blender, los modelos, subensambles y ensambles son transformados de un formato PRT a un formato STL para su conversión poligonal, y de un formato STL a un formato FBX para su uso en Unity.
Para el desarrollo de la aplicación de RV se usó el software Unity, un software muy poderoso en el cual se suelen producir gran cantidad de material audiovisual como animaciones, videos, videojuegos, aplicación, etc. El motivo por el cual se elige es que cuenta con una gran comunidad detrás de su desarrollo, permitiendo a cualquier persona obtener información acerca de su uso y problemas frecuentes que pasan con el software.
Unity se encarga principalmente de dos aspectos:
Animaciones y simulaciones
Realidad Virtual
Se realizan las animaciones directamente con el Animator, una funcionalidad de Unity que permite manipular objetos y animarlos de una forma que el usuario los pueda ver en una secuencia loop. De igual manera, genera el código necesario para poder usarse como una aplicación de realidad virtual en un dispositivo Android con un sistema operativo mayor al 4.4 y obligatoriamente la inclusión de un giroscopio.
CONCLUSIONES
En esta estancia veraniega se logró realizar la aplicación de realidad virtual con la visualización de los dos módulos (llenado y calidad) del sistema HAS-200, así mismo en la aplicación se logra visualizar la animación del llenado y la medición de material. Debido al tiempo de estancia no fue posible abarcar todos los módulos del sistema de producción automatizado, se espera que con un futuro desarrollo de la aplicación se optimicen los modos de animación, cantidad de módulos y errores técnicos consecuentes del desarrollo.
Durante la estancia veraniega adquirí una basta cantidad de conocimientos técnicos tanto de diseño en Siemens NX como en la parte de simulación en Unity, los scripts programados que se usaron para el desarrollo de la simulación, esquema de trabajo, programación de animaciones, etc. La estancia de investigación abre una nueva perspectiva en el desarrollo de nuevas tecnologías como lo es la realidad virtual.
Este proyecto de investigación se realiza en un momento clave en la historia, y no es para menos, la realidad mixta ha permitido un constante aprendizaje en tiempos de COVID-19, el hecho de que todo el trabajo deba ser remoto da hincapié a que muchos proyectos de realidad mixta se lleven a cabo. Específicamente, esta aplicación ha permitido ver el funcionamiento del sistema de producción HAS-200 de una forma virtual, ya que, por el momento, es imposible acceder a las instalaciones de los laboratorios de la Universidad debido a las restricciones sanitarias.
Gallegos Quijada Jesus Guillermo, Instituto Tecnológico Superior de Cananea
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
EL AHORA DE UN TRANSPORTE ELéCTRICO
EL AHORA DE UN TRANSPORTE ELéCTRICO
Gallegos Quijada Jesus Guillermo, Instituto Tecnológico Superior de Cananea. Rosete Duarte Rosse Lina, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
La variedad de residuos generados por la combustión de motores en vehículos del transporte terrestres ha tenido un impacto directo o indirecto en el medio ambiente provocando el auge de nuevas normativas para solventar este problema. Estas normativas obligan a los fabricantes a adoptar, en mayor o menor grado, tecnologías que incluyan fuentes de energía alternas y menos contaminantes. Por consiguiente, es posible una transición energética de gran escala y así reducir el consumo de combustibles fósiles.
METODOLOGÍA
El renovado interés hacia sistemas de transporte más sustentable aunado a los efectos provocados por el cambio climático pone en pie el desarrollo de mejores y nuevas técnicas para la construcción de vehículos eléctricos. Este cambio se puede observar gracias a los datos de la Agencia Internacional de Energía, donde la tendencia mientras un cambió en el suministro de tipo de energía década tras década reduciendo el consumo de energía no renovable y aumenta el de la energía renovable.
Los vehículos eléctricos llevan ya varios años en el mercado, aunque aun presentan varias limitaciones debido a su alto costo y/o autonomía los gobiernos de diversos países empiezan a otorgar mayores facilidades para su consumo. Por otro lado, es importante conocer que y como funciona un vehículo de este tipo. De manera general, un vehículo eléctrico funciona gracias a un sistema que incluye: motor eléctrico, baterías, puertos de carga y controladores. Donde cada uno de estos elementos conforme los años pasan la investigación y desarrollo aumenta. Gracias a esto, actualmente, es posible aprovechar hasta un 30% de la energía de la batería, superando con creces lo que un sistema de combustión puede hacer.
CONCLUSIONES
Considerando el ambiente de los vehículos eléctricos en el territorio mexicano, diversos vehículos 100% eléctricos comenzaron a distribuirse, así como algunos otros que gozan de un sistema híbrido. Pensando en un futuro cercano las bondades de tener un vehículo eléctrico se harán más notorias y cuya principal desventaja fijada en el costo, tenderá a bajar siempre y cuando la tecnología, divulgación y producción aumente.
Galvan Chavez Daniela, Instituto Tecnológico Superior de Uruapan
Asesor:Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
CóDIGOS QR PARA LA IDENTIFICACIóN DE ESPECIES FLORíSTICAS EN RIESGO EN EL PARQUE NACIONAL BARRANCA DEL CUPATITZIO - MéXICO
CóDIGOS QR PARA LA IDENTIFICACIóN DE ESPECIES FLORíSTICAS EN RIESGO EN EL PARQUE NACIONAL BARRANCA DEL CUPATITZIO - MéXICO
Galvan Chavez Daniela, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
PLANTEAMIENTO DEL PROBLEMA
México cuenta con el lugar número 5 en mayor biodiversidad del planeta (SEMARNAT, 2016). Para la conservación y el uso sustentable del capital natural se han implementado diversos instrumentos a lo largo de la historia como con el Parque Nacional Barranca del Cupatitzio que está dentro del Sistema Federal de Áreas Naturales Protegidas(ANP)
El Parque Nacional Barranca del Cupatitzio, ubicado en la ciudad de Uruapan, tiene particularidades que lo hacen único, como el encontrarse parcialmente al interior de la ciudad, lo que causa condiciones de conservación y manejo especialmente difíciles, sobre todo para las labores de protección a su interior y en su zona de influencia.
Sin embargo, aunque se tengan programas de conservación y cuidado de las áreas naturales protegidas, cada vez es más complicado la identificación taxonómica de especies ya sea por difícil acceso o por desconocimiento.
En el parque se han registrado 563 especies de plantas vasculares y de estas, 7 especies se consideran en riesgo. Es por esto que es un punto muy importante a tratar y se pretende implementar la educación ambiental para la identificación de la Biodiversidad vegetal en riesgo, utilizando códigos QR incentivando a la conservación de la flora presente en el Parque Nacional Barranca del Cupatitzio.
METODOLOGÍA
Inicialmente se realizó una búsqueda bibliográfica, posteriormente un recorrido del Parque Nacional Barranca del Cupatitzio, donde se crearon fichas técnicas para cada una de las plantas seleccionadas (para el repositorio), se analizó cuál es el mejor programa para generar el QR, se geolocalizó cada código mediante aplicaciones como Google, se acoplan los códigos a la plataforma de Instagram, se revisan los resultados obtenidos con los objetivos del proyecto, se identifica cual es la manera más adecuada para realizar la marcación de las especies y por último se espera sensibilizar a las personas (visitantes del lugar).
CONCLUSIONES
Se entrega una propuesta organizada de la marcación de especies florísticas por medio de los códigos QR para presentar a la administración del Parque Nacional Barranca del Cupatitzio para que se pueda realizar más adelante y que haya una mayor ampliación del tema de biodiversidad vegetal.
Para esto, se realizaron visitas al parque para toma de fotografías, análisis del posible ubicación y forma de la marcación, se creó una cuenta de Instagram (@parquenaciona_uruapan) y se publicaron imágenes de las especies con su ficha taxonómica, se seleccionó el programa QR-Code Studio 1.0 para generar los códigos QR de cada publicación.
Con la implementación de la propuesta presentada se utiliza la tecnología de los dispositivos móviles para ofrecer a los turistas de la ciudad de Uruapan, México, información adicional para obtener más conocimientos a nivel de la biodiversidad vegetal al momento de realizar su recorrido en el Parque Nacional Barranca del Cupatitzio. Con esto se espera sensibilizar a los visitantes.
Galvez Garcia Dana Marina, Instituto Tecnológico de Zitácuaro
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
ASIGNACIóN DE UNIDADES CON RESTRICCIONES DE SEGURIDAD E INTEGRACIóN DE FUENTES DE ENERGíA RENOVABLES MEDIANTE OPTIMIZACIóN ROBUSTA DISTRIBUIDA
ASIGNACIóN DE UNIDADES CON RESTRICCIONES DE SEGURIDAD E INTEGRACIóN DE FUENTES DE ENERGíA RENOVABLES MEDIANTE OPTIMIZACIóN ROBUSTA DISTRIBUIDA
Galvez Garcia Dana Marina, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
El rápido crecimiento de generación por fuentes de energía renovables (RES - Renewable Energy Sources) conectada a la red eléctrica ha reducido en gran medida el consumo de combustibles fósiles y la emisión de gases de efecto invernadero. Sin embargo, esto ha planteado desafíos para el despacho de generación debido a la naturaleza incierta e intermitente de las RES, aumentando significativamente la incertidumbre en la demanda futura neta, lo que podría afectar la seguridad y confiabilidad de los sistemas de eléctricos.
Para mitigar eficazmente este aspecto, las decisiones de asignación de unidades deben ser confiables y económicas. Por tanto, durante el verano de investigación se estudian nuevos métodos de solución para la operación de sistemas eléctricos con integración de RES.
METODOLOGÍA
Se realizó una recopilación de artículos en el área de despacho económico con restricciones de seguridad (SCED - Security Constrained Economic Dispatch), así como de asignación de unidades con restricciones de seguridad (SCUC - Security Constrained Unit Commitment) resueltos mediante optimización robusta; esto para la selección del modelo más adecuado a las necesidades del proyecto.
Identificando que al resolver problemas de optimización que involucran incertidumbre, la optimización estocástica (SO - Stochastic Optimization) y optimización robusta (RO Robust Optimization) son los dos enfoques principales para modelar y transformar la incertidumbre. SO utiliza muestras para aproximar la distribución de la incertidumbre o asume que la distribución es conocida para la transformación analítica, siendo demasiado optimista al asumir la distribución de la incertidumbre. RO considera el peor de los casos a través de conjuntos de incertidumbre lo cual lo hace computacionalmente exigente.
Se eligió un modelo de optimización robusta distribuida (DRO - Distributionally Robust Optimization) ya que, en comparación de SO y RO, DRO es un nuevo enfoque de optimización que se está desarrollando rápidamente y se ha aplicado recientemente en la operación del sistema de energía debido a que este otorga la peor expectativa sobre todas las posibles distribuciones de incertidumbre y, por lo tanto, está orientada a la peor distribución.
Una vez que se determinó el modelo a emplear se realizó una programación ejemplo para conocer el funcionamiento de DRO exclusivamente en SCED el software FICO Xpress Solver.
Se plasmó el resultado de la recopilación de artículos en un resumen que muestra los trabajos inspirados tanto en el enfoque de RO como de DRO en asignación de unidades, así como los distintos métodos para lidiar con la incertidumbre desde una resolución robusta.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de SCED y SCUC, así como conocer su programación basada en RO o DRO, sin embargo, al ser un trabajo extenso aún está en fase de diseño de programación y no se pueden mostrar los resultados obtenidos. Se espera un programa de DRO en SCUC para tratar la incertidumbre que inyectan al sistema de energía las generaciones RES.
Gálvez Garcia Judith, Instituto Tecnológico de Zitácuaro
Asesor:Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
ASIGNACIóN DE UNIDADES CON RESTRICCIONES DE SEGURIDAD E INTEGRACIóN DE FUENTES DE ENERGíA RENOVABLE INCLUYENDO ALMACENAMIENTO PARA EVITAR EL VERTIMIENTO DE ENERGíA.
ASIGNACIóN DE UNIDADES CON RESTRICCIONES DE SEGURIDAD E INTEGRACIóN DE FUENTES DE ENERGíA RENOVABLE INCLUYENDO ALMACENAMIENTO PARA EVITAR EL VERTIMIENTO DE ENERGíA.
Gálvez Garcia Judith, Instituto Tecnológico de Zitácuaro. Asesor: Dr. Guillermo Gutierrez Alcaraz, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, en el sector energético existen diferentes tipos de centrales generadoras de energía eléctrica como centrales nucleares, térmicas, hidroeléctricas, entre otras, por lo tanto, los aspectos económicos de los sistemas de energía se han convertido en un tema importante en la investigación de la ingeniería de energía después de la reestructuración de los sistemas de energía.
Se han propuesto diversas estrategias para minimizar los costos de producción de energía, entre las que se encuentran la asignación de unidades (UC Unit Commitment) El rendimiento económico de los sistemas de energía también es una preocupación importante para los operadores de sistemas independientes (ISO Independent System Operator).
Por tanto, durante el verano de investigación se estudian nuevos métodos de solución para la operación de sistemas eléctricos con integración de fuentes de energía renovable de tal manera que haya suficiente cantidad de generación de energía accesible para satisfacer la demanda de la carga eléctrica.
METODOLOGÍA
Se realizó una recopilación de artículos en el área de asignación de unidades con restricciones de seguridad (SCUC Security Constrained Unit Commitment) utilizada en los mercados de energía.
SCUC es un marco que combina dos algoritmos comunes en la industria eléctrica: asignación de unidades (UC Unit Commitment) y Despacho económico (ED Economic Dispatch), al tiempo que agrega una nueva dimensión: la seguridad. ED toma la secuencia UC y despacha la salida de generación de todas las unidades programadas mientras satisface las restricciones de la red (restricciones de flujo de energía) y problemas de estabilidad de voltaje (voltajes de bus mantenidos dentro de los límites permitidos).
Se identificaron y revisaron las ecuaciones del modelo más adecuado ya que los algoritmos populares existentes para resolver este problema son los métodos de programación lineal entera mixta, los métodos de programación dinámica, los esquemas de lista de prioridades y los enfoques de descomposición general de Benders.
Una vez que se determinó el modelo a emplear se realizó la programación del modelo en el software FICO Xpress Solver. Con el objetivo que este logre la programación de las unidades de tal manera que haya suficiente cantidad de generación de energía para satisfacer la demanda de la carga eléctrica y soportar fallas en condiciones adversas. El modelo de asignación de unidades maneja el plan de generación de energía para el sistema eléctrico minimizando los costos operativos mientras se cumplen las limitaciones del sistema.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos en el área de SCUC, así como conocer su programación, se crearon diferentes casos para un sistema de 5 y 118 nodos en donde se observó que el valor objetivo es el mismo sin importar el número de variables con el que se trabaje:
Caso base con restricciones de líneas.- Valor objetivo ($):
-3 Variables 5 Nodos: 236234.96 - 1 Variables 5 Nodos: 236234.96
-3 Variables 118 Nodos: 356780.47 - 1 Variables 118 Nodos: 356780.4674
Caso 1 con restricciones de líneas y Almacenamiento.- Valor objetivo ($):
-3 Variables 5 Nodos: 235353.70 - 1 Variables 5 Nodos: 235242.07
-3 Variables 118 Nodos: 356724.48 - 1 Variables 118 Nodos: 356724.48
Caso 2 mismas condiciones del caso 1 más fotovoltaico y eólica.- Valor objetivo ($):
-3 Variables 5 Nodos: 219145.09 - 1 Variables 5 Nodos: 219144.41
-3 Variables 118 Nodos: 338338.89 - 1 Variables 118 Nodos: 338338.89
Gamarra Altahona Camilo José, Universidad de Santander
Asesor:Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
EVALUACIÓN DE PROCESOS QUÍMICOS Y PARÁMETROS TERMODINÁMICOS QUE PERMITAN LA OBTENCIÓN Y CARACTERIZACIÓN DE BIOCOMBUSTIBLES CON UN ENFOQUE DE SOSTENIBILIDAD ENERGÉTICA, A PARTIR DE LA SEMILLA DE SACHA INCHI (PLUKENETIA VOLUBILIS).
EVALUACIÓN DE PROCESOS QUÍMICOS Y PARÁMETROS TERMODINÁMICOS QUE PERMITAN LA OBTENCIÓN Y CARACTERIZACIÓN DE BIOCOMBUSTIBLES CON UN ENFOQUE DE SOSTENIBILIDAD ENERGÉTICA, A PARTIR DE LA SEMILLA DE SACHA INCHI (PLUKENETIA VOLUBILIS).
Gamarra Altahona Camilo José, Universidad de Santander. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Un tema crucial que no sólo preocupa a las grandes potencias del mundo es el cambio climático. Uno de los actores cruciales en esta afectación es la extracción y uso de combustibles fósiles, los cuales su producción y uso promueven considerablemente la alteración de efecto invernadero y la lluvia acida, además, teniendo en cuenta el crecimiento exponencial de la población, de la misma forma la demanda por este tipo de productos derivados de los hidrocarburos.
Con base en lo anterior se hace necesario buscar alternativas, por lo cual se mitiguen estos impactos y a su vez obtener productos y procesos más amigables con el medio ambiente. La obtención de biocombustibles con procesos sostenibles a partir de la semilla de la planta de Sacha Inchi (Plukenetia volubilis), se presenta como una de las opciones más factibles para contrarrestar esta problemática.
METODOLOGÍA
Para este proyecto se utilizaron artículos científicos y documentos los cuales apoyen la construcción de esta investigación, donde se inicia con la recopilación de información acerca de la caracterización de la semilla de Sacha Inchi (Plukenetia volubilis), donde se puedan identificar las principales sustancias que la componen.
Una vez obtenido los compuestos se procede a realizar un análisis de diferentes modelos termodinámicos (método de Cardoso, de Joback y de Constantinou-Gani), los cuales permitan obtener las entalpias y capacidades caloríficas de las sustancias presentes en la semilla de la planta, con el fin de establecer teóricamente el potencial energético del biocombustible que se puede obtener de acuerdo con el tipo de compuestos identificados.
Luego de identificar el tipo de biocombustible que se puede llegar a obtener de acuerdo con la composición de la semilla de Sacha Inchi (Plukenetia volubilis), se analizan cada uno de los diferentes tipos de obtención de biocombustibles a partir de biomasa (semilla de la planta) y su composición, para plantear un posible proceso de producción teóricamente optimo dentro de un enfoque de sostenibilidad energética.
Finalmente, teniendo en cuenta el tipo de biocombustible obtenido a partir de la semilla de Sacha Inchi (Plukenetia volubilis) y por medio de datos macroeconómicos, determinar la intensidad energética y la tasa de retorno energético (TRE) del producto final; con estos valores analizados y comparándolos con otros datos de diferentes procesos y productos finales a partir de la biomasa, conocer el verdadero potencial energético, económico y ambiental que refuerce la posibilidad de un aprovechamiento masivo del producto.
CONCLUSIONES
Según los resultados obtenidos de manera teórica, la producción de biocombustibles a partir de la semilla de Sacha Inchi (Plukenetia volubilis) es posible. A partir de la composición química de la semilla, con un proceso en conjunto de esterificación y transesterificación, obteniendo fuentes de energía más amigables con el medio ambiente, de esta manera se plantea una opción para una sostenibilidad energética.
Por medio del método termodinámico de Cardoso se genera un modelo del contenido energético de acuerdo con la composición que tiene la planta en estudio, lo cual pudo representar teóricamente el potencial energético del producto que se puede obtener en el proceso en conjunto de esterificación y transesterificación comparándolo con otros procesos y otros productos de biocombustibles. Finalmente se pudo analizar por medio de macroeconómicas mediciones de intensidad energética y la tasa de retorno energético, dando a conocer su valor potencial energético y económico que permite asumir que la producción de biodiesel a partir de la semilla de Sacha Inchi (Plukenetia volubilis) es ideal para su aprovechamiento masivo.
Garay Rodríguez Erik Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Dunstano del Puerto Flores, Universidad de Guadalajara
ESTUDIO, DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES
ESTUDIO, DISEñO E IMPLEMENTACIóN DE CONTROLADORES PID DIGITALES
Garay Rodríguez Erik Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Dunstano del Puerto Flores, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En los sistemas de control moderno es cada vez más común la utilización de controladores digitales. El empleo de microcontroladores y microprocesadores brinda un gran número de beneficios para alcanzar el desempeño óptimo, por ejemplo, las ventajas de trabajar con señales digitales en lugar de señales en tiempo continuo, el bajo costo en la implementación de dichos dispositivos y la utilización mínima de energía.
Para los estudiantes de ingeniería, es de vital importancia aprender a implementar este tipo de sistemas de control con la tecnología actual utilizada tanto en la industria como en la investigación. Es una situación común que no siempre se tenga acceso al equipo necesario para realizar pruebas con sistemas reales presentes en la industria, ya que adquirir el material es costoso y no todos los centros de estudio pueden realizar la inversión.Una de las alternativas es la simulación por computadora, ya que, al contar con software especializado, se pueden modelar las características de los sistemas y aproximar su funcionamiento.
Sin embargo, utilizar las simulaciones por computadora trae beneficios limitados para el aprendizaje del estudiante de ingeniería. Es por eso que es relevante poder implementar sistemas de control digitales con herramientas de libre acceso que permitan trabajar en el diseño de controladores considerando parámetros del hardware a utilizar para emular el comportamiento de la planta y para implementar un sistema de control en lazo cerrado, además que representa una alternativa económica y de fácil uso para ello.
METODOLOGÍA
Se utilizan dos tarjetas de desarrollo Arduino UNO para la implementación del sistema decontrol digital y para emular la planta. Una tarjeta se utiliza para generar una señal analógica a través de uno de los pines de la tarjeta mediante PWM y un filtro pasabajas pasivo. La señal analógica corresponde a la respuesta en lazo abierto del sistema a controlar que ha sido generada a partir de una ecuación en diferencias implementada en el programa.Por otro lado, se utiliza una tarjeta adicional que sirve como controlador recibiendo la señal de la planta en una de las entradas analógicas de la tarjeta y haciendo el cálculo del compensador internamente para generar una salida PWM con la respuesta. Las simulaciones y el diseño del controlador se realizan con el software MATLAB.
CONCLUSIONES
Durante la estancia se logró adquirir nuevos conocimientos en cuanto a la implementación de sistemas de control digitales. La implementación del controlador en Arduino no pudo concluirse por los diversos factores que afectan al desempeño en proyectos de igeniería debido al trabajo virtual a distancia, además de que el diseño e implementación de estos sistemas fue un reto nuevo y desafiante. Sin embargo, se logró cubrir con la mayoría del programa previsto, ya que con las pruebas realizadas al momento, se determina que es viable la implementación de controladores digitales utilizando Arduino. Si bien, esta tarjeta tiene un hardware limitado y no es la mejor opción para trabajo industrial o en aplicaciones en que se requiere mucha memoria y periféricos diversos, para el ámbito educativo es una muy buena opción. También lo es para aplicaciones donde la frecuencia de trabajo no es muy alta y la dinámica del sistema a controlar se encuentra dentro del ancho de banda de la señal PWM que se puede generar con la tarjeta. Dentro de los resultados, se logró implementar la respesta de sistemas dinámicos discretizando la señal y calculando la salida por medio de la ecuación en diferencias del sistema con un programa en Arduino que se ejecuta con la frecuencia fija proporcionada por una interrupción.
García Barragán Christian Salvador, Universidad de Guadalajara
Asesor:Mg. Victor Manuel Garrido Arévalo, Universidad Tecnológica De Bolívar
IMPLEMENTACIóN DE LA AUTOMATIZACIóN PARA LA MEJORA EN EL ARRANQUE DE MOTORES TIPO JAULA DE ARDILLA COMPLEMENTANDO AL SISTEMA ELéCTRICO DE POTENCIA
IMPLEMENTACIóN DE LA AUTOMATIZACIóN PARA LA MEJORA EN EL ARRANQUE DE MOTORES TIPO JAULA DE ARDILLA COMPLEMENTANDO AL SISTEMA ELéCTRICO DE POTENCIA
García Barragán Christian Salvador, Universidad de Guadalajara. Vázquez Torres Diana Paola, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los sistemas eléctricos de potencia suelen presentar perturbaciones es sus sistemas, las cuales pueden ser generadas en el proceso que se lleva a cabo al realizar interfaces entre maquinas. El funcionamiento de distintos componentes electrónicos o fenómenos atmosféricos que podrían afectar directamente a las diferentes áreas del sistema.
Una de las principales fuentes de perturbaciones en los sistemas eléctricos de potencia se encuentra en el sector industrial; mismo donde el uso de maquinaria es esencial para la producción del producto o servicio, durante los procesos es necesario considerar tener una gran potencia, por lo cual podría ser constituida por motores de inducción, son considerables y pueden llevar a cabo un arranque, debemos tomar en cuenta el tiempo que le tomará a la máquina alcanzar su punto de funcionamiento y en los posibles efectos que se puedan presentar en el arranque del sistema.
Por ello se empleará el uso de un sistema de arranque automatizado el cual conllevará una serie de beneficios considerables debido a la reducción de la corriente de arranque necesaria para empezar a operar maquinas donde se emplee el uso de motores tipo jaula de ardilla; con esta mejora se espera reducir el porcentaje de daños en el sistema interno en la máquina, los beneficiados de esta mejora serán todos aquellos que quieran eliminar esta problemática, para lo cual ahorrarán bastante dinero en el mantenimiento constante de los sistemas internos de las maquinas.
METODOLOGÍA
Se analizó el estado actual de los sistemas eléctricos de potencia y las fallas más comúnmente encontradas en los mismos.
Se utilizó el software Simulink de Matlab para realizar un modelo de estudio del sistema, en este caso considerando un motor jaula de ardilla de 100Hp conectado a un transformador reductor de tensión (11kV-0.4kV) de 1MVA.
Posteriormente, se realizó la selección de variables que serán evaluadas partiendo del modelo base, el cual no cuenta con un método de arranque asistido y así obtener los valores de corriente y tensión en la etapa de arranque, luego se realizan los cambios al modelo añadiendo diferentes métodos de arranque automatizados para poder comparar el impacto en los niveles de corriente y tensión en la etapa de arranque en busca de un cambio.
Finalmente, se realiza la comparación entre el modelo base y los diferentes modelos con métodos de arranque automatizados para poder posteriormente establecer cual es el que ofrece mejores beneficios en ciertas aplicaciones.
CONCLUSIONES
En equipo podemos concluir que se espera analizar el impacto generado por los diferentes métodos de arranque automatizados en los sistemas eléctricos de potencia a fin de encontrar el que más se adapte a las necesidades que requiera el arranque en los motores tipo jaula de ardilla y se pueda llegar a profundizar las aplicaciones seleccionadas, que nos permita conocer de manera más acertada sus variables, efectos y eficiencias sobre el sistema permitiendo así conocer la mejor opción de diseño.
García Bibiano Jenifer Estefanía, Instituto Tecnológico de Chilpancingo
Asesor:M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
Diaz Wences Erick Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. García Bibiano Jenifer Estefanía, Instituto Tecnológico de Chilpancingo. Ojeda Iglesias Victor Omar, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
Los adultos mayores pueden presentar alteración en el control postural y por ello generar respuestas inadecuadas en los ajustes posturales, ya que con el paso de los años se va deteriorando la movilidad, la agilidad y la capacidad de mantener la estabilidad que causa un alto riesgo de caídas y un severo aislamiento social. Los individuos que muestran inestabilidad al estar parados sobre una pierna, también presentan dificultades al caminar, por lo tanto, deben recibir una mayor atención porque esa fragilidad física en la vida cotidiana les causa un miedo constante por caer, esto puede causar que se aíslen de la sociedad, sin tomar en cuenta que en muchas ocasiones no toman las terapias físicas adecuadamente o las abandonan antes de tiempo. Algo que es realmente preocupante en las personas mayores de 65 años ya que son quienes corren mayor riesgo de sufrir caídas mortales, siendo estas la segunda causa mundial de muerte por lesiones accidentales o no intencionales según la Organización Mundial de la Salud (OMS).
Tratando de ayudar en el proceso de rehabilitación física de adultos mayores que han abandonado la terapia física del programa de ejercicios terapéuticos PROBAUAM, se desarrolla un sistema de realidad virtual desarrollando minijuegos serios para los adultos mayores con la finalidad de que estos puedan realizar sus ejercicios terapéuticos de forma divertida sin sentirse aislado, generando autonomía, una alta autoestima y a su vez evitando el abandono de la terapia física.
METODOLOGÍA
Para la realización del proyecto que tiene como principal objetivo el desarrollo de juegos serios de realidad virtual, se obtuvo información del protocolo PROBAUAM que es un protocolo de ejercicios terapéuticos para mejorar la estabilidad en adultos mayores de la Universidad Autónoma de Manizales. En el cual se muestran los ejercicios que deben realizar los adultos mayores en su terapia física. Para poder desarrollar los minijuegos, se realizan una serie de pasos; en los cuales el equipo de trabajo se dividió en 2 grupos; de los cuales un grupo se designó para el diseño de dichos minijuegos, dentro de sus actividades a realizar; se elegía un ejercicio del protocolo y se exponen una serie de propuestas de minijuegos que se pueden realizar con el ejercicio anteriormente seleccionado y se rellena una ficha técnica la cual contiene los datos más relevantes y la idea más explícita, posteriormente pasa por una revisión del equipo de ingeniería, los cuales cuestionan el porqué de la idea, y dan observaciones acerca del minijuego, si este es riesgoso, o que pueda causar problemas a los adultos, se realizan las correcciones y pasa por otra revisión de parte de equipo de fisioterapia para analizar, dar observaciones y aprobar o desaprobar la propuesta. Ya que es aceptada la propuesta se comienza a desarrollar la escena en Unity 3D, buscando los assets necesarios para su creación e incluirlos, organizando todos los assets por su tipo como materiales, texturas, prefabs, animaciones, por su alcance, etc. Terminado el diseño de la escena se pasa al otro grupo que es el de desarrollo que se encarga de la programación y funcionamiento de los minijuegos. Para el desarrollo se utilizó el lenguaje C#, y la herramienta SteamVR. Para realizar las pruebas se usaban los lentes y controles en físico o usando el simulador de Unity. Una vez probado y terminado el minijuego pasa a una revisión con el equipo de ingeniería para pruebas y correcciones, después pasa por el equipo de fisioterapia para dar el visto bueno o dar observaciones de algunas mejoras o modificaciones, cuando estos ya están finalizados se implementan en el proyecto final a través de GitHub.
CONCLUSIONES
Durante el proceso de diseño nos enfrentamos con muchos retos de los cuales principalmente fueron las limitantes que surgen debido a que el proyecto está dirigido a adultos mayores por lo cual debíamos tener en cuenta las restricciones; algunas de ellas eran las temáticas de los minijuegos debido a que el equipo de fisioterapia nos pedía evitar temas agresivos o que pudieran asustar a los adultos mayores, también nos pedían moderar la velocidad del juego porque les podría generar problemas de mareo; otro de los retos que tuvimos al diseñar los minijuegos fue encontrar las motivaciones que tendrían los adultos al realizar estos ejercicios, contemplando las observaciones y restricciones mencionadas por el equipo de fisioterapia. Pero gracias a las sesiones de retroalimentación con el equipo de fisioterapia y de ingeniería poco a poco fue más fácil el proponer los minijuegos con las observaciones logramos aprender y entender los factores a tomar en cuenta para el diseño de los minijuegos.
En el proceso de desarrollo obtuvimos conocimientos del funcionamiento de Unity, desde la creación de escenas, importación de assets, uso de librerías, creación de materiales y texturas, implementación de SteamVR, programación en C#, crear y controlar animaciones, etc. Además durante el desarrollo tuvimos un gran problema debido a que no muchos podían contar con el equipo de RV para estar probando los minijuegos y a pesar de utilizar un simulador para probar las escenas no era lo mismo que utilizar el equipo de RV ya que cuando se intentaban probar algunas escenas que fueron hechas con el simulador causaban algunos problemas al probarlo con el equipo de RV; también tuvimos que aprender a usar blender ya que en algunos caso era necesario modificar modelos 3D para poderlos utilizar.
El problema que más destacó fue trabajar en modalidad online pero a pesar de eso se pudo trabajar en equipo, logrando diseñar 25 de 36 actividades y desarrollar 12 de 25 minijuegos, cumpliendo con 69.44% en diseño y 48% en desarrollo de lo esperado.
García Calvo Sofía Isabel, Corporación Universitaria Reformada
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
Castro Arias Bibiana, Instituto Tecnológico Superior de Huauchinango. Coronell Gonzalez Nikolls Andrea, Corporación Universitaria Reformada. García Calvo Sofía Isabel, Corporación Universitaria Reformada. Ruiz González Diego, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
El avance tecnológico ha sido de gran impacto en la sociedad, ya que se ha implementado en distintas áreas como salud, ingeniería, artefactos electrónicos y mecánicos, entre otros. Sin embargo, hay muchas personas que no pueden gozar de estos avances por distintas situaciones como es la carencia económica, ceguera y algunas otras discapacidades.
El objetivo de desarrollar este proyecto es aplicar una reingeniería en el diseño para disminuir tiempos de impresión y costos por gastos de material. Para lograr esto, en el diseño original del prototipo se realizan los cambios necesarios tanto en dimensiones, como en el diseño de las piezas.
Este dispositivo tiflotécnico tiene como fin de ayudar en la educación introduciéndolo a temprana edad para aquellos que quieran aprender y quienes lo necesiten.
METODOLOGÍA
Este evento se desarrolló en diferentes etapas, iniciando con la recopilación de datos acerca del sistema de lectoescritura y como funciona, luego de ello, los materias que suelen ser más agradables al tacto de las manos ya que estas tienen que ser entrenadas para poder desarrollar la sensibilidad que se necesita para leer el braille. Seguida de esto se hizo uso de la información en cuanto al tamaño de los dedos y manos de los niños para que el disposotivo tiflotécnico pueda adaptarse a las manos de niños de diferentes edades.
CONCLUSIONES
Al pasar este dispositivo por las manos de un niño ciego, verificó el funcionamiento y la comodidad de dicho artefacto, mostró que cosas del dispositivo lo hacian sentir incomodo y que sugerencias daba para mejorar el prototipo.
García Carbajal Yasmín, Instituto Tecnológico de Morelia
Asesor:Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
García Carbajal Yasmín, Instituto Tecnológico de Morelia. Hernandez Galvan Ana Socorro, Universidad de Guadalajara. Asesor: Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El agua es esencial para el ser humano, que la utiliza para actividades básicas, recreativas o de servicios.
Se sabe que es un recurso que con el paso del tiempo su escases aumenta y por lo tanto también su demanda. La presa Miguel Alemán en Valle de Bravo ubicada en el Estado de México recientemente se ha visto afectada por cambios ysequía que comúnmente se considera son debido al consumo humano y el cambio climático, aunque no se tienen confirmadas dichas causas. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso.
Si bien existen forma de medir la calidad del agua mediante análisis en laboratorio de muestras extraídas, esto requiere de un exceso de tiempo, gastos económicos y desperdicio de mano de obra. Lo que nos lleva a la propuesta de realizar un dispositivo para la medición de calidad del agua en tiempo real que permita tener una base de datos, además de que sea autosuficinte energéticamente.
METODOLOGÍA
Hacer la investigación documental en artículos, revistas, compañías y patentes registradasque conduzca a la selección dela metodología ideal de diseño para el dispositivo.
Realizar la selección de los elementos que conformaran al dispositivo, sensores, elementos de comunicación, ordenador o placa y plataforma de desarrollo de software.
Para cumplir con lo aterior, se realizaron sesiones virtules con compañeros y asesores para correciones y apoyo acerca de la investigación, asi como para la unificación y seguimiento del proyecto.
En particular, la investigación se centró en selección de los dispositivos que formarán la comunicación de los datos y la arquitectura de la red que se tendrá acorde a la problematica, lo cual es la distancia de alcance. Se busca una solución que permita una comunicación de larga distancia, aproximadamente 15 km de boya a boya, con un dispositivo que no necesite demasiada energia electrica ni mantenimiento, o que este sea remoto.
CONCLUSIONES
La estancia logró despertar el interés en una nueva área de investigación, las comunicaciones inalambricas y los diferentes protocolos que se utilizan para las misma. A través de la recolección de información y busqueda de proyectos similares se logró plantear la iniciativa de un proyecto con gran impacto tanto ambiental como tecnológico.
Se realizaron principalmente actividades de investigación en colaboración con otros estudiantes dentro de la estancia de verano, con el apoyo de los mismos se complemento el marco teorico de lo que sería el prototipo inicial para la boya.
Garcia Castro Obed, Universidad Mexiquense del Bicentenario
Asesor:Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
Garcia Castro Obed, Universidad Mexiquense del Bicentenario. Hernández López Alex Jahel, Instituto Politécnico Nacional. Valdivia Zaragoza Violeta Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Gracias al auge que ha tenido el uso del internet en estos últimos años, ha surgido la necesidad de crear herramientas que permitan poder examinar toda la información que se genera, conforme pasan los años dichas herramientas se han ido modificado adaptándose a las nuevas necesidades, es por ello que en esta investigación se intenta hacer un análisis minucioso sobre las características de la analítica de datos en el ámbito empresarial en donde se pretende conocer las ventajas, desventajas, técnicas, etc. Desde el punto de vista de varios autores.
METODOLOGÍA
El método utilizado a lo largo de esta investigación corresponde a un estudio interrogativo, retrospectivo, observacional y secundario, en el cual varios estudios atienden a la misma pregunta Existen dos formas de revisión sistemática: la cuantitativa y la cualitativa.
La diferencia radica en el uso de en el uso de análisis estadísticos que dan lugar a la integración y análisis cuantitativo de los resultados en los diversos estudios. Además de ser una manera de evaluar e interpretar toda investigación disponible respecto a un interrogante
CONCLUSIONES
A partir de la utilización del método de revisión sistemática, se puede concluir que la analítica de datos, es una herramienta de gran utilidad en el ámbito laboral ya que ofrece grandes beneficios a aquellas empresas que buscan hacer crecer sus negocios. Mediante un análisis minucioso y detallado de su información se pueden obtener datos relevantes no solo para identificar la oferta y demanda que se tiene en el mercado, sino también para predecir futuras situaciones que pueden impactar de manera positiva o negativa a la empresa.
Algo muy importante, es el hecho de que una empresa que no se actualiza es una empresa que va encaminada al fracaso o a la quiebra. Es por eso que la analítica de datos, ha venido a revolucionar la forma de manejar la información. Parte de esta innovación que ofrece, está el hecho de poder sacar el máximo beneficio a los datos esto a su vez permite crear una ventaja competitiva sobre otros.
Garcia Cerda Rodrigo Amador, Instituto Tecnológico Superior Purépecha
Asesor:Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México
SÍNTESIS DE MATERIALES COMPUESTOS A PARTIR DE CASCARON DE HUEVO, REFORZADOS CON ACERO316L PARA POSIBLES APLICACIONES BIOMÉDICAS Y SISTEMAS MECÁNICOS
SÍNTESIS DE MATERIALES COMPUESTOS A PARTIR DE CASCARON DE HUEVO, REFORZADOS CON ACERO316L PARA POSIBLES APLICACIONES BIOMÉDICAS Y SISTEMAS MECÁNICOS
Garcia Cerda Rodrigo Amador, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Los implantes dentales en la actualidad son la ruta más efectiva hacia el remplazo de material óseo ante las diversas situaciones patológicas, más sin embargo este tipo de materiales ha caído ante la falta de mejoras de tipo mecánicas y de esfuerzo, es por ello que se ha determinado el analizar el comportamiento de la adicción de partículas de metal Acero 316L dispersas ante el sistema comprendido por aluminatos de calcio extraídos de un material de desecho comercial (Cascaron de huevo) a través del método se síntesis por estado sólido con la finalidad de mejorar considerablemente la resistencia ante la fractura y determinar las propiedades que de ellos resulten.
METODOLOGÍA
El CaCO3 fue obtenido de una fuente natural recolectada como materia prima de cascaron de huevo blanco en conjunto con alumina comercial para la síntesis de aluminatos de calcio.
Para la obtención de CaCO3 se recaudó la materia prima (cascaron de huevo), a la cual se le retiro la membrana interna, se enjuagaron con agua destilada y alcohol isopropílico, se secaron con flujo de aire caliente para posteriormente ser triturados utilizando un mortero como etapa principal para producir un polvo grueso, luego este polvo fue sometido a un proceso de calentamiento a 200 ° C por 1 hora en un horno eléctrico (Yamato FO200CR), con la finalidad de eliminar en su mayoría toda la materia orgánica presente.
El polvo resultante se sometió a un proceso de molienda mecánica de bolas en seco en un molino planetario (Fritsch Pulverisette 6) durante 4 horas a 200rpm, utilizando un recipiente de ágata y bolas de molienda de ágata (con un diámetro de 10mm).
Composición química
Las materias primas utilizadas fueron α-Al2O3 polvo (<Malla 100, pureza≥98%, Reasol) y CaCO3 polvo obtenido como se describió anteriormente.
La composición química formada para el material de síntesis es 49,5 wt. % CaCO3 + 50,5 wt. % Al2O3 considerando una relación molar 1: 1 para el sistema puro y 49,5 wt. % CaCO3 + 50,5 wt. % Al2O3+ 1 wt. % Acero 316L, así como 49,5 wt. % CaCO3 + 50,5 wt. % Al2O3+ 5wt. % Acero 316L; la mezcla se sometió a un proceso de molienda de bolas durante 4 horas a 200 rpm a través de un molino planetario de alta energía (Fritsch Pulverisette 6), utilizando un recipiente de ágata y bolas de molienda de ágata con una relación entre polvo y bolas de 1:10.
La mezcla de polvo se compacta mediante presión uniaxial (300 MPa) a temperatura ambiente en forma de muestras cilíndricas de 20 mm de diámetro y 3 mm aprox. de espesor. Posteriormente las muestras de cada porcentaje se sinterizaron a 1300 ° C, 1350 ° C, 1400 ° C, y 1500 ° C en atmósfera de gas nitrógeno, utilizando un horno eléctrico (Nabertherm LHT 02/18), con una velocidad de calentamiento de 10 ° C · min-1. El proceso de calentamiento se realizó en varias etapas; primero se elevó la temperatura y se estabilizó a 400 ° C durante 20 minutos, luego se elevó la temperatura a 800 ° C y se estabilizó durante 20 minutos para eliminar la materia orgánica que no se eliminó en la etapa anterior. Después de esto, la temperatura se elevó a 1200 ° C y se estabilizó durante 20 minutos, asumiéndolas descomposición completa de CaCO3, finalmente la temperatura se elevó a las distintas temperaturas mencionadas para promover la reacción química entre CaO y Al2O3 para obtener el material refractario deseado con buena densidad.
Caracterización de materiales sinterizados
La densidad aparente fue determinada por el principio de Arquímedes. Las propiedades mecánicas tales como dureza y tenacidad a la fractura se evaluaron utilizando el método de indentación (EMCO-TEST DuraScan 20).
CONCLUSIONES
Los resultados obtenidos no fueron los esperados pues se presentó una reacción de oxidación del metal de Acero 316L el cual afecto al sistema presentando alteraciones no identificadas hasta el momento, se mantiene a reserva la realización de los estudios de difracción de rayos x y microscopia electrónica de barrido para con ello poder identificar las distintas fases formadas y poder sustentar el nuevo compuesto formado, el cual se mantiene a objeto de estudio para posteriores investigaciones y mejoras ante las propiedades obtenidas en dichos sistemas.
Para los estudios de determinación de densidad por el principio de Arquímedes y pruebas de dureza, se observa una mejor formación de los compuestos para sistemas con sinterización correspondientes a 1500°C con una dureza promedio de 1062.5 HV para 5% Acero 316L, 1062.2 HV para 1% Acero 316L y 974 HV para el sistema puro, y una densidad sinterizada promedio de 2.4734 g/cm^3 para 5% Acero 316L, 2.8221 g/cm^3 para 1% Acero 316L y 2.8833 g/cm^3 para el sistema puro.
García Chavarría Ricardo, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN CIUDAD JUAREZ CHIHUAHUA
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN CIUDAD JUAREZ CHIHUAHUA
Delgado Olvera Luis Enrique, Instituto Tecnológico de Ciudad Juárez. García Chavarría Ricardo, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En 2011 se da a conocer la Cuarta Revolución Industrial en la Feria de Hannover que es la Feria Industrial más grande del mundo, surgiendo un nuevo paradigma económico (Deutschland, 2014). El concepto forma parte de una estrategia de alta tecnología del gobierno alemán que describen la producción industrial en general donde, los elementos del sistema productivo están interconectados entré sí digitalmente. Después de 10 años, a este respecto Taboada y Sámano en Martínez, Álvarez y García (2020) afirman textualmente que:
… a diferencia de lo que en otros países y en distintos grados viene sucediendo - en particular en Alemania desde 2013 (Schroeder, 2017), en México, no hay una estrategia integral para participar y prepararse para los fuertes cambios de índole diversa que derivarán de esta fuerte transformación o revolución.
De acuerdo con el Clúster Industrial de México, durante 2020, las regiones con mayor crecimiento en digitalización de la industria en México fueron:
El corredor del Bajío y Guadalajara.
En el Norte: Monterrey, Tijuana, Ciudad Juárez y Hermosillo.
En el centro el Estado de México
Por una parte, hay crecimiento en la digitalización de los procesos en México, pero no a la velocidad que se requiere, de acuerdo con la Secretaría de Economía de Tijuana (El Imparcial, 2020). La principal debilidad es la falta de recurso humano técnicamente habilitado en industria 4.0, considerando aspectos de teoría, práctica, contexto y normatividad. México es de las 12 economías más importantes del mundo en lo que a la industria manufacturera respecta, por su valor de producción y diversidad, con un sector industrial considerado robusto. Sin embargo, el sector corre el riesgo de rezagarse debido a la carencia de talento calificado y se ubica en el lugar 46 al considerar a los países más preparados para la industria 4.0. En nuestro país apenas 5% de las empresas conocen y aplican la industria 4.0 (Campa, 2019).
METODOLOGÍA
Esta tesis aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) de Ciudad Juárez, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Durante la estancia de verano se logró obtener mediante los encuestados y la información cualitativa la conclusión de que ciudad Juárez tiene los recursos educativos en cuanto a docentes e instalaciones para contar con profesionistas bien preparados para manejar los retos que trae consigo la cuarta revolución industrial; cabe resaltar que una inquietud que los profesionistas y docentes tienen respecto a su campo laboral es la poca remuneración que perciben a pesar de que se están capacitando constantemente.
García Cruz Ramón, Instituto Tecnológico de Comitán
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
SISTEMA DE PRODUCCIóN EN LAS VIVIENDAS, A TRAVéS DE LA IMPLEMENTACIóN DE BIOHUERTOS CON SUMINISTRO DE ATRAPA NIEBLAS.
SISTEMA DE PRODUCCIóN EN LAS VIVIENDAS, A TRAVéS DE LA IMPLEMENTACIóN DE BIOHUERTOS CON SUMINISTRO DE ATRAPA NIEBLAS.
García Cruz Ramón, Instituto Tecnológico de Comitán. Tenorio Montes de Oca Guidion, Instituto Politécnico Nacional. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El asentamiento humano cerro cachito ubicado en el distrito Chalaco de Ventanilla, en Lima Perú, fundado el 23 de febrero del 2003, es el lugar de vivienda de varias personas con diferentes discapacidades, que no se rinden. A pesar de las dificultades en las que se encuentra su localidad y viviendas, con la llegada del coronavirus se enfrentan a una dificultad más, esta población con discapacidades no tiene una fuente de ingresos fijos, por la falta de trabajo, tanto por las discapacidades como por la contingencia sanitaria ya que tratan de salvaguardar su salud cumpliendo con las disposiciones de aislamiento que el gobierno ha declarado. Por lo tanto, la economía se ha visto altamente afectada, debido a que la mayoría de estos habitantes generaba ingresos con empleos informales. A partir de estas condiciones es que se ha detectado la amplia problemática a la que se enfrentan los pobladores de cerro cachito.
METODOLOGÍA
A partir de una investigación exploratoria y descriptiva tanto de las condiciones bio climáticas como de los habitantes del asentamiento humano sector cerro cachito, se logró identificar que una ayuda viable para mejorar los ingresos económicos de estos habitantes es implementar el cultivo de alimentos orgánicos (hortalizas) mediante un sistema de riego de atrapanieblas, creando la posibilidad de autoconsumo o comercialización. Mediante el desarrollo e instalación de un atrapanieblas en las viviendas, durante algunos periodos del año se podrá recolectar hasta 6.5 litros de agua al día por cada metro cuadrado que tenga la malla que captura la niebla y a través de un sistema de goteo se captará y utilizará dicha agua para el riego de los bio-huertos. Con esto se plantea implementar sistemas de producción dinámicos; la persona siembra de manera simultánea una amplia gama de hortalizas de período corto ajustándose a los cambios en la demanda del mercado y practica la rotación de cultivos para optimizar el uso del suelo. Dentro de esta zona, la producción de alimentos tendrá lugar en huertos familiares que ocupan espacios reducidos como 4.00 m2 y también se propone trabajar en espacios comunitarios de hasta 200.00 m2, principalmente se implementarían los biohuertos en las viviendas, ya que al crear una cadena productiva es conveniente que los habitantes contribuyan para salir adelante todos juntos. La producción es generalmente para autoconsumo, sin embargo, se considera la comercialización en pequeña escala, de la producción de hortalizas orgánicas. Esto beneficiara a los productores que se dedican a estas actividades dejándoles ingresos económicos, aunado a la posibilidad de tener una dieta variada basada en alimentos frescos, buscando así el bienestar integral de estas personas. En cuanto a la factibilidad de implementación de este sistema de producción, se tomó en cuenta la posibilidad de que las personas puedan desarrollar las actividades ya que éstas no requieren tanto esfuerzo, es preciso saber que discapacidad jamás será incapacidad.
CONCLUSIONES
Considerando todas las premisas explicadas anteriormente, los bio-huertos representan una oportuna alternativa para los habitantes del asentamiento cerro cachito, ya que en ellos podrán cultivar, cosechar y comercializar productos de hortalizas, generándoles una nueva oportunidad de ingreso económico. Mediante un estudio de factibilidad sobre la producción y comercialización de hortalizas orgánicas se determina que los elementos que lo conforman resultan ser de bajo costo y fácil instalación estando al alcance tanto económico como físico de las personas, resultando ser viable su implementación y la recreación en el lugar de estudio, todo esto mediante la investigación que realizamos. Con base en la realización de proyecciones y análisis de información de la viabilidad del proyecto, se idean las técnicas de producción y comercialización para las hortalizas orgánicas, que determinan los beneficios a los que son acreedores las personas que implementen este tipo de proyecto.
García Curiel David, Instituto Tecnológico de Pachuca
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
García del Real José Antonio, Universidad de Guadalajara
Asesor:Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
CAUSA PRINCIPAL POR LA QUE NO TODAS LAS PYMES DE MÉXICO PROSPERAN: EXTERNA O INTERNA
CAUSA PRINCIPAL POR LA QUE NO TODAS LAS PYMES DE MÉXICO PROSPERAN: EXTERNA O INTERNA
Barragán Zepeda Olga, Instituto Tecnológico de Tepic. García del Real José Antonio, Universidad de Guadalajara. Asesor: Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
Las PyMES son las Pequeñas y Medianas Empresas que cuentan con menos de 251 trabajadores, no tienen gran facturación ni son de gran tamaño, y por lo tanto no disponen de los mismos recursos ni las mismas oportunidades como las tienen empresas de mayor tamaño a ellas. Según el Instituto Nacional de Estadística, Geografía e Informática (INEGI, 2019) hay más de 4.1 millones de empresas en México que se consideran PyMES.
Las PYMES forman una gran parte de la economía mexicana, alimentan muchas bocas y familias diariamente y además poco a poco son capaces de proveer empleos. La gran cuestión es porque existen tantas PyMES en México, no se convierten en grandes industrias de productos o servicios, cual es la causa de que no todas prosperen. Hay diversas investigaciones donde investigan las razones de estos cuestionamientos pero desde distintos ángulos, uno de ellos es lo que está deteniendo a estas empresas externamente, sea el gobierno, las leyes o la competencia en el mercado; por otra parte están las razones internas que van desde la forma en que se administran financieramente, la forma en que innovan, hasta como administran sus procesos u operaciones.
METODOLOGÍA
Se llevará a cabo una investigación documental según sus fuentes, y una investigación aplicada según su objetivo pues es aquella que depende de los descubrimientos y avances de la investigación básica y se enriquece con ellos, pero se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos como en este caso su aplicación en las PYMES de México. La intención de la investigación que se aborda es explicativa al sustentar con información toda aquella exposición de la realidad, es también una investigación cualitativa que se basa en encontrar subjetivamente la causa más importante de por qué las pymes no prosperan en un 100% en México. Las variables igualmente serán cualitativas es decir las causas de esta problemática. Y por último para calcular el tamaño de la muestra tomaremos la cantidad de pymes en México, que según Forbes (2020), serían cerca de 4.2 millones, con un nivel de confianza del 90% de confianza y un 10% de error, se utilizó la siguiente formula de N para poder determinar el tamaño de la muestra.
(N*Z^2*P*(1-P)) / ((e^2*(N-1))+(Z^2*P)-(1-P))
Dónde:
N = tamaño de la población
Z = nivel de confianza
P = probabilidad de éxito, o proporción esperada
e = Error
Al aplicar la formula nos arrojó un resultado de:
P= 0.5
Z=1.65
Arrojándonos un resultado de:
Tamaño de la muestra (n) = 68.63
Lo que nos dice que 69 es el número de empresas que necesitamos analizar para representar el universo de 4,200,000 con un error del 10% y nivel de confianza de 90%.
CONCLUSIONES
La ejecución de la muestra en las PYMES trae consigo un gran beneficio social y económico. Las PYMES se encuentran en un constante desarrollo, en donde cada día se enfrentan a nuevas situaciones las cuales se deben afrontar de la mejor manera, no quiere decir que la implementación de nuevos métodos será la solución para resolver problemas referentes al crecimiento debemos plantear las situaciones y evaluar para obtener mejores resultados. En conclusión gran parte de la viabilidad de proyectos se encuentran en la sostenibilidad del mismo y en los recursos que se obtengan de instancias gubernamentales para su ejecución ya que hablamos de evolución y adaptación y esto se requiere la mayor parte del tiempo, por los factores mencionados anteriormente y porque pertenecemos a un sistema complejo, caracterizado históricamente por condiciones de inequidad en la asignación de los recursos financieros necesarios para que las PYMES en México afronten las condiciones sociales presentes en el entorno multicultural de nuestro país. Aún falta analizar numerosos casos de empresas para así concluir cual sería la causa principal por la que no todas las PyMES en México no prosperan.
García Díaz Tania Montserrat, Instituto Politécnico Nacional
Asesor:Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)
DEFINIR ESTRATEGIAS PARA EL APRENDIZAJE DE BUENAS PRáCTICAS DE DESARROLLO DE SOFTWARE EN ENTORNOS GAMIFICADOS.
DEFINIR ESTRATEGIAS PARA EL APRENDIZAJE DE BUENAS PRáCTICAS DE DESARROLLO DE SOFTWARE EN ENTORNOS GAMIFICADOS.
García Díaz Tania Montserrat, Instituto Politécnico Nacional. Asesor: Dra. Mirna Ariadna Muñoz Mata, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El desarrollo de un ecosistema mediático con avances tecnológicos y la creación de nuevas necesidades ha cambiado el proceso de adopción de juegos en la sociedad actual, enfatizando cómo se puede abordar la gamificación desde muchas perspectivas, incluida una visión educativa. En este contexto, hablamos de un método de aprendizaje que traslada el mecanismo del juego al ámbito de la educación para obtener mejores resultados.
Durante la estancia Verano de Investigación se estudiaron los componentes de la gamificación, para así crear estrategias para el aprendizaje en dos ámbitos diferentes: la aplicación de "matemáticas digeribles en entornos gamificados", que busca explicar la clasificación de figuras y cuerpos geométricos para niños entre 8 y 12 años; y la "enseñanza de buenas prácticas de desarrollo de software en entornos gamificados", con enfoque en la norma ISO/IEC 29110, que suele enseñarse mediante el aprendizaje tradicional.
METODOLOGÍA
Al inicio del verano, se me compartió información de consulta, y se llevaron a cabo sesiones virtuales de formación en el estándar ISO/IEC 29110, matemáticas digeribles y un juego serio elaborado por un alumno del CIMAT. Posteriormente, se realizó una investigación documental sobre las dinámicas y mecánicas de juego en gamificación, y su aplicación en entornos virtuales.Con ello, se hizo un análisis de las mecánicas y dinámicas propias de la gamificación, así como sus oportunidades de aplicación y efectividad en el ámbito de la enseñanza, y sus beneficios en la calidad de las habilidades desarrolladas y conocimientos adquiridos. Después se describieron las propuestas de estrategias para los dos temas de interés, y se crearon prototipos de bajo nivel y de alta fidelidad para presentarlos a los investigadores como producto final de la estancia. Finalmente, se pasó a la validación de las propuestas, y la realización de pruebas de usabilidad por parte de los investigadores, para que, en un futuro, se pueda pasar a la fase de desarrollo de software de esas propuestas.
CONCLUSIONES
De la presente investigación se obtuvieron buenos resultados que tuve la oportunidad de aplicar en la fase de prototipado para crear entornos virtuales que aplican la gamificación como estrategia de enseñanza. Como resultados finales, presentaré los prototipos validados de los entornos de gamificación virtuales que yo diseñé.
Teniendo los resultados en cuenta, se afirma que la gamificación es una buena alternativa para la enseñanza de temas del área de Ingeniería de Software, en específico la enseñanza de estándares como el ISO/IEC 29110, así como en el área de matemáticas, donde se enfocó en las matemáticas digerible, pues motiva al aprendizaje e involucra a los estudiantes de una manera más eficaz que el aprendizaje tradicional empleado año tras año en las aulas mexicanas. Cabe mencionar que gracias al Verano de la Investigación Científica he reforzado mi formación académica al permitirme aprender sobre la gamificación y abrirme la posibilidad de aplicarla en múltiples ámbitos de mi vida académica y personal a futuro.
Garcia Gonzalez Julio Alberto, Instituto Tecnológico de Morelia
Asesor:M.C. Silvia Betzabeé Alemán Córdova, Instituto Tecnológico de Morelia
CARACTERIZACIóN DE PARTíCULAS CERáMICAS DE CARBURO DE SILICIO.
CARACTERIZACIóN DE PARTíCULAS CERáMICAS DE CARBURO DE SILICIO.
Garcia Gonzalez Julio Alberto, Instituto Tecnológico de Morelia. Asesor: M.C. Silvia Betzabeé Alemán Córdova, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
Conforme los desarrollos tecnológicos avanzan, los requerimientos para los materiales usados en su fabricación se vuelven más complejos y difíciles de cumplir. Los cerámicos de ingeniería son materiales que exhiben propiedades que pueden ser fácilmente aprovechadas en la ingeniería. Entre ellos se encuentra el carburo de silicio (SiC) el cual es un cerámico cuyo estudio en la actualidad es el foco de atención de muchas industrias debido a sus propiedades mecánicas, químicas y físicas.
El primer contacto con el SiC fue probablemente reportado en 1824 por Jöns Jacob Berzelius al especular que había producido una probeta donde se presentaba un enlace entre silicio y carbono después de una serie de experimentos que realizó. Sin embargo, no fue hasta 1891 cuando Edward Goodrich Acheson buscando un material que pudiera remplazar al diamante en aplicaciones abrasivas y de corte. Acheson mezclo carbón y silicato de aluminio en un horno eléctrico obteniendo cristales brillantes de color verde pegados al electrodo de grafito y después de estudiarlos supo que era un compuesto de silicio y carbono.
Las propiedades únicas del SiC lo hacen un material ideal para una gran cantidad de aplicaciones de todo grado de complejidad. Una de las más simples es su uso como material abrasivo. Un ejemplo de ello es en el papel de lija el cual es un elemento indispensable en diversas industrias donde se requiere desbastar superficies, aquí el SiC es usado en forma de granos los cuales son pegados mediante un adhesivo especial a una base flexible. Gracias a que en un estado puro es un buen aislante de temperatura el SiC también es utilizado como material refractario en la industria metalúrgica. Por otro lado, en la producción de acero el SiC se usa como aleante para controlar los niveles de Si y C presentes en el acero.
El SiC también ha demostrado recientemente ser un material prometedor en la ayuda al combate contra el cambio climático y la contaminación ambiental. Es usado en los automóviles eléctricos los cuales cumplen la característica de ser altamente eficientes y no emitir CO2. Mas concretamente el SiC es usado para la fabricación de los MOSFET del inversor de corriente continua a corriente alterna que sale de las baterías para alimentar a los motores eléctricos. Esto debido a que es un material que tiene una alta conductividad tanto térmica como eléctrica además de ser ligero. Permitiendo un diseño más compacto, por ello algunas empresas realizan innovaciones incorporando inversores con MOSFET de SiC en sus vehículos, tal es el caso de Toyota, McLaren y Tesla.
En el sector de generación de energía nuclear el SiC se utiliza en la formación estructural del combustible Tri-structural ISOtropic Fuel con el que operan la mayoría de las plantas nucleares en el mundo. Este consiste en una capsula esférica en cuyo núcleo se encuentran los elementos: uranio, carbono y oxígeno, los cuales están cubiertos por una capa de SiC que da solides estructural al tiempo que actúa como un contenedor de los desechos radioactivos que son generados en el interior de la capsula. El SiC es muy eficaz para esta tarea por su resistencia a las altas temperaturas y a la corrosión.
METODOLOGÍA
Se analizaron polvos de SiC de la marca Sigma Aldrich Corporation con tres diferentes tamaños de partícula. A los cuales se les asignó la siguiente nomenclatura para hacer referencia a cada uno de ellos. SiC-N (nanométrico), SiC-M (medianos) y SiC-G (grandes).
Por medio de dos diferentes equipos para realizar la medición de tamaño de partícula, se tomaron lecturas de cada uno de los polvos, para los SiC-M y SiC-G se utilizó un medidor de la marca Beckman Coulter y para los SiC-N se utilizó uno de la marca Brookhaven Instruments.
También se tomaron imágenes por microscopia electrónica de barrido (MEB) las cuales fueron utilizadas para identificar la forma de las partículas de cada polvo. Además, por medio de las imágenes obtenidas se realizaron mediciones de dichas partículas utilizando el software Image-Pro 10.
CONCLUSIONES
Con el equipo de medición de tamaño de partícula el rango obtenido para los SiC-N fue 89 a 550 nm teniendo como valor más frecuente 330 nm. En el caso de los polvos SiC-M se obtuvo un rango de tamaño de partícula de 10 a 40 μm, siendo el tamaño más frecuente 21.7 μm. Para los polvos SiC-G el rango fue de 10 a 67 μm, teniendo como tamaño más frecuente 35 μm.
Con las medidas tomadas en las imágenes de MEB, el rango de tamaño de partícula para los polvos SiC-M fue de 10 a 32 μm y el valor más frecuente fue 15 μm. Para los SiC-G el rango fue de 33 a 64 μm teniendo como valor más frecuente 47 μm. Los polvos SiC-N no pudieron ser medidos en las imágenes debido a que su tamaño es muy pequeño y con el aumento necesario para ver las partículas individuales los límites de estas no son claros.
En cuanto a la forma de partícula se observó en las imágenes de MEB que los polvos SiC-M y SiC-G presentan partículas con forma de hojuela mientras que los SiC-N presentan partículas esféricas las cuales se encuentran formando agregados.
Se concluye que la etapa de caracterización de polvos es de vital importancia para el procesamiento de materiales cerámicos de ingeniería debido a que la forma y tamaño de partícula influyen de forma directa a las propiedades finales de la pieza.
Por medio de este estudio se pudo observar la diferencia en tamaños y forma de las partículas de los tres polvos. Asimismo, la complejidad en la preparación de las muestras y en el uso de los equipos para realizar dichos análisis.
García Jiménez Axayacani Pilar, Instituto Politécnico Nacional
Asesor:Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas
CONTROL DE ROBOT DIFERENCIAL EN AMBIENTE ESTRUCTURADO
CONTROL DE ROBOT DIFERENCIAL EN AMBIENTE ESTRUCTURADO
García Jiménez Axayacani Pilar, Instituto Politécnico Nacional. Asesor: Dr. José Hugo Barrón Zambrano, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
A lo largo de los años el sector de ingeniería e industria ha ido desarrollándose para automatizar el trabajo humano, diversos países han desarrollado nuevas maneras de controlar maquinarias para poder conseguir IA. Actualmente en nuestro país a pesar de que ya hay investigaciones y carreras para este ámbito se puede considerar que no se le da la suficiente atención y/o recursos para desarrollar aún más las tecnologías; por eso es importante impartir este tipo de temas a la población para que generar interés y así desarrollar infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación. Este proyecto ayudará a conocer un poco más de esta área a una escala pequeña.
METODOLOGÍA
Las plataformas virtuales utilizadas para la investigación fueron las siguientes:
CoppeliaSim (versión educativa). Esta plataforma es un simulador de robots con entorno de desarrollo integrado y se basa en una arquitectura de control distribuido (Ilustración 1).
Para nuestra investigación nos concentramos en los robots móviles de tipo diferencial, es decir, trabaja con 2 ruedas que van a velocidades distintas según el movimiento a emplear.
El modelo del robot fue E-puck (Ilustración 2), este es un robot móvil en miniatura y cuenta con 8 sensores infrarrojos para medidas de proximidad.
Para familiarizarnos con el simulador se usó una página web de CoppeliaSim que ayudó a escoger qué comandos eran más útiles: https://www.coppeliarobotics.com/helpFiles/en/remoteApiFunctionsPython.htm
Spyder. Se usó este entorno de desarrollo interactivo para el lenguaje de programación Python ya que este iba a ser el lenguaje a ocupar (Ilustración 3).
Para empezar, se investigó cómo conectar el simulador con Spyder para programar el robot desde el lenguaje Python (debido a que originalmente en el simulador se usa otro lenguaje). Para ello se importaron archivos del simulador en el código, se usó una condicional para ver que trabajara el programa y con ello se usó un bucle while para formar un comando donde el robot avanzara a una velocidad constante (Ilustración 4 y 5).
Una vez que el robot vincule con el código se empezó a trabajar en los sensores del robot, en el simulador se estableció que el tipo de sensor seria de rayo porque así evitaríamos problemas como reconocer suelos (esto provocará un error en el código) y su rango de detección seria de 1 m para que fuera una distancia considerable para que el robot reaccionara a tiempo en caso de encontrar un obstáculo.
Se usó el comando sim.simxGetObjectHandle dentro de la condicional del programa para manejar los sensores desde Spyder (Ilustración 6). Junto con este código dentro del bucle while se escribió la orden de la lectura de los sensores para que detectaran los objetos colocados en el simulador (Ilustración 7), se ordenó que imprimiera si se detectaba un objeto (apareciendo True/False) y también se imprimieran los valores de distancia de las coordenadas del objeto (conformados por una lista de 3 valores) (Ilustración 8).
Proseguimos a configurar el código de los sensores ya que para nuestra prueba necesitaremos valores dentro del rango de 1 m y ocuparemos solo los valores que están en la posición 2 de las lecturas porque es la que nos regresa la distancia del robot al objeto, por eso usamos una condicional para validar la distancia medida solo cuando se detectó un objeto, en caso contrario se asigna la máxima distancia por default que es 1 m.
Teniendo el código imprimimos los valores de las distancias ya filtradas anteriormente y así obtenemos los valores que trabajaremos con el siguiente ejercicio (lustración 9).
Ahora el experimento que se llevó al cabo fue el seguimiento de pared, se modificó el ambiente del simulador para formar un cuadrado con paredes, la tarea del robot será seguir el contorno por fuera del cuadrado (Ilustración 10).
Para el código se establecieron valores para que fueran constantes y con eso pudiéramos calcular el error para modificar la velocidad de cada rueda del robot (esto ayudará para decir a qué dirección irá el robot, se acerque/aleje o que vaya a la derecha/izquierda).
*Nota. Para los cálculos del error se usó de referencia el sensor 2 (d2) ya que este nos conviene más debido a que este tiene una visión considerable entre lo que tiene de lado el robot y lo que tiene más adelante, es decir, no nos da tantos puntos ciegos a comparación del sensor 1 que esta perpendicular al robot.
Teniendo el valor del error procedemos a emplear otra condicional para controlar los sensores considerados para ejecutar la tarea inicial; los sensores ocupados fueron el 2-7 porque no están perpendiculares a la pared y no provocaran un error en el código, ni se trabará el robot en un punto.
La condicional indica que en caso de que n sensor detecte antes del otro sensor sea mayor igual este modificará la velocidad constante (en este caso se puso de 4 m/s), para eso ocupamos el error para desequilibrar los motores y modificar las velocidades de cada motor; a la rueda izquierda a su velocidad se le suma el error y a la derecha se le resta para efectuar un giro a la derecha, en caso que no se cumpla esa condición se hará lo contrario para generar un giro a la izquierda. Finalmente, solamente corremos el código y el robot dará la vuelta alrededor de las paredes del ambiente antes creado (Ilustración 11).
A continuación, se deja el link de un anexo de imágenes de evidencia de cada prueba: https://drive.google.com/file/d/15Yzd3gmcSXw9JykC509HXiZrl_EfhdOx/view?usp=sharing
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos básicos de programación en el lenguaje Python (se desarrolló más la práctica de estructuras de repetición if, else, while) y gracias a los ejercicios que se llevaron al cabo en cada semana ayudaron a comprender uno de los tipos de aplicación de este lenguaje, en este caso fue el manejo del robot móvil diferencial; los resultados obtenidos en cada prueba fueron favorables debido a que se cumplió con la tarea dada, también se planteo otro experimento en donde el robot en vez de seguir la pared en sentido antihorario, se siguiera del lado contrario, pero debido al tiempo esa prueba se quedó pendiente.
Garcia Llanos Angel Uriel, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
SISMOS Y SUS ACELEROGRAMAS EN CDMX
SISMOS Y SUS ACELEROGRAMAS EN CDMX
Garcia Llanos Angel Uriel, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Analizar los sismos y acelerogramas de las estaciones disponibles en la Ciudad de México (CDMX) y de esta forma realizar un mapa donde se unifiquen las estaciones en operación en la CDMX y así poder tener información más específica y la mayor cantidad de datos posibles.
METODOLOGÍA
La investigación fue sobre sismos y sus acelerogramas para esto se comenzó con investigación de conceptos básicos de la materia, como palabras clave o de mucho uso en la materia.
Ademas de las asesorías con el investigador donde nos explicaba los principios básicos de los sismos, y como seria el modo de trabajo a lo largo de la investigación.
Para la investigación se realizo una búsqueda de registros sísmicos en la zona de estudio elegida que en mi caso fue la CDMX en la base de datos de la UNAM, una vez obtenidos los datos se analizaron en seismogram Analyzer-e. Un programa el procesado de los acelerogramas.
Se eligió la CDMX (ciudad de México) como zona de estudio ya que La CDMX es una de las ciudades con mayor infraestructura de México, ademas de una ciudad con mucha población comparado con su territorio, según INEGI la CDMX tiene una población de 9,209, 944 habitantes.
La CDMX es una zona sísmica donde por sus condiciones geográficas tiene un suelo lacustre y debido a esto intensifica los sismos; a pesar de ser una zona sísmica y tener varios estudios y estaciones no son tantos como se desearía uno ejemplo de esto son dos sismos en los que todos los habitantes de la CDMX podrían dar referencia ocurridos en 1985 y en 2017 ambos causaron derrumbes y daños a edificios y lamentablemente perdidas humanas.
El jueves 19 de septiembre de 1985 a las 7:19:47 de la mañana en la Ciudad de México un terremoto de 8.1 grados en la escala de Richter. un terremoto trepidatorio y oscilatorio, que tuvo su epicentro en las costas de Michoacán y Guerrero,. Durante 120 segundos
El 7 de septiembre de 2017, a las 13:14:40 del 19 de septiembre de 2017. Un movimiento telúrico con una magnitud de 7.1 grados en la escala de Richter con epicentro en el Golfo de Tehuantepec, en Chiapas.
versión On-line ISSN 2594-0651versión impresa ISSN 0188-2503
Una vez con la información de sismos y antecedentes de la zona de estudio podremos realizar una tabla y mapa con las estaciones en CDMX.
CONCLUSIONES
Las conclusiones a las que podemos llegar es la importancia de estudiar sismos y terremotos y tener un área de aplicación ya que en el ramo de la construcción tener este estudio no solo salvaría vidas humas si no aseguraría los recursos materiales de las personas, se construirían edificios con mayor seguridad y sirve de igual forma para salvaguardar vidas humas ya que gracias a los estudios previos y estudios en materias similares actualmente podemos tener unos segundos de respuesta antes de que ocurra el sismo y de esta forma poder evacuar los edificios.
Un mapa con datos de sismos ocurridos y afectaciones seria muy útil para consulta y tener precedentes de la zona y de esta forma realizar un estudio más detallado o que los usuarios sepan que es una zona donde son propensos a sismos y afectaciones.
Garcia Montes Josue Rafael, Instituto Politécnico Nacional
Asesor:Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
CARACTERIZACIÓN QUÍMICA Y MICROESTRUCTURAL DE UN JAL DE PACHUCA, HIDALGO, MÉXICO
CARACTERIZACIÓN QUÍMICA Y MICROESTRUCTURAL DE UN JAL DE PACHUCA, HIDALGO, MÉXICO
Garcia Montes Josue Rafael, Instituto Politécnico Nacional. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los jales mineros son los apilamientos de rocas molidas que quedan después de que los minerales de interés como son el plomo, zinc, cobre, plata y otros han sido extraídos de las rocas. Dichos jales se acumulan en grandes pilas donde el aire y la lluvia esparcen la contaminación.
Los elementos potencialmente tóxicos presentes en presas de jales mineros, representan un riesgo ambiental por la posibilidad de lixiviación e incorporación a cuerpos de agua, así como la movilización a otros ecosistemas por dispersión eólica o hídrica.
METODOLOGÍA
En esta investigación se emplearon diferentes técnicas de análisis químicos y mineralógicos para la caracterizacion de los residuos mineros de una mina en Pachuca, Hidalgo. Las técnicas utilizadas fueron difracción de rayos X, fluorescencia de rayos X, microscopía electrónica de barrido con microanálisis EDS.
CONCLUSIONES
El análisis por SEM-EDS mostró que el jal está constituido mayoritariamente por hierro, aluminio, manganeso, calcio, azufre, potasio, silicio y, en menor proporción titanio, plomo y fosforo. A traves de los analisis de difraccion de rayos X y fluorescencia de rayos X se espera conocer los grupos funcionales de los elementos que conforman a las muestras y poder econtrar si hay otros minerales en ellos.
Garcia Moreno Gerson Arístides, Universidad Nacional de Ingeniería
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
ESTUDIOS SISMICOS PARA REALIZAR INFRAESTRUCTURAS EN LA ZONA NORESTE DE NICARAGUA Y LA ZONA NOROESTE DE COSTARICA.
ESTUDIOS SISMICOS PARA REALIZAR INFRAESTRUCTURAS EN LA ZONA NORESTE DE NICARAGUA Y LA ZONA NOROESTE DE COSTARICA.
Garcia Moreno Gerson Arístides, Universidad Nacional de Ingeniería. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Los sismos desde épocas antiguas hasta la actualidad ha afectado de gran manera a la sociedad de forma eventual en zonas cercanas a placas tectónicas en dependencia a que profundidad de ocasione el hipocentro, siendo así la escasa recopilación de datos para que un proyectistas realice edificaciones basándose en ella.
En la zona sur de Nicaragua y Zona norte de Costa Rica se han producido diversidad de sismos así como también catástrofes de inmensa categorías, como por ejemplo el terremoto ocurrido en managua 1972 ocasionando derrumbes de grandes edificios en managua, Nicaragua, Además agregando que murieron entre 10 mil y 30 mil personas en ese terremoto. Por otra parte, en Costa Rica, El 14 de abril de 1973 un violento terremoto sacudió al cantón de Tilarán, Guanacaste, provocando deslizamientos y severos daños infraestructurales, entre los que sobresalieron los sufridos por la iglesia de Tronadora, que simplemente fue reducida a escombros, ocasionando 23 muertos.
La mayor problemática que se presentan es la falta de información que debe requerir un proyectista para la construcción de edificaciones de cualquier índole, para así de esta manera establecer un Desarrollo de infraestructuras resilientes, promover la industrialización inclusiva y sostenible, y fomentar la innovación, por lo que durante el verano de investigación se estudian los resultados de sismos mediante a datos de acelero gramas en un plazo de 1972 - actualidad.
METODOLOGÍA
Se utilizaron base de datos generales con acelerogramos en formato txt obtenido de estacionamientos ubicados en costa rica los cuales son GLIB, STRN Y SFRA .
Por consiguientes se hicieron estudios en el programa Anenalayzer en donde se determinaron el comportamiento del terreno de acuerdo a cada estación, por lo que cada estación estaba situado en diferentes tipos de terreno, los siguientes datos son los siguiente
Nicaragua.
Fecha Ubicación Magnitud Profundidad Muertes
31-03-1931 Managua 6.0 - 1.5003
1972 Managua 6.2 5 km 3.000-30.000
1992 Océano P. 7.6 45 km 116-178
2014 Nagarote 6.2 , 10 km 2
09-06-2016 Océano p. 6.3 4 km Ninguno.
En donde cada uno de estos datos trae su base de datos txt, lo cual nos sirvió para meterlos en el programa y obtuvimos que en las diferentes estaciones varia el movimiento del terreno debido al tipo de suelo en el que se encuentra agregando que también depende de la profundidad del sismo entre mas cerca este de la superficie mas grande serán los acelerógrafos en el programa.
CONCLUSIONES
Para finalizar se llegó a una conclusión de acuerdo a los resultados obtenidos y los antecedentes de hace unos 30 años atrás que es viable hoy en día con los sistemas de construcción utilizados realizar edificaciones en dicha zona establecida, no obstante, eso no significa que pueda ocurrir algún desperfecto porque para Dios nada es imposible.
También se puede decir Tanto como Costa Rica y Nicaragua, son zonas en donde por lo general su terreno es blando por lo que Antes de realizar una construcción es recomendable realizar un mejoramiento de suelo con los diferentes métodos que existen ya sea tratando con el mismo terreno o removiendo el material malo con un material mas solidificado.
Garcia Ornelas David Antonio, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
ESTUDIO DE FACTIBILIDAD DEL MERCADO PARA LA PRODUCCIÓN Y COMERCIALIZACIÓN DE ABETO COMO ALTERNATIVA PARA LA REDUCCIÓN DE TALA DE ÁRBOLES NATURALES NAVIDEÑOS.
ESTUDIO DE FACTIBILIDAD DEL MERCADO PARA LA PRODUCCIÓN Y COMERCIALIZACIÓN DE ABETO COMO ALTERNATIVA PARA LA REDUCCIÓN DE TALA DE ÁRBOLES NATURALES NAVIDEÑOS.
Garcia Ornelas David Antonio, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Año tras año la tala de árboles navideños es más común en la tradición de las personas y familias esto ocasiona que los niveles de producción y comercialización de árboles naturales sean destinados hacia esta cultura, pero al adquirir este tipo de árbol pasa por un proceso de tala para poder ser llevado a los hogares de quienes lo compran. Al finalizar la temporada este árbol es desechado debido a que ha muerto por falta de sus raíces y nutrimentos que necesita, por lo que, surge la interrogante, ¿Cómo se puede reducir la tala de árboles naturales navideños?
METODOLOGÍA
La investigación será realizada en la región de Tacámbaro, Michoacán donde se aplicó una prueba piloto de 50 encuestas, por lo que se estimo el cálculo de la muestra correspondiente.
N = 384 encuestas formales.
Tipo de estudio de la investigación.
La investigación que se utilizó es del tipo cuantitativa, exploratoria y de campo.
Como primer paso que se dio fue realizar una revisión bibliográfica esto con la finalidad de conocer sobre antecedentes de investigaciones ya realizadas siendo apoyo para llevar a cabo el estudio de mercado.
Se diseño la investigación por medio de un instrumento recolector de información de encuesta que fue estructurada por preguntas que determinan la aceptación, preferencia, cultura y conformidad del producto.
Retomando el uso aplicable de las 4p´s del plan de marketing para determinar nuestro mercado meta y la aceptación del consumidor hacia el producto que se oferta.
La muestra y medición son un aspecto importante que se debe emplear en la investigación del mercado debido a que serán los indicadores del numero aplicable de encuestas a la muestra de la población que se estudió.
Una vez organizado nuestro instrumento de recolección se prosigue con el trabajo de campo que es la aplicación de encuestas a personas de la región considerando el numero obtenido de la muestra poblacional.
Finalizando con la recolección de resultados se emplea la captura de datos con el propósito de conocer las respuestas de los habitantes encuestados.
Por último, se analizan e interpretan los resultados obtenidos dando una presentación gráfica y estadística de resultados obtenidos de la investigación empleada.
CONCLUSIONES
Se encontró por resuntados que el 88% de los encuestados utilizan árbol de navidad el 80% lo han estado colocando toda su vida, por la razón que es tradición y espíritu navideño el 78% utilizan uno artificial y el 22% natural a si como es costumbre de colocarlo en cada temporada navideña el 62% no conocen los arboles abeto por lo que al ofrecerse en el mercado un 74% le agradarían este árbol natural de acuerdo a las caracteristicas que presenta, de los lugares que pueden encontrar ente producto es que un 56% lo prefieren encontrar en un invernadero y en un 80% es factible ponerlos a la venta online conociendo que el 72% de las personas visitan con mayor frecuencia la plataforma de Facebook. Encontramos que los interesados por este árbol son a todos los miembros de la familia con un resultado del 58% preferente con un 54% de que sea con una altura de 1.5 metros considerando con un 62% el rango de costo mínimo que disponen a pagar por este árbol natural de lo cual el 62% es preferible la compra y con un 38% de rentarlo haciendo consideración que para la promoción de este árbol al 98% le interesaría recibir un descuento o membresía al recomendarlos a lo que el impedimento de su compra inmediata del producto es que el 38% cuentan con un árbol artificial, conociendo que el interés por los abetos en macetón fueron las mujeres con un 64% y para los hombres un 36% de interés conociendo que el mercado meta se encuentra con un 70% de personas jóvenes de un rango de edad menor a 25.
El mercado meta para este tipo de arboles cultivados en macetón es para la población de case media alta o alta debido al precio que se está valorando y los interesados por este tipo de producto son las mujeres.
En la región de Tacámbaro el 88% de los pobladores utilizan árbol para la temporada navideña, siendo usado por la razón de tradición y espíritu navideño que tienen durante toda su vida de colocarlo en cada temporada navideña siendo una costumbre familiar.
Para la demanda empleada por la región el proyecto se considera factible al ofertar el producto para la temporada navideña conforme a los resultados obtenidos de las encuestas aplicadas.
De las maneras de promoción se encontró que utilizar las plataformas digitales son una buena opción para posicionar el producto en los consumidores, de igual manera con nuestra plaza es considerable el convenio con invernaderos y supermercados que es otra opción preferible por los habitantes de la región encontrar este árbol navideño.
Se considera que el proyecto es factible dar desarrollo ya que no se cuenta con empresas que ofrezcan este tipo de producto para la temporada navideña en la región por lo que seriamos los primeros en ofertar este árbol natural navideño en macetón, retomando la parte de dar durabilidad y vida a los arboles se acierta la propuesta de cultivarlos en macetón ya que de esta manera no se tala el árbol para ser llevados a los hogares de los interesados por consumirlo, asegurando la vida del árbol al inicio y final de la temporada navideña, cumpliendo de esta manera con los objetivos de establecidos de este proyecto.
Garcia Ortiz Guillermo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
Garcia Ortiz Guillermo, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
Debido a que en el mundo se enfrenta una crisis ambiental en donde perjudica todos los ámbitos, desde la contaminación lumínica, del aire, del suelo y del agua.
Por lo tanto, las Edificaciones Sustentables buscan satisfacer las necesidades de vivienda de la población más desprotegida. Al mismo tiempo mantener en condiciones óptimas de uso la infraestructura para satisfacer las necesidades de un desarrollo, que no comprometa la capacidad de generaciones futuras para satisfacer sus propias necesidades en aspectos sociales, económicos y ambientales.
Por otro lado, la vivienda sustentable tendrá principalmente beneficios en reducción de la demanda de servicios como la energía o el agua, la reducción de las emisiones de gases de efecto invernadero a la atmósfera y en el mejoramiento de la calidad de vida de los habitantes.
METODOLOGÍA
Durante la investigación fueron utilizadas diferentes páginas web, ya que cada tema contaba con un amplio entorno de información, por lo cual para conocer las velocidades del viento que requería el proyecto, se utilizó una plataforma llamada Global Wind Atlas 2021, a su vez para poder conocer el uso del suelo del terreno, fue utilizada una tabla de usos de suelo del plan municipal de desarrollo urbano de San Felipe del Progreso.
Para la investigación del material de construcción y los aislamientos térmicos fue necesario entrar en páginas constructoras como Carso Infraestructura y Construcción y Filiales, S.A. de C.V. tomándola como referencia para los materiales de construcción, y para los aislamientos térmicos utilizamos diversas páginas, pero las más frecuentadas fueron Homedepot y Amazon ya que este tipo de sitios nos proporciona las características de cada material, desde el precio del producto hasta la resistencia térmica del mismo.
En cuestión de la demanda de agua de la vivienda, se utilizó como apoyo el Reglamento de Construcciones del Distrito Federal para el diseño de la Casa Ecológica Autosustentable.
Al agregar el sistema de calefacción pasiva se optó por introducir vidrios de doble acristalamiento que su función principal seria disminuir la perdida de calor acumulado en el día durante la noche ya que al agregar este tipo de material se reducirían los gastos y el uso de calefacción y aire acondicionado.
De igual manera para conocer el uso de suelo se utilizó la tabla de usos de suelo del plan municipal de desarrollo urbano de San Felipe del Progreso, y también la página del Gobierno del municipio de San Felipe del Progreso.
En términos generales fueron utilizadas páginas de tiendas comerciales para ver los tipos de mobiliaria y poder visualizar cual era el más conveniente en cuanto al gasto de agua, también se utilizaron plataformas educativas como Google Classroom y para una mayor orientación se utilizó una página de la fundación Carlos Slim que es https://aprende.org/pages.
En base a la información obtenida, los materiales que determinamos más eficientes para el proyecto son el adobe para los muros ya que es un material sostenible, sano, económico, ecológico y térmico, con una losa de hormigón en la parte media de la casa por lo que es muy resistente y para el techo se optó por tejas cerámicas ya que, al ser térmicas, acústicos, impermeables e ignífugas. Para el material térmico se optó por lana mineral porque es un producto muy ligero con un alto nivel de protección y aislamiento térmico, acústico y se comporta bien con el fuego por lo cual no genera flama ni gases tóxicos.
Para la calefacción ambiental decidimos por vidrios de doble acristalamiento que debido a su grosor es más seguro y reduce la condensación y humedad. Referente al suelo lo más eficaz es usar piso radiante ya que distribuye el calor y el frio de manera más uniforme y eficiente. También se utilizarán inodoros ahorradores, como estos pueden marcar un ahorro de hasta 60% teniendo un funcionamiento con buena calidad con menos agua, junto a esto se agregarán aireadores que se colocan en las principales tomas de agua los que logran ahorrar un consumo de agua y energía de hasta 50%.
Para el sistema de plomería lo más eficiente es utilizando el método de hunter que nos permite poner el diámetro de tubería adecuado para obtener una velocidad media entre 1m/s y 2m/s siendo esta la recomendada por expertos, por consiguiente, para satisfacer las necesidades de agua caliente es necesario colocar un colector solar ya que este dispositivo es capaz de transferir el calor de la irradiación solar al agua fría de manera limpia y sin el uso de combustibles.
En cuestión al drenaje sanitario se utiliza el convencional que es el de aguas negras que es el que va hacia la red pública de alcantarillado, pero en nuestro caso agregamos el de aguas grises que serán desviadas por medio de otro sistema de desagüe para su purificación usando un biofiltro y este mismo se encarga de retener, separar y absorber los sólidos suspendidos, flotantes y pesados, como también los nutrientes como el fosforo y nitrógeno.
CONCLUSIONES
Durante la estancia en verano se pudieron obtener distintos conocimientos sobre el tema, y en base a esto podemos darnos cuenta que, al generar una casa ecológica sustentable, no solo contamos con nuestro propio beneficio, sino que también beneficiamos nuestro entorno utilizando materiales orgánicos y biodegradables, al no desperdiciar agua, utilizar energías renovables, entre otras. También nos pudimos dar cuenta que entre más se tocan estos temas, la gente empieza a tomar conciencia sobre la contaminación, por lo cual crean sistemas cada vez menos dañinos para el medio ambiente.
García Pérez Joana, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
Caballero Patiño Francisco, Instituto Tecnológico del Valle de Morelia. García Pérez Joana, Instituto Tecnológico del Valle de Morelia. González González Brenda Paola, Instituto Tecnológico del Valle de Morelia. Medina Chávez Eugenio, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
PLANTEAMIENTO DEL PROBLEMA
En México son contados los trabajos que se han realizado sobre la caracterización de los servicios ecosistémicos. La mayoría de estas investigaciones se han centrado en vegetación de ambientes semiáridos en el norte del país. Sin embargo, no existen estudios sobre la caracterización de los servicios ecosistémicos en México en los bosques mixtos de la Sierra Madre Occidental específicamente en la región del el Salto, Durango México.
Por tanto, esta región proporciona una oportunidad para estudiar y sistematizar la composición, estructura, riqueza y diversidad florística, o las formas de entender la evolución de los rasgos dentro de las especies a través de los ciclos biogeoquímicos, relacionados con los flujos de materia orgánica y nutrientes desde el dosel, procesos hidrológicos, en estos tipos de ecosistemas, en el cual las especies vegetales nativas y el tipo de suelo donde prosperan tienen una diversidad de usos tales como forraje para la ganadería y fauna silvestre, carbón, madera para la construcción, estantería, alimentos, herbolaria, medicinas y semillas para reforestación.
El objetivo de este estudio fue cuantificar la producción de la hojarasca, determinar las propiedades fisicoquímicas del agua vía precipitación incidente, precipitación directa, escorrentía cortical y describir la composición y estructura florística.
METODOLOGÍA
Producción de Hojarasca
En cuatro sitios de la sierra del estado de Durango. Se colecto hojarasca, (sitio, 2500 m2) usando diez canastas (1.0 m2) distribuidas en forma aleatoria. La colecta se realizó con intervalos quincenales (Enero-2021-Julio 2021). La hojarasca fue separada en hojas, material leñoso (ramas <2 cm de diámetro) y otros (estructura reproductivas, cuerpos y heces de insecto). Las muestras fueron secadas en una estufa a temperatura de 65°C durante 72 h. Los datos de producción de hojarasca fueron expresados en (g m-2).
Flujos corticales
En el ejido San Juan, Pueblo Nuevo, se establecio una parcela de 2,500 m2 donde fueron seleccionadas especies vegetales, para medir la precipitación directa mediante canaletas fijas (PVC de 0.1 m2 (10 cm de ancho x 100 cm de largo) en forma de U, conectadas por medio de mangueras a recipientes de 20 L, a una altura de 1 m. Adyacente a la parcela, se establecieron cuatro colectores de precipitación incidente. Para el escurrimiento fustal se eligieron arboles con 15 cm de diámetro (utilizando colectores de plástico en forma de embudo, mientras que para arboles de diámetros de 35 cm, se utilizaron mangueras de plástico con perforaciones de 2.5 a 3 cm de intervalos, estas mangueras se fijaron a 1 m de altura, para cada variable evaluada se utilizaron cuatro árboles de cada especie, (Yáñez, 2011). Después de cada evento de lluvia, las cantidades fueron registradas dentro del periodo de enero-2021-julio 2021. La determinación del valor de pH y conductividad eléctrica (CE, µS cm-1) de las muestras colectadas, se realizo mediante un potenciómetro-conductivímetro marca Consort multi-parameter analyser modelo C3010.
Composición y estructura de la vegetación.
En dos sitios de la sierra del estado de Durango. Se ubicaron parcelas de 1000 m2 por sitio de estudio, en las cuales se realizó un inventario y a cada individuo se le determinaron parámetros dasométricos tales como diámetro normal a altura de pecho, utilizando una forcípula forestal marca Haglöf, modelo Mantax Blue 950Mm, altura total y comercial con un hipsómetro Vertex Láser IV marca Haglöf, modelo HS102, cobertura de copas con cinta métrica marca Truper, modelo CM112 50 m; esta última se estimó a partir de la longitud del largo (norte-sur), por ancho (oriente-poniente) de cada copa, con el fin de conocer la cobertura parcial y total de las especies presentes por sitio, densidad, así como los indicadores ecológicos: abundancia, dominancia, frecuencia y valor de importancia (VI). La diversidad de especies se estimó con el índice de Shannon-Wiener y la similitud entre sitios mediante el índice de Jaccard.
CONCLUSIONES
Los resultados señalan la importancia de los diferentes componentes de la hojarasca, la deposición es un proceso fundamental en ciclo de nutrientes planta suelo ya que representa la principal fuente de transferencia de materia orgánica y nutrientes por parte aérea a la superficie del suelo produciendo una capa protectora, esta capa produce un manto orgánico el cual contribuye a la regeneración del suelo, mantiene la fertilidad y ayuda mantener las propiedades físicas y químicas, entre otros procesos fundamentales de los ecosistemas.
El pH y CE presenta variaciones químicas relacionadas al tipo de evento de lluvia, en general el pH se obtuvieron valores combinados (alcalinos y acidos) En la CE se mostraron valores muy altos en las primeras lluvias ya que arrastro consigo nutrientes y sedimentos de algunos insectos acumulados con el tiempo y fueron lluvias con poca precipitación, factores como la forma del árbol, duración del evento y dirección de la lluvia son importantes en la variación de la C.E.
Los resultados obtenidos de esta investigación revelan que la diversidad y estructura en sitios continuos y en condiciones similares de latitud existen una marcada diferencia en composición y estructura, lo cual es un ejemplo de la complejidad ecológica que alberga la Sierra Madre Occidental, además de que el desarrollo de las especies no es el mismo y que se le está dando un manejo diferente a estas áreas, a través de la información generada se proporciona el análisis sobre la composición y estructura vegetal de cada uno de los sitios, aportando información cuantitativa sobre la diversidad y riqueza de especies existentes en cada uno de ellos, permitiendo comprender el funcionamiento de los ecosistemas forestales y que sean utilizados en la toma de decisiones silvícolas para realizar un buen plan de manejo para el aprovechamiento de los recursos forestales o conservación de los mismos.
García Quiroz Carolina, Instituto Tecnológico de Piedras Negras
Asesor:Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
García Quiroz Carolina, Instituto Tecnológico de Piedras Negras. Romo Ruiz Jade Itzel, Instituto Tecnológico de Piedras Negras. Turrubiate Pérez Claudia Verónica, Instituto Tecnológico de Piedras Negras. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la ciudad de Piedras Negras, Coahuila han surgido a lo largo del tiempo varios negocios dedicados a las tortillas de harina de trigo tradicionales. A través de una consulta en la página web del INEGI (2021), se recabo que existe un total de 79 tortillerías de harina de trigo tradicional en la ciudad de Piedras Negras, de las cuales el 74% han surgido a partir del año 2019, de esta manera se ve el incremento a través de los años de las tortillerías de harina de trigo en la ciudad. Por ser pequeñas empresas que surgen sin contar con suficiente inversión, son tortillerías que muchas veces no logran adquirir máquinas que les permitan aumentar su producción y disminuir el desgaste físico.
Se tomó como referencia a la Tortillería Frontera para el estudio de esta investigación donde se observó que al momento de elaborar los testales (porción de masa de harina de trigo), no se cuenta con una dosificación estandarizada, cada empleada suele medir el testal conforme a su mano ocasionando que no resulte de una medida exacta, causando pérdidas de la materia prima (masa), equivalente a 41 testales, ya que elaborarán menos tortillas de las establecidas.
Aunque ya existe maquinaria especializada para el corte y dosificación de testales en el mercado, suelen ser de elevados costos o inalcanzables para las micro y pequeñas empresas en la localidad, es por ello que se pretende diseñar un prototipo de manufactura para la elaboración y estandarización de testales tomando como referencia a la tortillería Frontera en base a sus requerimientos y especificaciones, conjunto a las opiniones de otras tortillerías, que marcaran el rumbo del diseño del prototipo.
METODOLOGÍA
La metodología está basada y guiada de la Tesis de Delgado (2015), donde determina el proceso de su investigación en tres etapas.
Se generó una lluvia de ideas sobre diferentes bienes de consumo regional para de estos bienes presentados elegir uno, el cual será el producto a investigar, una vez que se seleccionó el bien a indagar se empezó a analizar el proceso de elaboración de las tortillas de harina de trigo para obtener la problemática. Una vez encontrada la problemática, se siguió con la lluvia de ideas para encontrar una solución a la interrogante presentada, así como también donde encontrar información que sea de utilidad para la investigación como las diversas máquinas que ya existen, comparando sus características, componentes y precios en el mercado.
Posteriormente se realizó una encuesta a las tortillerías de harina de trigo de Piedras Negras para recabar información que será de utilidad para la obtención de las características necesarias para el diseño del prototipo de la dosificadora de testales, de acuerdo a lo que el productor realmente necesita, así como también se mantuvo una estrecha comunicación con una de las tortillerías de harina de trigo, Tortillería Frontera, para la obtención de la información requerida para el proyecto.
Se hizo uso de un Diagrama Bimanual del proceso actual para analizar los movimientos que se realizan en la elaboración de testales, siendo esta parte del proceso donde se encontró la problemática, mostrando así la realización de movimientos repetitivos. Como menciona García (2005), el diagrama bimanual nos permite llegar a conocer a fondo los por menores de trabajo y gracias a él se puede estudiar cada elemento con los demás.
Se realizó un QFD (Quality Function Deployment) para obtener los atributos que el diseño debe tener para satisfacer las necesidades del cliente, como menciona Villas (2020), el QFD es una herramienta que se utiliza principalmente en la gestión del desarrollo de productos. Teniendo las características solicitadas por el cliente se procedió a compartir ideas para bosquejar el diseño, después se continuó con la obtención de la cantidad y peso de la masa a dosificar para obtener las medidas para el prototipo. Ya una vez obtenidos todos los datos necesarios se procedió a la realización del diseño del prototipo en el software SketchUp en su versión portable el cual brinda la facilidad de uso y, además, cuenta con licencias gratuitas de prueba que permiten realizar grandes proyectos con mucha rapidez. (García, Deco, Bender, & Collazos, 2017).
CONCLUSIONES
En el trabajo realizado se logró implementar y diseñar un nuevo prototipo de una máquina dosificadora de testales, la cual estandariza el proceso, logrando la optimización de tiempos y movimientos, problemática que fue observada a través del análisis del diagrama bimanual.
Con la implementación de la nueva máquina dosificadora de testales, realizada de acuerdo a las especificaciones del cliente y distintas opiniones de las tortillerías de Piedras Negras conocidas por medio de una encuesta, se logró diseñar el prototipo ideal con un tamaño que ayuda a optimizar los espacios en pequeños locales siendo sus medidas de 65 cm de largo, 50 cm ancho y 40 cm de alto.
Logrando así de tal manera afirmar nuestra hipótesis: La máquina dosificadora de testales para las tortillas de harina de trigo tradicionales, tendrá un diseño enfocado en las opiniones de las distintas tortillerías de la localidad, así como a los requerimientos del cliente, logrará estandarizar el proceso de la elaboración de los testales disminuyendo los movimientos y esfuerzos en su elaboración, reduciendo los desperdicios y optimizando el tiempo.
Tal máquina dosificadora de testales queda aún expuesta para próximas mejoras en cuanto a su funcionamiento, pues es una máquina manual pero en un futuro podría adaptarse a un mecanismo automatizado.
Este trabajo de investigación nos benefició de tal manera que se adquirieron conocimientos acerca de herramientas de la ingeniería industrial, como son el Diagrama Bimanual y el QFD, así como también se aprendió a utilizar el Software SketchUp, además de conocer a fondo el proceso de la elaboración de las tortillas de harina de trigo tradicionales de tal forma contribuyendo con las micro y pequeñas empresas al compartir nuestros conocimientos para su desarrollo.
Garcia Ramirez Jesus, Instituto Politécnico Nacional
Asesor:Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PROYECTO GEOMéTRICO DEL CAMINO TOLCAYUCA - PACHUCA: KM 0+000 AL 12+580 CON APOYO DEL PROGRAMA INFORMáTICO CIVILCAD.
PROYECTO GEOMéTRICO DEL CAMINO TOLCAYUCA - PACHUCA: KM 0+000 AL 12+580 CON APOYO DEL PROGRAMA INFORMáTICO CIVILCAD.
Garcia Ramirez Jesus, Instituto Politécnico Nacional. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
La finalidad de usar como apoyo el programa CivilCAD® para el proyecto y diseño de carreteras conforme a la normatividad de la Secretaría de Comunicaciones y Transportes, es la de agilizar puntos tales como: el dibujo de los planos de planta y perfil topográficos, trazar las tangentes y las curvas horizontales y verticales del eje definitivo, realizar digitalmente el dibujo de las secciones transversales, así como el cálculo de las áreas y volúmenes de dichas secciones, obtener todos los datos constructivos necesarios (kilometrajes, cotas, coordenadas, rumbo y azimut en el caso de tangentes, etc.) de todos los puntos obligados del camino, de inicio y fin de este, puntos de inflexión, de inicio de tangentes, curvas, etcétera; y determinar la curva masa del camino en proyecto, a todo lo largo de su desarrollo.
Este proyecto se ubica en una zona cercana a la ciudad de Pachuca; en un tramo de terreno plano, se plantea el diseño a una velocidad de 110 km/h con una carretera tipo A4.
La problemática de este proyecto es comunicar por medio de una vía terrestre diseñada con tecnología actualizada CivilCAD® y, así proporcionar una alternativa más eficiente que reúna las condiciones de seguridad, operación y mantenimiento a bajo costo, para los vehículos que la transiten, con el fin de trasportar personas y carga.
METODOLOGÍA
Indudablemente que la calidad obtenida mediante la utilización de los programas especializados para el diseño y dibujo de carreteras que se ofrecen en la actualidad, y en particular el CivilCAD, el cual contiene gran nivel de detalle y calidad de los elementos diseñados en dicho proyecto, basados en la normatividad de la SCT.
Este proyecto tiene como objetivo hacer más confortable, económico y seguro el trayecto que se desarrolla entre la población de Tolcayuca y Pachuca, Edo. De Hidalgo; se busca reducir el tiempo del recorrido actual entre población y población, reducir el tiempo de viaje entre ambos poblados asegurar el bienestar de los usuarios.
Las características de diseño geométrico de este camino, tomando como base la información de la Clasificación Técnica Oficial para carreteras de la SCT son las siguientes:
Carretera tipo. A4
Velocidad de proyecto . 110 Km/hr.
Terreno tipo. Plano.
Grado máximo de curvatura. 2.75°.
Pendiente gobernadora. -.
Pendiente máxima. 4%.
Ancho de calzada. 2x 7.0 m (4 carriles).
Ancho de corona. 22.00 m.
Ancho de acotamientos. 3.0 m exterior, 0.50 m interior.
Bombeo. 2%
Sobre elevación máxima. 10%
Para el análisis de una propuesta de carretera, debemos revisar detalladamente cada una de las partes en que se divide nuestro alineamiento, tomando en cuenta las tangentes y las curvas que se presentan, siguiendo la configuración del terreno, y cumpliendo siempre con los requerimientos de drenaje de agua superficial, pendiente máxima y mínima, sobre elevación máxima, velocidad de proyecto, número de carriles, dimensiones de la superficie de rodamiento, acotamientos, ampliaciones, y todos aquellos puntos necesarios para cumplir con los lineamientos que marca la Secretaría de Comunicaciones y Transportes para diseño de nuestro eje de proyecto.
Alineamiento Horizontal.
El Trazo de curvas horizontales simples y de transición del proyecto definitivo, utilizando CivilCAD. El programa de trazo civilcad nos da la opción de dibujar o de importar a él, los puntos que formarán dichas curvas en el alineamiento horizontal.
Cabe mencionar que las curvas en el programa CivilCAD se dibujan sólo en base a la normatividad de la Secretaría de Comunicaciones y Transportes, la cual determina para las curvas horizontales las siguientes dimensiones (tabla 004-6 de la SCT, ampliaciones, sobre elevaciones y transiciones para carreteras tipo A4).
También mencionar que los cálculos de cada curva se verificaron mediante programación por medio de Colaboratory de Google, el cual permite ejecutar y programar en Python en el navegador.
Alineamiento vertical.
Las curvas verticales son las que enlazan dos tangentes consecutivas del alineamiento vertical, para que en su longitud se efectúe el paso gradual de la pendiente de la tangente de entrada a la tangente de salida. Deben dar por resultado un camino de operación confortable, apariencia agradable y con características de drenaje adecuadas.
Diseño de las secciones de construcción, aplicación de sobre elevación y ampliación, utilizando CivilCAD.
Para el diseño de las secciones transversales (de construcción) por medio de civilcad, debemos considerar los parámetros que nos marcan las normas de la SCT para las características de una carretera, según la velocidad de proyecto y el tipo de terreno. Para nuestro caso en particular, según la tabla de la Clasificación Técnica Oficial para Carreteras .
Curva masa.
Cuando ya tenemos dibujada la curva masa, determinaremos la(s) líneas compensadoras que resulten más factibles para economizar el gasto de los sobre acarreos que se generen por los volúmenes de corte y terraplén. Para ello, nos dirigimos al menú CivilCAD, módulos, carreteras SCT, curva masa, línea compensadora y dibujar.
CONCLUSIONES
Es evidente que la utilización de las aplicaciones por computadora, son herramientas de actualidad, las cuales nos facilitan el tránsito en la vida profesional y básicamente en el quehacer de todos los días, no obstante su manejo requiere del conocimiento y capacitación constantes para obtener resultados eficientes y con calidad, que el trabajo demanda.
En este proyecto en particular encontramos plasmados los elementos esenciales de diseño y elaboración de planos, mediante los cuales se basa el software conocido como CivilCAD y para el desarrollo propio recurrimos a metodologías recomendadas por el Órgano rector en nuestro país que esta representado por la Secretaría de Comunicaciones y Transportes, atendiendo además las enseñanzas de nuestro asesor, fincando las bases y criterios personalizados que todo proyecto debe contener, en virtud de la experiencia que el tiempo transcurrido en los ámbitos académico-profesionales.
Por todo lo antes descrito, se recomienda con carácter de calidad que todo alumno, pasante y profesional en la materia, aplique más ampliamente el CivilCAD como tecnología de vanguardia.
Garcia Rivas Sergio, Instituto Tecnológico de Tapachula
Asesor:M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
Garcia Rivas Sergio, Instituto Tecnológico de Tapachula. Pascual Pasaye Jorge Alberto, Instituto Tecnológico Superior Purépecha. Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño. Pedraza Quiroga Astrid Katherine, Universidad Antonio Nariño. Asesor: M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua para consumo humano es un tema de constante preocupación en las personas, debido a los potenciales efectos en la salud. Varios estudios epidemiológicos se han referido a la relación entre la dureza del agua y las enfermedades cardiovasculares e incluso como esta puede ocasionar la formación de piedras en los riñones u otras enfermedades de alto riesgo.
Así mismo, se entiende que la dureza del agua no solo puede generar efectos negativos en la salud del ser humano, pues también puede causar daños en las instalaciones de plomería, e incluso provocar importantes pérdidas de presión en el agua a causa de las incrustaciones de cal, reduciendo el diámetro de la tubería. Los aparatos que transportan este tipo de agua pueden consumir hasta un 60% más de energía calorífica, reduciendo su eficacia en un 12%, generando altos costes en calefacción entre otras consecuencias.
METODOLOGÍA
Para esta investigación cada integrante del equipo seleccionó 5 purificadoras o centros de distribución de agua potable, las cuales se estudiaron por dos semanas obteniendo un total de 25 muestras por purificadora, dichos datos se obtuvieron con un medidor de TDS digital el cual calcula la cantidad de sólidos disueltos por PPM (partes por millón).
Posteriormente, se realizaron los análisis estadísticos para calcular la media y la desviación estándar de cada empresa, seguidamente, se determinó el análisis de la Z (Según valores estandarizados) y con ayuda de la tabla de probabilidad normal, se estableció en qué rango de dureza ofrece cada empresa sus muestras de agua para finalmente realizar una comparacion de los resultados de villavicencio-Meta y Paracho-Michoacán.
CONCLUSIONES
Gracias a los datos obtenidos se logra establecer que, de 10 empresas purificadoras de agua presentes en Villavicencio, 9 ofrecen a sus clientes un agua con Dureza Blanda, identificando asique las empresas cuentan con un proceso muy estandarizado, por lo cual sus 25 muestras de cada empresa no varían significativamente.
Asimismo, la empresa restante de la ciudad de Villavicencio presentó una probabilidad la cual señala que la mayoría de las muestras obtenidas son de nivel de Dureza Dura. Por lo cual este estudio deja abierta la pregunta. ¿ que diferencia se tiene en el proceso de producción de esta empresa en comparación a las demás ubicadas en villavicencio.?
Paralelamente, se encontró que en Paracho la mayoría de las empresas presentan agua semidura y dura. Por lo cual se entiende que los datos no varían significativamente. Sin embargo, al comparar las muestras de esta región con las de Villavicencio si se ve una gran variación, Según lo anterior se genera la duda de que factor es el que determina el nivel de Dureza del agua, mayoritariamente es: el lugar de origen o la forma en que es tratada.
García Rivera Aldair Osvaldo, Instituto Politécnico Nacional
Asesor:Mtro. Alberto Delgado Hernández, Universidad Autónoma de Baja California
PRUEBAS DE ESFUERZO-DEFORMACIóN
PRUEBAS DE ESFUERZO-DEFORMACIóN
García Rivera Aldair Osvaldo, Instituto Politécnico Nacional. Asesor: Mtro. Alberto Delgado Hernández, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El análisis estructural es un proceso fundamental para poder realizar un diseño optimo y seguro de mecanismos y estructuras ya que ayudan a determinar los esfuerzos a los que estarán sometidos para evitar llevar a la fractura del material. El cálculo de los esfuerzos se obtiene con ayuda de valores tales como el módulo de Young, dureza, el limite a la fluencia, esfuerzo ultimo a la tensión, la resiliencia, la tenacidad, ductilidad, por mencionar algunos; propiedades que se obtienen mediante ensayos o pruebas mecánicas estandarizadas por instituciones internacionales tal es el caso de las normas ASTM, las cuales, asegura que científicos realicen ensayos con valides internacional.
El ensayo de tensión es uno de los más esenciales, debido a que mediante este ensayo podemos obtener propiedades como el módulo de Young el cual determina la relación que existe entre el esfuerzo y la deformación de un material dado, por lo tanto, para poder observar la importancia que tiene las pruebas mecánicas para poder definir las propiedades de diferentes materiales se planteó fabricar probetas bajo normas, para posteriormente realizar un ensayo de tensión y de dureza.
METODOLOGÍA
Con la finalidad de entender la metodología que conlleva realizar las pruebas mecánicas, primero se realizó el diseño y mecanizado de las probetas estandarizadas. Las probetas se manufacturaron bajo la norma ASTM E8 la cual tiene valides internacional, de la cual se tomaron las medidas estándar para probetas que tengan forma de barra. La medida del diámetro de la sección reducida de la barra, los redondeos que lleva la reducción de área y la longitud de la sección reducida son los valores que están estandarizados y que debemos respetar, caso contrario de la longitud de la sección para sujeción de mordazas y la longitud de galga puede ser definida de acuerdo con el tipo de maquina universal que se esté utilizando.
La fabricación de las probetas se llevó acabo en los talleres de la FCITEC-UABC mediante el uso de máquinas convencionales, y los materiales utilizados fueron bronce, cobre y acero. Todas las barras tenían un diámetro inicial de 0.5 in. Teniendo esto en cuenta se realizó una hoja de procesos de manufactura indicando todas las operaciones necesarias para el maquinado de la probeta.
Los valores de desplazamientos y fuerza se exportan del software en un archivo con extensión .cvs, después de exportarlos, esos valores los utilizamos para calcular la deformación y el esfuerzo, para lo cual se necesita calcular el área y tener la longitud inicial de la probeta y únicamente se sustituyen en ecuaciones.
Para poder observar el comportamiento de las probetas durante la prueba se trazó la gráfica esfuerzo-deformación en el software de Matlab, con la gráfica se puede calcular más fácilmente el módulo de Young (parte lineal de la gráfica), la parte de deformación de la probeta (zona plástica), el esfuerzo máximo que soporta el material y el punto de ruptura.
Los resultados de las pruebas de tensión se registraron en tablas. Para el caso de los aceros se muestran las mediciones que se obtuvieron cada 30 segundos y para el caso del bronce y del cobre cada 15 segundos por la diferencia de duración de las pruebas.
El ensayo de dureza se hizo con las mismas probetas del ensayo de tensión, con ayuda de la maquina Wilson hardness que trabaja en la escala de dureza Rockwell. El proceso de la prueba de dureza es primero definir en qué escala trabajara la máquina, ya que al colocar una escala errónea te marcara como medición no valida, posteriormente se colocan las muestras de las probetas sobre una base de altura ajustable, una vez definida la escala y colocada la muestra sobre la base se procede a aplicar una precarga haciendo bajar el indentador sobre la muestra, el valor de la precarga esta preestablecida en el software de la maquina la cual nos indica que tanto bajar el tornillo sobre el cual va montado el indentador. Al terminar de aplicar la precarga la maquina al ser semiautomática empieza a aplicar la carga para la prueba por si sola. Al finalizar de aplicar la carga se despliega la medida de la dureza en el display. Todo este procedimiento se repite para cada una de las muestras de cada material. Con la finalidad de tener un valor más preciso de la dureza de cada material se optó por realizar al menos 5 pruebas para tener muestras suficientes y así poder realizar un promedio de estas para disminuir el error de medición. El promedio obtenido de las mediciones del acero fue 68.44 HRB, del bronce 40.4 HRB y del cobre 26.42 HRB.
Los valores obtenidos en cada una de las pruebas seregistraron en tabla.
CONCLUSIONES
La finalidad de la estancia fue investigar y entender la metodología y los conocimientos esenciales que se necesitan en los ensayos mecánicos. Las propiedades obtenidas de las pruebas mecánicas fueron el módulo de Young, la resiliencia, la deformación y la tenacidad del material. De acuerdo con el tipo de material se presentan diferentes tipos de fracturas, en el caso del cobre y acero se obtuvo una fractura tipo copa o cono y en el bronce se obtuvo una fractura plana, una propiedad de los materiales que determina el tipo de fractura es la ductilidad del material. El bronce presento el efecto Bauschinger o también conocido como piel de naranja el cual describe un defecto superficial que se caracteriza por ranuras y huecos irregulares a causa de la deformación no es heterogénea del material.
Se observo que el mecanizado del material es muy importante para realizar un buen ensayo mecánico y obtener resultados válidos ya que se pueden generar fracturas en zonas no deseadas o que presenten fracturas antes de lo esperado. Un objetivo implícito de la estancia fue aprender a realizar maquinados en diferentes materiales tanto en torno convencional como en máquinas de control numérico (CNC), lo cual se cumplió de forma general ya que especializarse en estos temas requiere de tiempo.
Las pruebas mecánicas tienen una gran importancia para poder definir el comportamiento de los materiales en diferentes circunstancias y así poder clasificarlos de acuerdo con su rendimiento y a la calidad del material.
Con el objetivo de tener una medición más precisa en cualquier tipo de ensayo es recomendable realizar más de una prueba para tener un mayor número de muestras y poder compensar errores de medición.
García Sánchez Luz Elena, Instituto Tecnológico de Morelia
Asesor:Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE BOTóN DE PáNICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES.
DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE BOTóN DE PáNICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES.
García Sánchez Luz Elena, Instituto Tecnológico de Morelia. Martinez Madrigal German, Instituto Tecnológico de Morelia. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
PLANTEAMIENTO DEL PROBLEMA
Debido a la situación actual de inseguridad en México en la cual se está incrementando los índices de robos o ataques a transeúntes en especial en las zonas alejadas de las calles pobladas como lo es el andador del ITSLR. Asimismo los diferentes horarios de los alumnos y de personal que labora en la institución los obliga a transitar por el andador mi temprano en la mañana o muy tarde por la noche que es un periodo de mayor inseguridad para todos ellos y pueden ser víctimas de algún incidente. Sin embargo, a pesar de lo mencionado el andador todavía no cuenta con algún sistema de seguridad o de alarma que ayude a saber cuándo ocurra algún incidente y es por ello que es necesario la implementación de algún sistema de seguridad.
METODOLOGÍA
Como primera acción se realizó el análisis de la región donde se encontraba al andador, como la distancia del punto más lejano al tecnológico, las condiciones climatológicas, las condiciones de irradiación de la región, su latitud y sus condiciones actuales de infraestructura y flora por donde pasa el andador.
Enseguida se estableció que el sistema de botón de pánico debía estar constituido por los botones de pánico con su respectiva alarma (modulo emisor) y un sistema de alarma y notificación en caseta (modulo receptor). Una vez conocido los datos anteriores se decidió utilizar como medio de comunicación inalámbrica la comunicación por radiofrecuencia debido a que la zona no cuenta con internet, también evaluando la distancia se decidió hacer la colocación de 6 botones de pánico con una separación de 80 metros entre sí. Una vez seleccionado el modo de comunicación y la distancia de separación se escogieron los componentes que conformarían al sistema del botón de pánico con lo que se llegó a la decisión de utilizar el módulo NRF24L01+PA+LNA como transmisor ya que este módulo cuenta con la capacidad de actuar como emisor y receptor el mismo tiempo y además se puede enlazar con 6 módulos sin problemas de comunicación, así mismo el módulo cuenta con una distancia de alcance máxima de 1 km.
Posteriormente se llevó acabo la selección de los componentes que entregarían el módulo receptor y el módulo emisor. Para el módulo emisor se tomó en cuenta que los componentes de electrónica que lo entregarían serian un Arduino uno como microcontrolador, el módulo NRF24L01+PA+LNA, dos fuentes reductoras, dos botones pulsadores, un relé, una sirena de alarma. En cuanto al módulo receptor los componentes electrónicos que lo conforman son la tarjeta Arduino, el módulo NRF24L01+PA+LNA, un botón pulsador, un relé, una sirena de alarma, dos fuentes reductoras y un tablero indicador.
Conociendo los componentes de electrónicos que conformarían cada módulo se procedió a buscar el consumo eléctrico de cada componente y se le declaro un tiempo de uso por día a cada componente con lo cual se realizó el dimensionamiento del sistema fotovoltaico autónomo encargado de alimentar cada uno de los módulos de alarma. Además se noto que los componentes eran prácticamente los mismos ya que los botones y el tablero no representaban un consumo eléctrico y el mismo sistema fotovoltaico funcionaria para todos los módulos.
Enseguida se realizó el diseño del código que se usaría para el módulo receptor y los módulos emisores. Ya conociendo todos los componentes que conformarían los módulos emisores se realizó el diseño de la estructura que contendría todos los componentes electrónicos y el botón y del sistema fotovoltaico.
Por último se realizó la construcción de un prototipo didáctico con el cual se comprobaría el funcionamiento de los códigos y de los módulos.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos en la comunicación por radiofrecuencia, programación de Arduino. También se logró reforzar conocimientos en la utilización de los módulos NRF24L01 y ponerlos en práctica en el prototipo construido, con lo cual se logró ver que los códigos funcionaban correctamente. Sin embargo debido a problemas de contingencia sanitaria no se pudo implementar el diseño del sistema fotovoltaico y comprobar su funcionamiento y eficiencia energética así como comprobar la eficiencia de la comunicación de los módulos en el andador.
García Uriburu Castro Sebastián Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
Cortés Duarte Mateo, Universidad Tecnológica De Bolívar. de Jesus Castro Edgar, Tecnológico de Estudios Superiores de San Felipe del Progreso. García Uriburu Castro Sebastián Alejandro, Instituto Politécnico Nacional. Trinidad Hernández Luis Antonio, Instituto Tecnológico de Tláhuac. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Mundialmente, e incluso personalmente, se conocen los problemas que el SARS-CoV-2 ha estado ocasionando desde comienzos del 2020. Uno de los problemas que puede resaltarse más es la falta de comunicación directa con otras personas, es decir, el tipo de contacto social que se experimentaba antes de la pandemia. Esto afectó totalmente la manera en la que se realizaban las actividades diarias, como los deberes o hábitos.
Se decidió poner énfasis en la falta de comunicación detallada que se puede presentar al momento de realizar las compras, o "ir al súper". El principal objetivo por el que se buscó desarrollar este proyecto fue el ayudar a las personas a tener una experiencia de compras más amena en el ámbito de dudas, o de asistencia al momento de hacer las compras.
METODOLOGÍA
Para proseguir, será necesario aclarar algunos conceptos esenciales que harán más fluida la lectura:
Archivo JSON (JavaScript Object Notation o Notación de Objetos de JavaScript): es un formato ligero de intercambio de datos que resulta sencillo de leer y escribir para los programadores y simple de interpretar y generar para las máquinas.
API: Es una serie de protocolos y definiciones utilizada para estructurar el software de aplicaciones. API significa Interfaz de Programación de Aplicaciones (Application Programming Interface).
Chatbot: es un sistema computacional cuyo objetivo es sostener una conversación con un usuario humano usando lenguaje natural, es decir el lenguaje que usamos diario a diario cuando hablamos con otras personas.
Python: Python es un lenguaje de programación flexible y diseñado para ser fácil de leer. Es un lenguaje orientado a objetos y de alto nivel.
Para comenzar el desarrollo del proyecto, fue necesario utilizar un chatbot rudimentario cuyo nombre es "ChatVoice". Este chatbot tenía las bases esenciales de un chatbot ya construidas, y, de igual manera, estaba programado para poder almacenar variables, como nombres, gustos, hechos, entre otras cosas más. La principal razón por la que se optó por utilizar un "esqueleto" ya producido fue el tiempo de duración de la estancia. Desarrollar un "esqueleto" propio habría relentizado el desarrollo del proyecto.
Para que ChatVoice pudiese actuar de la manera deseada - encontrar productos, comparar precios, indicar existencias, etc. - fue necesario realizar una API, o base de datos, que pudiese brindar al chatbot la información necesaria para operar en un supermercado, esto es, la lista de productos, su ubicación en la tienda, su existencia, entre otros detalles.
Por otro lado, no resultaría suficiente tener una base de datos con la cual el chatbot tuviese conocimiento, sino que se necesitaría un archivo que le pudiese brindar información sobre las costumbres y hábitos de escritura en los diversos países hispanohablantes. Es por ello que se escribió un archivo JSON que contuviera esos modismos entre países de habla hispana, por ejemplo, las diferencias de saludos y despedidas, las diversas maneras de preguntar sobre productos, entre otros modismos.
Código
La base de datos y el archivo de intercambio de datos (JSON) , al ser dos cosas independientes, se aunaron por medio de un código desarrollado en Python, el cual utilizó librerías diseñadas para el procesamiento del lenguaje natural (NLP por sus siglas en Inglés).
Específicamente, las librerías utilizadas fueron:
spaCy: es una biblioteca de procesamiento de lenguaje natural Python diseñada específicamente con el objetivo de ser una biblioteca útil para implementar sistemas listos para producción.
Esta librería se empleó para que el chatbot pudiese identificar el sustantivo en una oración y compararlo con los productos preestablecidos en la base de datos para poder a continuación brindar una respuesta al usuario.
NLTK: esta librería se empleó para segmentar o tokenizar las palabras que el usuario introdujera.
Ejemplo:
//Se tiene un texto como este: Hello, nice to meet you. Greetings. from nltk.tokenize import sent_tokenize mytext="Hello, nice to meet you. Greetings." print(sent_tokenize(mytext)) //La salida será la siguiente: ['Hello, nice to meet you.','Greetings.']
Se presentaron problemas de compatibilidad con el idioma español en la nueva versión de la librería spaCy. En su lugar, se trabajó con la versión anterior a la más reciente - versión 3.0 - .
CONCLUSIONES
A lo largo de la estancia, se adquirió nuevo conocimiento teórico y práctico sobre la creación de chatbots. No obstante, hay mucho conocimiento por abordar, por ejemplo, la implementación de redes neuronales (aprendizaje automático o Machine Learning), o la implementación del procesamiento del lenguaje natural, ambas desarrolladas por los estudiantes y no hechas previamente debido al tiempo que esas áreas de estudio requieren para ser implementadas de manera eficaz.
El chatbot asistente de compras logró mostrar un funcionamiento acorde a lo que se estaba esperando. El asistente puede resolver dudas y preguntas relacionadas a precios y localizaciones.
Este proyecto puede extenderse a más áreas, como a la asistencia en negocios de otra índole, como tiendas de ropa, o tiendas de videojuegos, ya que, lo único que se necesita es dotar al asistente con los detalles sobre cada artículo.
Bibliografía:
Barrera, A. (S/F). JSON: ¿Qué es y para qué sirve?. julio 21, 2021, de next_u. Sitio web: https://www.nextu.com/blog/que-es-json/
Datademia. (S/F). ¿Qué es Python?. julio 24, 2021, de Datademia Sitio web: https://datademia.es/blog/que-es-python
Mayo, M. (2018). Comenzando con spaCy para procesamiento de lenguaje natural. julio 25, 2021, de Ciencia y Datos Sitio web: https://medium.com/datos-y-ciencia/comenzando-con-spacy-para-procesamiento-de-lenguaje-natural-e8cf24a18a5a
Meza, V.(2017). ¿Qué es un chatbot?. julio 20, 2021, de Ivan Vladimir Meza Ruiz. Sitio web: https://turing.iimas.unam.mx/~ivanvladimir/page/curso_chatbots_s1/
García Valenzuela Fátima Adaluz, Universidad de Sonora
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE SONORA, MÉXICO.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE SONORA, MÉXICO.
García Valenzuela Fátima Adaluz, Universidad de Sonora. Rodríguez Amaya Karla Patricia, Universidad de Sonora. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0, también conocida como la Cuarta Revolución Industrial, contemplada por los antecedentes históricos se integra como un método para cambio tecnológico y social, con la finalidad de fabricar una máquina ideal que sea cognitiva para la digitalización de los procesos industriales. Se busca determinar el estado actual del contexto regional (Sonora) para la formación de recursos humanos para el perfil laboral de la industria 4.0, haciendo hincapié en las ciudades de Hermosillo y Caborca.
La problemática más grande es conocer como las capacidades tecnológicas educativas de las Instituciones de Educación Superior públicas y privadas de Sonora influyen en la realización de personal apto para la industria 4.0.
METODOLOGÍA
Para la realización de la presente investigación de Industria 4.0 se aplicaron dos tipos de estudio: documental y campo. El primero se llevó a cabo para la construcción del marco contextual en el cual se realizó una revisión del estado general de la industria 4.0 en el mundo, en los países desarrollados, en los países emergentes, en México y de forma específica en Sonora. De la misma manera se indaga en la oferta educativa de las Instituciones de Educación Superior públicas y privadas a nivel internacional y nacional que influyen en la realización de personal apto para la industria 4.0.
En el estudio de campo se aplicó un instrumento diagnóstico de industria 4.0, en el cual se estableció recopilar un mínimo de 40 respuestas como muestra significativa. Este fue diseñado en dos secciones, la primera es para obtener una información más detallada de los expertos a quienes va dirigida la encuesta y otra cerrada con escala tipo Likert.
El instrumento se aplicará a profesores o docentes relacionados con la industria 4.0, profesionistas relacionados con la industria 4.0 o directivos con conocimientos generales de la industria 4.0 u otros participantes con conocimientos relacionados, con escolaridad mínima técnico. Esto con la finalidad de ahondar en las capacidades tecnológicas disponibles en el estado de Sonora desde la perspectiva de profesionistas en el ámbito. Manteniendo el anonimato la información y utilizar la información para fines académicos.
La segunda sección indaga en los factores relacionados a la suficiencia, pertinencia, perfil de la planta docente requerida para los programas de educación continua, de licenciatura y/o posgrado en industria 4.0. Los factores considerados son los siguientes:
Factor Planta Docente: En este factor se busca conocer la opinión del encuestado acerca de la suficiencia de los profesionales en el área de la industria 4.0, sus perfiles, participación en la región, disposición en cuanto a la enseñanza, incentivos económicos y sociales y capacitación en el área.
Factor estudiantes y estudiantes potenciales: En este factor se busca conocer la opinión del encuestado acerca del interés de la comunidad estudiantil en el ámbito antes descrito.
Factor Planes de estudio: En este factor se busca conocer la opinión del encuestado acerca de los planes de estudio actuales en las instituciones de educación superior del estado de Sonora. Su oferta educativa, si estos se encuentran relacionados con la industria 4.0, si se encuentran actualizados, las competencias que aportan y su vinculación con el sector productivo.
Factor Infraestructura y Equipo: En este factor se busca conocer la opinión del encuestado acerca de las instalaciones actuales de las instituciones de educación superior en Sonora, su suficiencia, calidad, mantenimiento, así como el acceso a la información afín a la industria 4.0.
Mercado Laboral: En este factor se busca conocer la opinión del encuestado acerca de los aspirantes capacitados, los programas de educación continua, la remuneración del mercado, posibilidades de crecimiento, oferta y promoción de capacitación.
Liderazgo y políticas públicas regionales: En este factor se busca conocer la opinión del encuestado acerca de la participación política y académica de la industria 4.0 en Sonora.
Factor Sostenibilidad: En este factor se busca conocer la opinión del encuestado acerca de los programas de apoyo, perfiles laborales, oportunidades de desarrollo y promoción nacional y extranjera en el ámbito en cuestión.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las necesidades que presenta México en cuanto a educación referente a la industria 4.0. Con la información recabada acerca de los planes de estudio que presentan universidades tanto nacionales como internacionales identificamos una necesidad de actualización, pues México tiene el potencial para emplear los conocimientos de la industria 4.0, se entra apto en distintas áreas de conocimientos.
Se tomó en cuenta los diversos requisitos que permiten tener una mayor confiabilidad al realizar la encuesta que se mencionó anteriormente, considerando las teorías y conceptos que se emplean en la industria 4.0 que emplean expertos en la materia. Se espera que con los resultados obtenidos y con una efectiva el 100% sean la partida de proyectos innovadores para los planes de estudio, de esta manera los egresados de las universidades tengan las bases y puedan desarrollar con mayor eficiencia su trabajo, con un desempeño eficiente.
Haciendo un énfasis en el estado de Sonora, con la información recopilada se destaca que tiene un alto potencial para desarrollar programas de integración de industria 4.0. De la misma manera se puede establecer continuidad de los niveles educativos, es decir, desarrollar especialidades.
García Vázquez Ivan Horacio, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
García Vázquez Ivan Horacio, Instituto Tecnológico Superior de Ciudad Serdán. Solano de Sixto Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Ventura Lara Diana Laura, Universidad Mexiquense del Bicentenario. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La actividad en redes sociales ha incrementado considerablemente en los últimos años, donde los usuarios comparten información constantemente sobre diferentes temas y opiniones. Por tal motivo, sería de gran interés analizar qué opinan las personas en relación con el turismo para poder clasificar estos comentarios con la ayuda de análisis de sentimientos, identificando que se está expresando, analizando el número de tweets que se han recopilado y las menciones que se han realizado de las diferentes cuentas.
METODOLOGÍA
Se buscaron 10 lugares turísticos por integrante del equipo de investigación, para hacer un total de 30 lugares turísticos en México.
Lugares turísticos seleccionados
African Safari
Atlixco
Catedral de Puebla
Centro Histórico de Puebla
Pahuatlán
San Andrés Cholula.
Teleférico
Tlatlauquitepec
Xicotepec
Zacapoaxtla
Catedral de Toluca
Cosmovitral Jardín Botánico de Toluca
La Marquesa
Plaza de los Mártires
Nevado de Toluca
Centro Ceremonial Otomí
Teotenango
Las Torres Bicentenario
Valle de Bravo
Parque Ecológico de Zacango
Grutas Karmidas Zapotitlán de Méndez, Puebla
Gran telescopio milimétrico Puebla
Cuetzalan, Puebla
Laguna de Chignahuapan,
Libres, Puebla
Museo de la Evolución, Tehuacán, Puebla
Museo Mexicano del Axolote, Chignahuapan, Puebla
Parque nacional Izta-Popo, Puebla
Reserva de la Biosfera Cuicatlán, Tehuacán, Puebla
Valle de piedras encimadas, Zacatlán Puebla.
Recolección de Tweets y almacenamiento
En esta fase se utilizó la red social Twitter,. El software que se utilizó para el proceso de recolección y almacenamiento fue RapidMiner, Para la recolección de los Tweets se utilizaron las siguientes técnicas:
Utilizar Google maps para utilizar las coordenadas geográficas del sitio turístico.
Utilizar símbolos como @ o # y Jugar con las palabras.
Utilizar o buscar por actividades culturales.
Utilizar el nombre del sitio turístico.
Buscar en twitter como se reconocen.
Utilizar diferentes idiomas como inglés, árabe, portugués, español.
Aplicando estas técnicas se obtuvo un total de 19,506 Tweets.
Procesamiento de filtrado
Utilizar una base de datos: Las bases de datos se realizaron con el fin de poder utilizar de manera más rápida y eficaz los Tweets.
Filtrado por selección de atributos: Se utilizó un operador llamado Select Attributes, porque nos enfocamos en los atributos Text, Polaridad, Ironía, e Idioma.
Eliminación de duplicados: Utilizamos el operador llamado Remove Duplicates para remover tweets que se repiten.
Filtrado por palabras: Se utilizó el operador Filter Examples, en donde se colocaron sinónimos de turismo en diferentes idiomas.
Terminando la fase de filtrado de los Tweets obtuvimos un total de 3,163.
Análisis de los textos y sentimientos
Se descargó una extensión por medio de RapidMiner llamada MeaningCloud, ayudó a clasificar los Tweets filtrados en la fase anterior en Positivo, Negativo.
Construcción del ranking
Para la construcción del ranking se utilizaron ciertas técnicas como; el porcentaje de tweets de cada lugar, el porcentaje se mostró en la cantidad de positivos y negativos que tuvo cada lugar, con respecto a los datos sin filtrar y los datos filtrados. Lugares turísticos seleccionados y su porcentaje de positividad ordenados de manera que sea mayor porcentaje, mayor positividad.
Valle de Bravo 6.23%
La Marquesa 5.13%
La plaza de Mártires 3.34%
Las torres Bicentenario 2.25%
Teleférico 1.87%
Centro ceremonial 1.46%
San Andres Cholula 0.96%
Pahuatlán 0.92%
Reserva de la biosfera, Cuicatlán 0.83%
Atlixco 0.75%
Xicotepec 0.65%
Nevado de Toluca 0.57%
Museo Mexicano del Ajolote 0.56%
Centro histórico de Puebla 0.56%
Museo de la Evolución 0.52%
Cuetzalán 0.5%
Catedral de Puebla 0.26%
Parque Ecológico de Zacango 0.24%
African Safari 0.23%
Grutas Karmidas 0.22%
Libres 0.2%
Zacapoaxtla 0.17%
Tlatlauquitepec 0.17%
Catedral de Toluca 0.16%
Gran Telescopio Milimétrico 0.15%
Cosmovitral Jardín Botánico 0.12%
Teotango 0.05%
Valle de piedras encimadas 0.01%
Parque Nacional Izta-Popo 0.01%
Laguna de Chignahuapan 0%
Lugares turísticos seleccionados y su porcentaje de negatividad ordenado de manera descendente, siendo que se indica, entre mayor porcentaje, mayor negatividad.
Laguna de Chignahuapan 0%
Parque Nacional Izta-Popo 0%
Teotenango 0%
Catedral de Toluca 0%
Centro Ceremonial Otomí 0%
Gran telescopio milimétrico 0%
Museo de la Evolución 0%
Grutas Karmidas, Zapotitlán de Méndez 0%
Cosmovitral Jardín Botánico 0.08%
Parque Ecológico de Zacango 0.13%
Valle de piedras encimadas 0.16%
Reserva de la Biosfera Cuicatlan 0.28%
Las Torres Bicentenario 0.31%
Nevado de Toluca 0.60%
Pahuatlán 0.63%
La Marquesa 0.69%
African Safari 0.83%
Catedral de Puebla 1%
Valle de Bravo 1.13%
La Plaza de los Mártires 1.56%
Cuetzalan 1.81%
Xicotepec 1.93%
Atlixco 2.08%
Teleférico 4.16%
Tlatlauquitepec 6.14%
Centro Histórico de Puebla 7.34%
Zacapoaxtla 8%
San Andrés Cholula 8.90%
Museo Mexicano del Axolote 19.85%
Libres 21%
CONCLUSIONES
A lo largo de la realización de este proyecto durante la estancia, con la ayuda de la Dra. Maria Claudia Denicia Carral, nos enfocamos en el sector 11 ciudades y pueblos sostenibles donde aprendimos cómo se realiza un procesamiento de textos para su previo uso en el ranking turístico propuesto, por medio de una red social actualmente demandada (Twitter), haciendo uso de RapidMiner con su debida extensión MeaningCloud, gracias a esta herramienta y a los procesos que se llevaron a cabo para el análisis de sentimientos y de esta manera conocer el grado de aceptación de los lugares seleccionados. El aprendizaje que se logró fue una gran aportación en la manera de cómo se puede utilizar la tecnología para ayudar al centro turístico de la región, además, también se analiza el uso de las redes sociales para el centro turístico.
Garcia. Camacho. Luis Armando., Universidad Politécnica de Tecámac
Asesor:M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
ESTUDIO NUMéRICO DE UN RIN AUTOMOTRIZ SOMETIDO A ESFUERZOS DE FATIGA.
ESTUDIO NUMéRICO DE UN RIN AUTOMOTRIZ SOMETIDO A ESFUERZOS DE FATIGA.
Garcia. Camacho. Luis Armando., Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Someter a esfuerzos de fatiga a un rin automotriz, para poder analizar los resultados que nos arroja con los diferentes esfuerzos a los que sea sometido y las deformaciones que pueda llegar a tener.
METODOLOGÍA
Se realizo el plano de el rin en SOLIDWORKS, con el material escogido para el mismo y se prosigue a realizar las pruebas de fatiga, que se necesita, seleccionado las cargas que va a tener esa pieza y analizar los resultados arrojados por el mismo programa.
CONCLUSIONES
Se obtuvieron los resultados deseados, el material tiene una buena resistencia y una elasticidad buena con las cargas a las que fue sometida la pieza.
Garfias Pineda Ana Patricia, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
DESARROLLO DE UN MODELO DE NEGOCIOS PARA LA PRODUCCIóN Y COMERCIALIZACIóN DE ABETO COMO ALTERNATIVA PARA LA REDUCCIóN DE TALA DE áRBOLES NATURALES NAVIDEñOS
DESARROLLO DE UN MODELO DE NEGOCIOS PARA LA PRODUCCIóN Y COMERCIALIZACIóN DE ABETO COMO ALTERNATIVA PARA LA REDUCCIóN DE TALA DE áRBOLES NATURALES NAVIDEñOS
Garfias Pineda Ana Patricia, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Anualmente en temporada navideña, la mayoría de personas decoran sus hogares con objetos que vayan acorde con esa época del año, en donde el objeto principal es el árbol o pino de navidad. Las familias pueden elegir entre comprar un árbol natural navideño o uno artificial. Cuando se adquiere un árbol natural navideño éste pasa por un proceso mediante el cual se tala el árbol para poder comercializarlo, por lo que al finalizar la temporada navideña se desecha.
METODOLOGÍA
Para llevar a cabo el proyecto, en primer lugar, se llevó a cabo una revisión bibliográfica en libros y artículos sobre el tema a tratar, cuando ya se conocía más acerca del tema se recaudó la información más confiable.
Para definir la propuesta de valor se tuvo que identificar un plus para el proyecto, de manera que tuviera viabilidad, por lo que la propuesta es, producir y comercializar árboles naturales navideños, específicamente abeto, de manera que sean rentados o vendidos en macetones.
Los socios clave son quienes proveerán, por lo que, para las semillas del abeto se consideraron EL SANGO ubicados en Iztapalapa, D.F.; REM SEMILLAS ubicados en General Escobedo, Nuevo León; SEMILLAS LAS HUERTAS ubicados en Xochimilco, D.F.; el proveedor elegido fue EL SANGO.
Para obtener la segmentación de clientes, se tomaron en cuenta resultados de encuestas aplicadas en Tacámbaro, en donde se definió la segmentación en personas de 18 a 25 años, de las cuales 64% son mujeres y 36% hombres.
Los canales de distribución, fueron tomados en cuenta de acuerdo a datos estadísticos que mostraron un índice elevado de tala de árboles, con esto se llegó a elegir los canales de manera que se pueda adquirir el abeto de manera que sea rentado o comprado, ya eso será decisión de los clientes.
Para llevar a cabo la relación con los clientes, fue decidido que no se debe olvidar por completo a un cliente, en todo el proceso de adquisición del producto se va a estar en comunicación directa con cada uno de ellos. Durante el periodo de tiempo en que tengan adquirido el producto se le llamará a quien tenga el abeto para preguntarle sus dudas sobre el mantenimiento del mismo, así como, para saber qué tan satisfecho ha estado hasta el momento con el producto. Para darle continuidad se le hará una llamada tiempo después de ser recogido el abeto, para conocer el nivel de satisfacción que tuvo con el servicio, esto para que en un futuro en vez de querer seguir rentándolo ya le sea de su gusto adquirirlo comprándolo.
Las actividades claves son el proceso por el cual será sometida la semilla y después el árbol del abeto para lograr su producción y comercialización, las cuales son: adquisición de la semilla, germinación, fertilización, podas y control de plagas.
Para saber que recursos se necesitarían para lograr producir y comercializar el abeto se hizo una investigación sobre el proceso, en el cual se encontraron los recursos necesarios que son: semilla, charola, sustrato, fertilizantes y macetas.
La estructura de costos se obtuvo de los proveedores y precios que tenían los recursos requeridos, en total para germinar 130 semillas de abeto se requerirán $860.00 dejando de lado los fertilizantes, macetas y equipo de transporte.
Las fuentes de ingreso serán la manera en que se conseguirá el dinero y esto es por medio de la compra y/o renta de los abetos.
Para finalizar, se presentará el modelo de negocios para su validación.
CONCLUSIONES
La elaboración de un modelo de negocios para la producción y comercialización de abeto como alternativa para la reducción de tala de árboles naturales navideños ayudó para llegar a resultados positivos acerca de la viabilidad del proyecto, puesto que, mediante los estudios realizados, se llegó a la conclusión de que es buena idea el implementar la adquisición del abeto en macetones como árbol navideño, ya que, es una propuesta sustentable para la sociedad.
Al establecer la propuesta de valor, se logró contar con una diferencia con los competidores, ya que, las demás empresas dedicadas a la producción de abeto los comercializan talándolos, en cambio el fin de este proyecto es comercializarlos en macetones para que se les siga dando mantenimiento y tengan larga vida.
Se determinaron los recursos clave, que son los requeribles para lograr la producción del abeto, por consiguiente, se definieron las actividades prioritarias, para que en conjunto con los recursos se logre la producción y comercialización de abeto.
La segmentación de clientes se definió gracias a investigaciones previas de un estudio de mercado para el proyecto, con esto proponer la relación con los clientes se logró establecer, de manera que sea benéfico tanto para el cliente como para el proyecto.
Se logró la estructuración de los costos fijos y variables, que son los que conllevan todo el proceso para producir y comercializar el abeto, de tal manera se obtuvo un presupuesto final; con lo anterior, se determinaron los recursos financieros, así como el saber de dónde se generarían dichos recursos.
Garnica Luna Agueda, Instituto Tecnológico de Morelia
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PROTECCIóN CATóDICA EN TUBERíAS ENTERRADAS
PROTECCIóN CATóDICA EN TUBERíAS ENTERRADAS
Garnica Luna Agueda, Instituto Tecnológico de Morelia. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Actualmente la civilización humana hace uso de enormes cantidades de acero para la construcción de diversos aspectos que forman parte de la vida cotidiana, como son fábricas, puentes, edificios, viviendas, etc., y por necesidades mecánicas, económicas y de seguridad, se tiene que apoyar y enterrar en suelos una gran variedad de estructuras de acero, las cuales sufren una degradación, lo que ha obligado al ser humano a estudiar los fenómenos desde un punto de vista científico para explicar por qué ocurre esa degradación, denominada corrosión. En la literatura se reporta que las pérdidas por corrosión causadas en los países desarrollados son del orden de 3 a 5 % del producto interno bruto.
Las superficies externas de las tuberías enterradas utilizadas para el transporte de hidrocarburos al estar expuestas a diferentes condiciones ambientales son susceptibles a sufrir fallas. En la actualidad, las tuberías enterradas están protegidas mediante recubrimientos anticorrosivos por sistemas de protección catódica, esto para salvaguardar la integridad del ducto.
El suelo por su contenido variable de humedad, sales y materia orgánica en descomposición es el electrolito más complejo al cual puede estar expuesta una tubería, asociado a las variaciones de temperatura, pH, resistividad, potencial de corrosión, textura, porosidad, hace que la protección sea extremadamente complicada.
METODOLOGÍA
Se entiende por corrosión, todo proceso electroquímico de degradación por oxidación-reducción de los materiales en contacto con un medio conductor. La corrosión está relacionada con una reacción de transferencia de electrones, y con el paso de una corriente eléctrica de corrosión entre un ánodo y un cátodo a través de un medio conductor.
Dichos procesos se pueden clasificar de varias formas: de acuerdo con el mecanismo de ataque, según el medio corrosivo, la morfología de la corrosión, factores mecánicos que intervienen en el proceso, etc.
Existen dos métodos muy utilizados para mitigar la corrosión que son: protección catódica y recubrimientos. Ambos se basan en la eliminación de uno de los elementos de la celda de corrosión, que consta de un electrolito que contiene al ánodo y cátodo unidos metálicamente, siendo el caso de la protección catódica la eliminación del ánodo. Las condiciones necesarias para que la corrosión se minimice se pueden predecir a partir del diagrama de Pourbaix del hierro.
La protección catódica es una técnica para reducir la corrosión de una superficie metálica haciendo que esa misma superficie sea el cátodo de una celda electroquímica. Esto se logra haciendo que el potencial eléctrico del metal a proteger se vuelva más electronegativo mediante la aplicación de una corriente directa o la unión de un material de sacrificio (comúnmente Mg, Al o Zn). Se utiliza para proteger estructuras metálicas enterradas o sumergidas y se usa como complemento de un sistema de recubrimientos; se basa en la aplicación de una corriente continua a una estructura metálica, de manera que ésta constituya la parte catódica del circuito.
Existen dos tipos de protección catódica; por ánodos de sacrificio y por corriente impresa. La primera se basa en el acoplamiento galvánico de dos metales en el mismo medio. Cuando se produce la conexión eléctrica, la corriente fluye desde el metal de potencia más negativo (ánodo) a el de potencial más positivo (cátodo) con una intensidad que depende de la diferencia de potencial entre ambos metales, de la resistividad del medio y de la dimensión, forma y disposición de los ánodos y la estructura.
La otra variante se basa en el acoplamiento eléctrico de dos metales a través de una fuente de tensión (rectificador), para que la corriente de protección fluya desde los ánodos dispersores a la estructura, esta última debe polarizarse a un potencial más negativo que el de los ánodos. El procedimiento consiste en unir eléctricamente la estructura que se trata de proteger con el polo negativo de una fuente de alimentación de corriente continua (pura o rectificada) y el positivo con un electrodo auxiliar que cierra el circuito. Los electrodos auxiliares se hacen de chatarra de hierro, aleación de ferrosilicio, grafito, etc. Es indispensable la existencia del electrolito que completa el conjunto para que se realice el proceso electrolítico.
Los criterios incorporados para evaluar las instalaciones de protección catódica en la práctica mediante la norma NACE RP-01-69 "Control de la corrosión externa en sistemas de tuberías metálicas subterráneas o sumergidas":
Un potencial catódico de -0.85 voltios con respecto a un electrodo de referencia Cu/CuSO4 con corriente aplicada.
Un cambio mínimo de potencial catódico de 300 mV producido por la aplicación de corrientes protectoras.
Un cambio mínimo polarización catódica de 100 mV. El cambio de potencial se determina midiendo la decadencia de polarización.
Una polarización catódica que por lo menos logre iniciar con el comportamiento de Tafel de la curva E-log-I.
El valor de estos potenciales es con referencia al electrodo de Cu/CuSO4, cambia si se emplean otros electrodos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proceso de corrosión, los métodos de protección para disminuir dicho proceso, ya que es algo que bien no se puede evitar, se puede controlar.
Los métodos de protección catódica son complementarios a los recubrimientos utilizados para la corrosión, y se tienen bien estudiados para las tuberías que suelen estar fabricadas de acero, este método es muy utilizado principalmente en la industria petrolera, sin embargo también puede ser aplicable en otros ámbitos como son: exterior de tanques enterrados de cualquier producto (gas, agua, combustibles, etc.) ; estructuras de hormigón armado con ataque por corrosión exterior, tanto enterradas, sumergidas o aéreas.
REFERENCIAS
http://ingenieros.es/files/proyectos/Proteccion_Catodica.pdf
Garnica Sanchez Ana Laura, Instituto Tecnológico de Colima
Asesor:M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
DISEñO DE MODELO DE CAJA BLANCA EN LA EVALUACIóN DE CARACTERíSTICAS SENSORIALES DE CERVEZA BASADO EN LAS PROPORCIONES DE LOS INGREDIENTES; APLICACIóN EN LA CERVECERA LA PERRERíA.
DISEñO DE MODELO DE CAJA BLANCA EN LA EVALUACIóN DE CARACTERíSTICAS SENSORIALES DE CERVEZA BASADO EN LAS PROPORCIONES DE LOS INGREDIENTES; APLICACIóN EN LA CERVECERA LA PERRERíA.
Garnica Sanchez Ana Laura, Instituto Tecnológico de Colima. Asesor: M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
La cerveza es una tradición cultural y simboliza un elemento de identidad primordial de numerosos pueblos y épocas de la historia de la humanidad, puesto que se ha elaborado por múltiples civilizaciones.
PROCESO DE ELABORACIÓN
1. Malteado
2. Macerado
3. Cocimiento
4. Clarificación
5. Fermentación
6. Maduración
7. Filtración
8. Envasado
PRINCIPALES FAMILIAS CERVEZAS; ALE, LAGER E HÍBRIDA
Ale: Todas aquellas que usan levaduras de fermentación alta.
Lager: Se les conoce así debido a que, reposan en almacenes para su maduración.
NUEVAS VARIEDADES DE CERVEZAS ARTESANALES AL MERCADO DE LA CERVECERÍA LA PERRERIA
1. HULK (ALE BELGA FUERTE; SAISON)
Características: Oscura con aroma a caramelo tostado y sabor ligeramente afrutado, dulce y chocolate amargo.
2. LEONA (CERVEZA AMARGA PÁLIDA EUROPEA; KÖLSCH)
Características: Color dorado turbio, sabor y aroma fresco derivado del agregado de la cáscara de limón macerada en ron.
3. DOBERMAN GUARDIAN (CERVEZA IRLANDESA; IRISH STOUT)
Características: Cerveza negra con notas ahumadas y sabor fuerte a café y chocolate amargo. Baja carbonatación.
4. ASTRO (ALE BELGA FUERTE; BELGIAN BLONDE ALE)
Características: Cerveza de trigo, de color amarillo oscuro con alta carbonatación, aroma fruta y sabor ligero.
5. AKITA JAPONES (CERVEZAS AMERICANAS ESTÁNDARES; CREAM ALE)
Características: Aroma y sabor cítrico-herbal, color amarillo claro con un toque de arroz.
6. XOLOESCUINCLE (CERVEZA AMERICANA ÁMBAR Y MARRÓN; ALE AMERICANA ÁMBAR)
Características: Color cobrizo, sutil aroma acaramelado y frutal, delicado dulzor originado por el maíz amarillo.
7. LUCKY PUG (CERVEZA IRLANDESA; ALE IRLANDESA ROJA)
Características: Color rojizo oscuro, notas caramelo y sabor tostado, ligeramente dulce.
La Perrería es una cervecera artesanal independiente ubicada en el Estado de México, Naucalpan de Juárez.
Los análisis sensoriales han cambiado constantemente durante en el inicio de operaciones para llegar correctamente a las descripciones, el reto de esta propuesta es analizar sus últimas recetas asimismo el que más se ajuste a las descripciones generales.
En lo que nos concierne esta investigación es analizar los factores sensoriales como sabor-aroma-color, por lo cual esta investigación cumple en el área de interés económico, social y tecnológico, siendo primordiales para elegir la mejor opción esta gran industria dando a conocer más a fondo las cervezas artesanales.
METODOLOGÍA
La investigación se realizó de manera híbrida, de forma virtual por el departamento de ingeniería Ambiental y Bioquímica del Tecnológico Nacional de México, Campus Colima; y de forma experimental en las instalaciones de la cervecería artesanal la perrería en Naucalpan, Estado de México. La información fue extraída del artículo de BeerTimes 2015, Cerveza Mexicana; Antología de un Arte Efervescente, Forbes, Cerveceros de México, y software BeerSmith.
Para el desarrollo del proyecto, se tomó como base de datos en Excel de las siete recetas para la elaborar cerveza con diferentes características sensoriales; dado que, se debe la secrecía en la elaboración; se evaluó tres ingredientes para la fermentación y otros tres que describen algunas características visuales-sensoriales. Por ejemplo; el etanol es la molécula final obtenida por el rompimiento de las cadenas de carbono de los azúcares reductores. La concentración de CO2 da el sabor de una cerveza cuyo función es mantener por mayor tiempo la cerveza a baja temperatura. Mientras que, el color de la tonalidad del líquido va desde lo pálido hasta lo oscuro. Se especifica con el sistema Standard Reference Method (SRM).
El proceso de elaboración además se analizó la comparación de las cervezas de los estilos tradicionales frente al toque de estilo de la cervecería la perrería. Dado este análisis teórico se procedió a determinar gráficamente en Matlab los factores sensoriales de las cervezas
CONCLUSIONES
En este trabajo se planteó una propuesta integral que incluyese la aplicación investigación y la bioquímica para conocer los parámetros primarios de la elaboración de las cerveza línea, estableciendo así un fundamento científico, con relación a los factores sensoriales analizados.
A partir de la recolección de los información general de Juan Cristóbal García Sánchez, Cervecería La Perreria, Cerveceros de México, que fueron primordiales para esta investigación, dicho análisis teórico se registró y se compararon respectivamente con los resultados gráficos, se observo que;
La cervecería maneja una línea híbrida que resultan de la mezcla de las Ale y/o las Lager.
Gráficamente el clarifícante y el azúcar juega un papel relacionado con el color, entre más clarifiacante, pero menor el volumen de azucares el color tiende hacer un color dentro de las tonalidades claras.
Asi mismo en otra relación entre el clarifícante y el azúcar se da a conocer que entre mayor el volumen de azucares, pero menor clarificante este disminuirá el volumen de CO2, pero si obtenemos menores azucares y mayor clarificante este tiende a subir su volumen de CO2.
Si relacionamos a mayor azúcar y, pero menor cantidad de malta obtendremos grandes cantidades de volumen de etanol en las cervezas, por ejemplo, en la cerveza Hulk.
Por otro lado, la levadura y la malta es ligeramente proporcional a las cantidades de alcohol, es decir, menor cantidad de levadura y malta, menos cantidad de volumen de etanol o valores intermedios de ambos estos serán proporcionales.
Garrido Salinas Maria, Instituto Tecnológico de Iguala
Asesor:Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
INTELIGENCIA ARTIFICIAL APLICADA EN EL DESARROLLO DE UN CHATBOT CON PYTHON
INTELIGENCIA ARTIFICIAL APLICADA EN EL DESARROLLO DE UN CHATBOT CON PYTHON
Garrido Salinas Maria, Instituto Tecnológico de Iguala. Mateo Carmona Uriel, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
Los chatbots son aplicaciones informáticas basadas en la inteligencia artificial que pueden simular la conversación con una persona, dándole respuestas automatizadas a las dudas que tengan los usuarios. Sin duda llegaron a mejorar a la sociedad, ya que día con día son más utilizados por las empresas brindando así una mejor atención al usuario.
Hoy en día el uso de aplicaciones web ha permitido acercar a los usuarios finales de bienes o servicios para lo cual se planteó crear un aplicación de chatbot utilizando el lenguaje Python con la finalidad de responder alguna necesidad y/o problemática, para lo cual se propone desarrollar un Chatbot de manera que pueda automatizar la venta de boletos para poder viajar de un determinado lugar a otro, haciendo el uso del Chatbot podrás obtener información de la hora y el costo del boleto que deseas comprar, así los clientes podrán resolver sus dudas de una manera más rápida y precisa.
METODOLOGÍA
Se consultó información en diferentes sitios de internet con la finalidad de obtener información en referencia a los antecedentes de un chatbot, definiéndolo como un asistente que se comunica con los usuarios a través de mensajes de texto, con lo cual crea un hipervìnculo entre usuario final y proveedor.
Un ejemplo de ello es la aplicación de Facebook quien tecnológicamente proporciona al usuario tener una conversación a través de un software que se incorpora en un sistema de mensajería.
El Chatbot es programado para que interactúe con el usuario y le resuelva dudas, sin que haya de por medio una persona física, y tienen la ventaja de contar con la disponibilidad de tiempo para poder resolver las dudas, sin importar el horario.
Una vez entendido el tema se comenzó a buscar información sobre las herramientas que se utilizaron, se desarrolló en el lenguaje Python, este lenguaje Python es gratuito y de código abierto desde hace más de 20 años. La licencia pertenece a Python Software Foundation License, una organización sin ánimo de lucro que permite la modificación de códigos y la realización de proyectos derivados, incluso es posible partir de otros proyectos para crear trabajos que no sean de código abierto, se puede ejecutar en diferentes sistemas operativos como Windows o Linux además de que para nosotros será primera vez que interactuamos con este lenguaje.
Después de comprender y analizar toda la información encontrada se pasó a elegir un tema en específico en el cual se pudiera implementar un Chatbot, el equipo optó la presentación de horarios de autobuses, como siguiente paso se comenzó a desarrollar en python, se utilizó la biblioteca de código libre NLTK, que proporciona un conjunto de herramientas para el procesamiento del lenguaje natural, como el lenguaje natural de las personas a las que va dirigido el chat, continuamos con la declaración de las reflections y un diccionario, formado por una serie de posibles interrogantes del usuario, que se relaciona a una o varias respuestas ya definidas, cabe destacar que el chat funciona con estas respuestas solamente por lo que si se le hace una pregunta o frase que no esté declarada previamente en el programa la respuesta será none que traducido al español es ninguna o ninguno, porque no encuentra coincidencias declaradas previamente, el chat el intu import.este desarrollador es un poco más complejo porque con unas cuantas líneas de código se logra plasmar ideas más complejas, como por ejemplo interpretar lo que el usuario quiere decir.
Para la interfaz gráfica del chatbot se sugiere utilizar como implementación del proyecto alguna de las librerías compatibles con Python, como Trinker que es una biblioteca gráfica que se puede utilizar para la interfaz y que es compatible con Python para una mejor visualización de la información. Tkinter está disponible en cualquier sistema operativo que sea compatible con cualquier intérprete de Python sea Linux, Windows e incluso Mac. La interfaz es una buena opción para dar mayor presentación al proyecto y no solo presentarlo en consola, Python tiene muchas opciones en cuanto a bibliotecas gráficas se refiere, puede ser una implementación que se retome para complementar este proyecto.
Además del módulo de interfaz Tk, tkinter incluye varios módulos de Python, tkinter.constants es uno de los más importantes. Al importar tkinter importará automáticamente tkinter.constants, por lo tanto, para usar Tkinter todo lo que se necesita es una simple declaración import: Import trinker.
CONCLUSIONES
Fue una experiencia muy grata haber participado en esta investigación, se aprendieron cosas nuevas como; que es un Chatbot como es que se puede desarrollar,el manejo de Python, librerías etc.
Sin duda alguna la inteligencia artificial es un tema bastante interesante porque automatiza el aprendizaje de los usuarios de manera computarizada, de una manera confiable y precisa.
Sin embargo al principio se nos dificulto un poco ya que era un tema nuevo para nosotros, pero con dedicación y perseverancia se logró realizar el trabajo planteado.
Pero al final de la investigación se pudieron realizar y alcanzar los objetivos que se propusieron al principio de la investigación, y lo más importante que la aplicación tiene una funcionalidad y responde a una necesidad.
Gaytán Palacios Juan Humberto, Instituto Tecnológico de Matamoros
Asesor:Mtro. Ángel Guerrero Guerrero, Universidad Tecnológica de Huejotzingo
MESA DE ESTUDIO PARA ESTUDIANTES
MESA DE ESTUDIO PARA ESTUDIANTES
Gaytán Palacios Juan Humberto, Instituto Tecnológico de Matamoros. Asesor: Mtro. Ángel Guerrero Guerrero, Universidad Tecnológica de Huejotzingo
PLANTEAMIENTO DEL PROBLEMA
Nuestro proyecto de este verano científico se centró principalmente en una problemática que tuvimos la mayoría de las personas que actualmente estudiamos en línea, sin excluir a las personas cuyos trabajos o empleos requieren de largas jornadas detrás de, ya sea, el monitor de una computadora, una laptop, tablet, o dispositivo móvil, a lo que en estos últimos años se le ha denominado como Home office.
No es una novedad escuchar a las personas mayores a 30 años quejarse de problemas lumbares o cervicales, ya sea dolor, inflamación, o algún tipo de parálisis temporal y adormecimiento en las extremidades, como consecuencia al problema que estamos tratando, lo que ha llamado últimamente la atención es que los jóvenes (Menores de 30) también hayan comenzado a tener estos problemas, pues los escritorios, mesas de trabajo o el lugar en donde se posicionen para hacer sus tareas, proyecto o trabajos, los obliga a adoptar una mala postura después de unas horas de uso, y se debe a que muchas veces no tienen un diseño adecuado a la medida de las personas, o simplemente no fueron hechas para estar en uso durante tantas horas de uso continuo. Esto nos terminó por dar una idea que nos daría una posible solución, una mesa de trabajo adaptable a varias posiciones y alturas para una mayor comodidad, así como algunos gadgets como un portavasos y cajón lateral para almacenar libros, cuadernos o una computadora portátil, esto para un mejor aprovechamiento de espacio de la mesa, ya que podría ocupar un espacio considerable si el lugar de posicionamiento no es amplio. La mesa de estudio deberá proporcionar al usuario la posibilidad de trabajar de pie y tener movilidad suficiente para evitar tropiezos.
Un punto fundamental para poder dar paso a éste proyecto, es que la mesa tenga un costo bajo de fabricación, de manera que pudiera ofrecerse al mercado a un costo admisible, puesto que, el objetivo de todo esto es proporcionar ayuda a estudiantes, ya que la gran parte trabajan medio tiempo para cubrir sus necesidades básicas o no tienen un empleo remunerado.
METODOLOGÍA
El primer paso para dar inicio a nuestro proyecto fue la recaudacion de informacion, que fue clave para nuestro punto de partida, para ello, buscamos nuestra informacion en bases de datos oficiales, con informacion por ende veridica, principalmente para el punto de la antropometría, siendo lo que nos daría partida a la version uno de nuestro diseño, y si, hablo de las medidas, una vez teniendo las medidas se partió a hacer el diseño de la base, que dio lugar al nacimiento de nuestro proyecto final, el siguiente paso fue hacerlo un poco mas real, siendo que teníamos lo necesario para comenzar con el modelado 3D, se hizo el despiece y planos de cada uno de los componentes de nuestra mesa, hasta llegar a la realizacion de nuestro ensamble final, todo esto fue realizado en dos softwafre de diseño y modelado 3D (SolidWorks y Catia), finalmente optamos por dejar nuestro diseño final en Catia, para llegar a esto, establecimos que las piezas importantes del chásis, esqueleto o estructura de la mesa, estuviera conformado por piezas de medidas estándar, como valeros y eje roscado, ésto para enfatizar la facil realizacion del maquinado a estas piezas, reduciendo el tiempo de entrega y por ende, su precio final, mismo asunto con la tornillería para sujetar todo en su lugar. Pasamos al punto final, pero no por ello menos importante, la seleccion de materiales, hubo que ser algo cautelosos con ello, pues debiamos elegir materiales económicos, que a la vez fueran resistentes y tuvieran el menor impacto ambiental posible conociendo los puntos anteriores, y asi fué.
CONCLUSIONES
Como producto final, obtuvimos nuestro objetivo principal, que fue ofrecer una mesa comoda, utilitaria y de bajo presupuesto, cumpliendo estos tres puntos principales, nuestra mesa tuvo la posibilidad de tener una elevacion y descenso vertical, e incluso se pudo agregar la posibilidad de tener una inclinacion angular para ajustarla a gusto del usuario, conto con un compartimento para cuadernos y libros, un porta vasos, una ranura para productos de escritura, tambien se le dio prioridad a los materiales, siendo asi una manera efectiva de reducir el precio final de produccion y venta final, nuestras conclusiones fueron completamente positivas, obteniendo asi, los lanos de las piezas y nuestro ensamble final del modelado del proyecto, cumpliendo con los estandares adecuados para su fabricacion
Gerardo López Felipe de Jesús, Instituto Tecnológico de Culiacán
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
Gerardo López Felipe de Jesús, Instituto Tecnológico de Culiacán. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
Hoy en día estamos siendo testigos de las consecuencias del cambio climático mas que nunca, cada vez aumentan más los deshielos de los polos, lo que significa directamente un mayor nivel del mar, también se generan mas olas de calor y fenómenos meteorológicos extremos con mayores repercusiones en la seguridad alimentaria, cada día tenemos mas zonas con sequias mientras que otras con mayores precipitaciones.
Debido a esto se busca encontrar una manera de ponerle alto al cambio climático, y la manera mas sencilla es mediante la reducción de contaminación y generación de gases de efecto invernadero, por lo que nos encontramos en una búsqueda constante de nuevas alternativas para llevar a cabo los procesos ya existentes, pero con la diferenciación de que esta vez buscamos reducir la contaminación tanto como sea posible.
METODOLOGÍA
Dentro de todas las posibilidades para generar este cambio, decidimos que lo haríamos mediante el desarrollo de una casa ecológica autosustentable la cual sea capaz de satisfacer la necesidad de una familia de 5 integrantes buscando siempre reducir la contaminación que un hogar normalmente genera, y maximizando al limite cada recurso natural que tuviéramos al alcance.
Durante todo este proceso estuvimos documentándonos mediante la visualización de videos, lecturas de documentos, realización de ejemplos y cursos, lo cual nos fue de mucha ayuda debido a que no comenzamos desde cero, sino que logramos colectar conocimiento de experiencias de otras personas que buscan un cambio al igual que nosotros.
A través de la realización de este proyecto Implementamos distintas técnicas de construcción para obtener una casa con temperaturas adecuadas para reducir el coste de energía de ventilación, utilizamos materiales sustentables y que aportaran valor como aislante térmico a nuestro hogar, la manera de obtención de energía la desarrollamos mediante la instalación de paneles solares, el agua de consumo será aprovechando los periodos de lluvia y almacenándola para los días mas secos, implementamos dos sistemas de desagüe uno para aguas negras y otro para aguas grises siendo direccionadas directamente a un biofiltro que al final desembocan en plantas con el propósito de regarlas, por ultimo añadimos un colector solar para obtener agua caliente mediante la energía solar térmica del sol.
Al llevar a cabo todas estas implementaciones en un diseño de casa sustentable nos dimos cuenta de que, resulta un proyecto rentable a largo plazo debido a que nos genera mucho ahorro de recursos tanto naturales como económicos, que en fin de cuentas es el objetivo que estuvimos buscando en el desarrollo de este proyecto.
Es importante resaltar que todas estas implementaciones fueron estudiadas y desarrolladas por un grupo de estudiantes especializados en el campo de estudio correspondiente a cada área, siempre siguiendo normativas nacionales y métodos oficiales con respaldo científico.
CONCLUSIONES
Gracias a la investigación de cada uno de lo estudiantes, se realizó un diseño de una casa ecológica autosustentable utilizando como material principal de construcción el adobe, esta hogar cuenta con acondicionamiento climático natural, con generación de energía eléctrica independiente mediante un sistema de 6 módulos solares, una tercera parte del agua consumida anualmente en el recinto será abastecida por las lluvias de la zona, el agua podrá ser calentada mediante un colector solar con una capacidad de 325 litros, y tendrá un biofiltro a la salida del sistema de plomería que alimentara algunas plantas en particular.
Este tipo de construcciones o cambios a las ya existentes, son difíciles de llevar a cabo debido a que necesitan cierta cantidad de tiempo, esfuerzo y conocimiento en el área, pero una vez que se logran realizar estos cambios, todo en la casa se vuelve más sencillo y económico, además de que se logra el objetivo principal el cual consiste en evitar la producción de gases de infecto invernadero.
Gil Mercado Cecilia Margarita, Universidad Tecnológica de Zinacantepec
Asesor:Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
OBTENCIÓN DE NANOREFUERZO DE CELULOSA Y PVA QUE SE INCORPORA A
UNA MATRIZ DE PLA PARA LA ELABORACIÓN DE UNA PELÍCULA DELGADA
BIODEGRADABLE HIDROLÓGICAMENTE EN AGUA
OBTENCIÓN DE NANOREFUERZO DE CELULOSA Y PVA QUE SE INCORPORA A
UNA MATRIZ DE PLA PARA LA ELABORACIÓN DE UNA PELÍCULA DELGADA
BIODEGRADABLE HIDROLÓGICAMENTE EN AGUA
Gil Mercado Cecilia Margarita, Universidad Tecnológica de Zinacantepec. Asesor: Dra. Araceli Salazar Peralta, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
Actualmente se genera gran cantidad de productos que al final de su vida útil no son reciclados y, su materia prima agrava la contaminación ambiental y marina.
En 2020 se publicó en la página de la ONU El plástico de preproducción, una amenaza para los océanos que llega a las costas de México reportada por Laura Quiñones, donde menciona que los microplásticos o pellets utilizados para la producción de botellas tienden a perderse o filtrarse en desagües dentro de las fábricas o al ser transportados, además absorben contaminantes y toxinas del agua, lo que es una amenaza al ser consumido por animales.
Debido a estas problemáticas, se busca sustituir los productos plásticos a base del petróleo por productos biopoliméricos amigables con el medio explorando diversas alternativas para mejorar la calidad de vida humana, animal, y el cuidado del medio ambiente.
METODOLOGÍA
El uso de PLA comercial Ingeo® 2003D Dasso, G. (2017) y el uso del PVA es de grado comercial.
Obtención de nanocelulosa
El proceso estudio de Hernández-Villegas, M. M., et al., (2016). Teniendo el material biológico seco, de primera instancia se trata con una solución acuosa de 10% NaOH, para introducir el bagazo de caña en una solución de NaOH al 10% por 20 minutos, luego de llegar a la temperatura de ebullición se lleva a cabo una agitación continua. Finalmente se enfrían las muestras de bagazo, se lavan con agua y se secan en una estufa a 60 °C por 12 horas. El método de obtención se realiza por medio de la técnica de pulpeo (Cazaurang et al., 1990), que consta de cuatro pasos: (1) se somete a hidrólisis ácida suave con H2SO4 al 0.4% durante una hora y realizar un lavado posterior; (2) la cloración con NaClO al 3.5 % con agitación continua de la solución, en un baño de agua a 30 °C hasta alcanzar un pH de 9.2, posteriormente de un lavado con agua destilada hasta alcanzar la neutralidad; (3) la extracción alcalina con NaOH al 20% en agitación durante una hora, seguido de un proceso de lavado; (4) blanqueo en una solución de NaClO al 0.5%, en agitación continua durante una hora y con un lavado final hasta alcanzar un pH neutro. El material se esparce en una charola de aluminio por un día, se secó a temperatura ambiente y seguido de ello, en una estufa a 60 °C por 24 horas. La masa de la celulosa se determina con una balanza analítica, de esta manera establecer el rendimiento del proceso y finalmente la celulosa se pulveriza por medios mecánicos.
Obtención de nanocristales de celulosa
De acuerdo al proceso de obtención de NCC utilizada en el estudio de Cohuo, M. S. C. P. (2018) se basó en los procedimientos propuestos por Bondenson et al (2006) y Hamad y Hu (2010). De primera estancia se prepara una solución de 10.2 g de celulosa en 100 mL de agua desionizada, a la suspensión en baño de hielo y agitación constante, lentamente se agrega ácido sulfúrico concentrado hasta lograr una concentración de 63.5% p/p. Después, utilizando una turbina Rushton de acero inoxidable para la agitación y calentándolo hasta 44 °C, manteniendo la suspensión en agitación constante durante 130 minutos, se detiene la hidrolisis al verter 2000 mL de agua fría. Dejando reposar durante 24 horas para la formación de dos fases, se decanta y el sedimento se lava tres veces con agua desionizada con tres ciclos de centrifugado (15 minutos a 3500 rpm). Se recolecta el sobrenadante de los dos últimos ciclos de centrifugado, el cual se muestra turbio dado al pH de entre 1 a 3 hace que las partículas finas no sedimenten (Araki, J., et al., 1998). Dicho sobrenadante se dializa contra agua desionizada en membranas de diálisis (PM de 14000 Da) de 1 a 4 días hasta alcanzar un pH neutro. Posteriormente, para su caracterización las muestras son sonicadas usando una punta sónica, en su estudio Sonics, Vibra Cell, en un baño de hielo durante 5 minutos. Finalmente, la suspensión acuosa es almacenada a 4 °C y el rendimiento de la reacción de determina tomando 5 alícuotas de 10 mL cada una, para su congelación y liofilización.
Obtención del nanocompuesto
Continuando con el estudio de Cohuo, M. S. C. P. (2018) se sigue el método utilizado para la obtención del nanocompuesto. Primeramente, se lleva a cabo un concentrado de PLA/NCC prístinos e injertados, según es el caso, en una cámara de mezclado de tres zonas de acoplado marca Brabender (modelo PLA-330) a 163 °C. Seguido de ello, se diluyen los concentrados en PLA virgen para lograr los porcentajes de 0.5, 1 y 2% (p/p) de NCC. Para esto, los concentrados y el PLA se muelen en una licuadora comercial Oster y se mezclan por 5 minutos, cabe mencionar que en este punto se añade el PVA comercial (ya que es considerado como el concentrado de acuerdo al proceso de interés dentro del estudio consultado) siendo solido granulado logra mezclarse en este paso. Posteriormente las mezclas son procesadas en un extrusor cónico de doble husillo de laboratorio marca Brabender (modelo PLA-330), siendo las temperaturas de procesamiento de 145 y 150 °C en las zonas del extrusor. La velocidad de rotación de los husillos a utilizar es de 5 rpm usando un dado de 4 cm de largo y 5 mm de diámetro interno a una temperatura de 140 °C. El material obtenido se pelletiza por medio de un equipo marca CW-Brabender (tipo 12-74-000).
Para la obtención de las películas delgadas se hace uso de una máquina de calandrado (CW-Brabender Instruments, Inc. Tipo 05-21-000) con rodillos a temperatura ambiente para obtener películas con espesores de 300 a 600 μm y 400 mm de ancho. El extrusor empleado es mono husillo marca Brabender (modelo PLE-330) con una velocidad de husillo de 40 rpm.
CONCLUSIONES
Durante la estancia de verano se ha logrado conocer diversos procedimientos para la producción de películas delgadas, en base a la teoría se ha propuesto la adición del compuesto PVA a la matriz PLA/NCC presentado en la investigación de Cohuo, M. S. C. P. (2018), aunque no es posible conocer resultados certeros de la metodología propuesta deja preguntas puntuales de lo que se pudiera obtener al añadirlo, así como determinar si el método de procesamiento es el indicado y no sufre inconvenientes durante el mismo.
Giraldo Morales Madeleyne, Universidad Santo Tomás
Asesor:Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Giraldo Morales Madeleyne, Universidad Santo Tomás. González Reyes Brenda Yael, Benemérita Universidad Autónoma de Puebla. Torres González Olga, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
A partir de la revolución industrial los grandes problemas que enfrenta el sector energético son los procesos de combustión a partir del uso de combustibles fósiles y la disminución de las reservas de petróleo, ocasionando una alta concentración de gases contaminantes en la atmosfera. Una alternativa para cubrir la demanda de combustible es la producción de bioetanol y biodiesel, que pueden obtenerse por fermentación alcohólica y anaeróbica de materia orgánica sacarida y celulósica y por la conversión química de AG presentes en cultivos oleaginosos y grasas animales, así como residuales de aceites comestibles, respectivamente. Sin embargo, resulta un proceso poco sostenible debido a la alta competencia alimenticia y el uso de suelos aptos para agricultura. Por esta razón, las microalgas son materia prima de alto interés para la producción de biodiesel dada su capacidad de asimilación de CO2, alta acumulación de AG, cultivos en terrenos no agrícolas, menor consumo de agua, alta tasa de producción de biomasa en pocos días de crecimiento celular en agua salobre.
México como Colombia al igual que muchos países latinoamericanos son exportadores de petróleo, pero sus reservas probadas cada vez disminuyen. Por ello es necesario el estudio del potencial de la biomasa regional para la producción de bioetanol y biogás y al mismo tiempo la implantación de cultivos algales outdoor para producción de biodiesel cuidando la legislación y la sostenibilidad. Son muchos los retos que se tienen como el estudio de especies algales con alto contenido lipídico bajo metodologías implementadas y la adaptación a condiciones climáticas.
METODOLOGÍA
La primera parte consistió en una revisión científica literaria relacionada con el objetivo del proyecto. La segunda parte se centró en la obtención experimental de bioetanol a partir de pulpa y cascara residual de plátano y pulpa residual de mango. La obtención experimental del perfil de AG algal y el estudio de su potencial para la producción de biodiesel se llevó a cabo mediante análisis y discusión de investigaciones previas realizadas en el Laboratorio de Bioenergía del Programa de Estudios de Ingeniería en Energía de la Universidad Politécnica de Sinaloa (UPSIN).
La primera parte permitió establecer para el caso del bioetanol que la biomasa debe cumplir con altos rendimientos o presencia de compuestos sacáridos, siendo la fermentación alcohólica la tecnología más eficaz al emplear Saccharomyces cerevisiae dando buenos resultados de conversión a alcohol, el cual para fines energéticos debe ser purificado mediante destilación fraccionada y membranas que eliminen el contenido de agua en un porcentaje mayor a 96%, alcanzándose en la mayoría de los casos 99.9% de pureza. El caso experimental de producción estuvo basado en agregar levadura a biomasa previamente triturada y diluida en agua potable. Se usaron como reactores envases de plástico de 2 lt cerrados herméticamente para llevar a cabo la fermentación alcohólica anaerobia en un tiempo estimado de 5 días y en cuyo caso se apreció cualitativamente la acción del microorganismo sobre la digestión de la biomasa, la producción de CO2 como gas principal de la reacción bioquímica ocurrida y la producción de etanol una vez filtrada la muestra cuyo color y olor presento variación según el residual usado.
Para el caso de producción de biodiesel la técnica de conversión de AG contenidos en los lípidos únicamente es la transesterificación química catalizada por ácidos, álcalis o enzimas. El caso experimental estuvo basado en las microalgas Dunaliella tertiolecta y Nannochloropsis oculata las cuales presentaron crecimiento celular en 21-24 días respectivamente. Para la obtención de la biomasa se usó un agente floculante, siendo NaOH 1 M el que alcanzo en 99.9% de dicha recuperación, luego se aplicó liofilización para una biomasa completamente deshidratada color verde y olor a producto marino. Paso siguiente fue la extracción de lípidos empleando una mezcla de solvente y mediante la técnica de sonicación y soxhlet, finalmente se caracterizó por cromatografía de gases obteniendo un perfil lipídico para Dunaliella tertiolecta compuesto por AG saturados, monoinsaturados y polinsaturados tales como ácido palmítico, ácido mirístico, ácido linoleico y ácido linolenico clásicos y favorables para la producción de biodiesel, con rendimientos aceptables comparables con reportes científicos publicados.
CONCLUSIONES
Se lograron los conocimientos teóricos para producción de bioetanol y biodiesel como combustibles alternos que factiblemente pueden obtenerse tanto en México como en Colombia. De ello se deriva que: la biomasa óptima para producción de etanol de residuos agrícolas es aquella que contenga un alto contenido de sacáridos, utilizando pulpa, cáscara y/o hueso. En este proyecto de forma experimental los cambios bioquímicos se observaron en ese lapso, pero se dejó en un máximo de 5 días para una mejor observación. Para biodiesel es ideal que las microalgas sean oleaginosas y crezcan en aguas salobres como Dunaliella tertiolecta y Nannochloropsis oculata. En lo experimental se obtuvo un % acorde de AG saturados e insaturados con potencial para transesterificación por catálisis básica (NaOH). También se derivó que: un factor fundamental para elegir la biomasa es cumplir con la reglamentación vigente en el país correspondiente y garantizar que su uso no comprometa la producción alimentaria. A pesar de que existe mucha biomasa residual, es necesario hacer una caracterización fisicoquímica que avale el contenido de sacáridos, grasas y proteínas para garantizar la producción. Las condiciones de trabajo para los procesos bioquímicos que realizan los microorganismos son fundamentales, prioritariamente temperatura y nutrientes. Los procesos de refinación son importantes ya que estos combustibles vendrán acompañados de productos como agua y glicerol.
Girón Arcila Sebastián, Universidad del Valle
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
Girón Arcila Sebastián, Universidad del Valle. Graciano Herrera Gabriel, Instituto Politécnico Nacional. Herrada Serrano Jorge Luis, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En 2015 se produjo la primera observación directa de las ondas gravitacionales (GW) por parte del Observatorio de Ondas Gravitacionales por Interferómetro Láser (LIGO) y comenzó la era de la astronomía de ondas gravitacionales. El inicio de la astronomía de ondas gravitacionales trajo consigo algunos retos para la correcta detección y caracterización de las mismas.
La técnica utilizada para la detección se denomina Matched Filter (Filtro Adaptado, MF). Esta técnica supone que las señales a detectar están embebidas en un ruido gaussiano aditivo, de esta manera, los datos de los detectores se emparejan con plantillas de GW. Y las que minimizan la relación señal-ruido (SNR), se seleccionan.
Aunque el uso de MF ha sido capaz de proporcionar resultados precisos en la detección de GW, también es una técnica limitada. Una de esas limitaciones es que no hay plantillas para las GW generadas por supernovas tipo 2, o de colapso de núcleo (CCSNe), por lo tanto, la búsqueda de nuevos caminos se centra en la detección de ese tipo de GW.
Una opción que surge es implementar un modelo de Inteligencia Artificial (IA) que sea eficiente en el procesamiento de una gran cantidad de datos. El aprendizaje profundo (DL) es el subcampo del aprendizaje automático (ML) que ha demostrado ser competente en el análisis de datos y su posterior clasificación. Todo ello mientras es capaz de aprender y mejorar continuamente.
Mediante el uso de algoritmos de DL podemos identificar el ruido no gaussiano en la señal y así esa señal puede ser clasificada en dos conjuntos diferentes, uno que contiene sólo ruido y el segundo que está compuesto por ruido y una especie de GW.
Existe un algoritmo de DL llamado Red Neural Convolucional (CNN) que requiere un preprocesamiento mínimo de los datos en comparación con otro tipo de algoritmos de clasificación. Una CNN es capaz de aprender características siempre que se le proporcione suficiente entrenamiento. Además, los algoritmos CNN ya se han utilizado en el pasado para el reconocimiento de la GW.
METODOLOGÍA
Se utiliza la primera parte de la estancia para entrar en contacto con los conceptos que se trabajarán a lo largo del verano. Por ejemplo, las ondas gravitacionales y cómo se detectan. También se trabaja con los recursos. Para esto, se requirió herramientas computacionales como: Sistema operativo linux como entorno de desarrollo, python3 como lenguaje de programación, un paquete de software que contiene módulos para analizar datos de ondas gravitacionales y procesamiento de señales llamado PyCBC, además de TensorFlow para crear, entrenar y validar la Red Neuronal. Después, el profesor nos dio una guía donde explican e implementan una CNN con el fin de tener claro la arquitectura que se va a utilizar para la detección de GW.
Luego, ya configurado nuestro ambiente de trabajo, el investigador a cargo del proyecto nos proporcionó datos del LIGO. Estos datos contienen información de ambos interferómetros, H1 y L1, donde para cada uno de estos datos, la onda tiene una duración de 1200 segundos. Ya teniendo estos archivos, se implementaron los scripts para leer estos archivos, poder mostrarlos en una gráfica y a partir de módulos de pycbc, agregar a cada onda 61 inyecciones de GW distribuidas dando un factor. Una vez hecho esto, se procede a formar dos arreglos de datos, uno para H1 y L1 que contengan 6 segmentos de la onda por cada inyección, tres de estos son segmentos contienen solo ruido y los otros tres contienen ruido más onda gravitacional. Esto quiere decir que por cada Job se extraen 366 datos diferentes. Este número viene del producto entre el número de Jobs por el número de segmentos que se extraen por Job(61*6).
Ya teniendo estos datos(Strain Data H1 y Stain Data L1), se debe hacer un preprocesamiento antes de formar el dataset .Este preprocesamiento consta de tres pasos,el primero es un pasabanda HighPass, un filtro que da paso alto a los datos de baja frecuencia y este se aplica para eliminar ruido.El segundo, blanqueamiento de los datos, toma los datos e intenta hacer que la densidad espectral sea plana, de modo que todas las frecuencias contribuyan por igual.
El tercer paso, la transformación constante-Q, es similar a un espectrograma estándar hecho con transformación de fourier de corto tiempo con la ventaja de que los contenedores de frecuencia están más espaciados a altas frecuencias. Por último, antes de pasar al entrenamiento de la CNN, se debe formar el dataset. Para esto se guarda la información de Stain Data H1 y L1 ya preprocesado, seguido de la etiqueta correspondiente si es o no GW ( 0 = ruido, 1 = ruido + GW) y también un arreglo con el tipo de inyección.
Ahora, ya previamente generado el dataset, se hizo el entrenamiento de la red neuronal basándonos en la arquitectura CNN estudiada al principio de la instancia.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las ondas gravitacionales, cómo son detectadas y su caracterización. También se adquirieron conocimientos teóricos además de destrezas prácticas con temas relacionados con la inteligencia artificial, más específicamente Deep Learning, área del Machine Learning.
La red neuronal desarrollada que fue entrenada y probada con un dataset generado durante la estancia y entrega una eficiencia de alrededor del 85% para detectar correctamente si en una señal capturada por los interferómetros podemos encontrar solamente ruido o ruido acompañado de una onda gravitacional.
Por limitaciones de recursos computacionales y de tiempo, la red neuronal fue entrenada y testeada con solamente una parte del dataset generado. Por esta razón se espera que el porcentaje de efectividad de la CNN pueda mejorar sustancialmente al utilizar la totalidad de los recursos generados para ello durante la estancia.
Girón López Carolina, Universidad de Guadalajara
Asesor:Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
Cuellar Rizo Jimena Lizeth, Universidad de Colima. Girón López Carolina, Universidad de Guadalajara. Asesor: Dra. Lucila del Carmen Arias Patiño, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo es en colaboración con la Dra. Noemí Yolada Velázquez Suárez y el compañero José Enrique Velasco Ortega.
El inicio de la pandemia ha causado grandes cambios significativos en diversos sectores, siendo la educación uno de los más afectados siendo transferida a un formato virtual en su totalidad, ocasionando deficiencias a todos los sectores educativos.
En el nivel superior, en especial las carreras afines a las ciencias exactas, debido a la necesidad del conocimiento teórico-práctico que estas requieren, así como la necesidad de un constante seguimiento por parte del docente que imparte dicha materia en esta modalidad evidenció la falta de material de apoyo. Por lo que en el verano de investigación se propusieron herramientas didácticas para apoyar a los estudiantes y facilitar el autoaprendizaje.
OBJETIVO GENERAL
Generar herramientas para una educación de calidad en las ciencias exactas.
METODOLOGÍA
Para realizar la investigación se realizó una encuesta alrededor de 500 estudiantes de nivel licenciatura con formación afín a las ciencias exactas, donde se pretendía conocer un contexto personal y académico de los encuestados, así como conocer la viabilidad del proyecto. Posteriormente se realizó un informe de resultados en donde se establecieron las áreas de oportunidad del proyecto, la experiencia de los estudiantes en la educación en línea y la viabilidad de este.
Una vez conocidos los resultados se asignó a cada uno de los equipos una de las áreas de las que resultaron con mayor deficiencia de comprensión, en el caso de mi equipo el área asignada fue física enfocada a termodinámica, electricidad y magnetismo.
Para ello, se analizaron los planes de estudios de las diferentes universidades de las materias antes mencionadas y basados en la experiencia de cada uno de los integrantes, en las necesidades de los encuestados se eligieron los temas más relevantes con lo que se realizaron infografías informativas, problemarios, formularios, y la recopilación de material de apoyo como softwares interactivos, canales informativos de videos, bibliografía y buscadores de libre acceso.
Una vez generado el material, se procedió a una prueba piloto enfocado al grado de aceptación, así como la posibilidad de mejorar su contenido antes de la entrega final.
Aplicada la encuesta se procedió a la revisión de los comentarios y opiniones, atendiendo los más frecuentes para hacer las mejoras sugeridas y de esta manera obtener un producto final de calidad y de agrado para los estudiantes que utilizarán el material disponible.
Por último, se esperó la autorización del investigador a cargo del proyecto para continuar con la elaboración del resumen y/o reporte de las actividades que se desarrollaron durante en la estancia.
RESULTADOS
La encuesta aplicada tuvo un alcance de 487 estudiantes, mencionando tener problemática con las siguientes áreas:
Matemáticas 33.5% (163/487)
Física 33.1% (161/487)
Química 22.6% (110/487)
Otros 10.8% (53/487)
A continuación se muestran los porcentajes de problemática de cada área en específico, según los temas de conflicto que los alumnos mencionaron:
Matemáticas (163)
Ecuaciones diferenciales 55.8% (91/163)
Calculo diferencial e integral 28.8% (47/163)
Algebra 9.2% (15/163)
Otros 6.2 % (10/163)
Física (161)
Electricidad y magnetismo 41% (66/161)
Termodinámica 37.9% (61/161)
Dinámica 9.9% (16/161)
Estática 7.5% (12/161)
Otros 3.7% (6/161)
Química (110)
Química orgánica 36.4% (40/110)
Fisicoquímica 32.7% (36)
Química analítica 11.8% (13/110)
Química inorgánica 10.9% (12/110)
Otros 8.2% (9/110)
Una vez identificadas las áreas de oportunidad a trabajar y realizado el trabajo para dar una solución a la problemática que se generó debido a la situación actual en la que nos encontramos, se creó una carpeta en Google Drive donde se ordenó de forma clara todo el contenido realizado. En este caso se trabajó el área de física con termodinámica, electricidad y magnetismo, donde se produjeron infografías, resúmenes, ejercicios resueltos y de práctica. Además se buscó simuladores, videos y bibliografía de apoyo para esta área. Posteriormente se aplicó una segunda encuesta con la finalidad de conocer el grado de aceptación del material, siendo este aceptado por los encuestados.
CONCLUSIONES
Durante la estancia de verano se logró adquirir diversos conocimientos acerca de las áreas que se identificaron como de oportunidad, ya que se analizaron a detalle cada una de las materias para poder plasmar la información en recursos de uso libre y que de esta manera resultara, para los estudiantes, más fácil su estudio y comprensión.
También se adquirieron y/o desarrollaron habilidades, aptitudes y competencias como la capacidad de resolución de problemas, trabajo colaborativo, proactividad, iniciativa, innovación, adaptación, comunicación, desarrollo de relaciones interpersonales y uso de información digital confiable que sin duda alguna servirán de apoyo para nuestro crecimiento personal y profesional.
Yo Carolina, sin duda alguna el haber formado parte del verano Delfín ha sido una de las mejores experiencias que he tenido como estudiante universitaria, ya que aparte de aprender cosas que no sabía, me dió la oportunidad de conocer profesores, compañeros de otras carreras y de otros estados.
Yo Jimena, la estancia de verano fue una experiencia agradable y gratificante, el acercamiento con investigadores y personas de diferentes áreas de formación me ha vuelto más crítica, ambiciosa y responsable.
Godínez Márquez Daniela Noemí, Universidad Politécnica de Tecámac
Asesor:M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
Alvarez Esperon Neri Alejandro, Universidad Politécnica de Tecámac. Godínez Márquez Daniela Noemí, Universidad Politécnica de Tecámac. Pérez Ponce Anahí, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
La máquina de envejecimiento acelerado tiene como finalidad controlar la temperatura, humedad, luz ultravioleta y el tiempo en el que se activa una bomba de agua para inyectar agua salada al material a envejecer, es decir; simula el rocío y la lluvia con humedad condensada y/o spray de agua. El equipo de intemperismo acelerado de la máquina de envejecimiento es el equipo de intemperie más simple y fiable, pero hasta ahora, esta máquina es controlada manualmente, por lo que provoca un lapso más largo al momento de su uso, así como atraso en diversas actividades.
Hoy en día la automatización de los procesos es fundamental para poder aumentar la productividad, dado que simplifica las operaciones, permitiendo que el equipo de trabajo pueda enfocar más tiempo y esfuerzo en otras actividades más estratégicas, que le reportarán mayores beneficios.
Todo proceso está conformado por tareas y/o actividades; las mismas que pueden simplificarse automatizando las actividades repetitivas y operativas. Así que, volviendo al tema de la máquina de envejecimiento acelerado, se creará un circuito integrado con sensores, esto reducirá el tiempo de ejecución del proceso y así como los errores que se puedan presentar al trabajar de forma manual, facilitando las actividades de control. Para ello se establecerá una comunicación máquina a máquina, esto se logrará con ayuda del protocolo MQTT y el internet de las cosas; así, la actividad industrial será más rentable y tendrá una mayor capacidad para adaptarse a los cambios que puedan producirse.
METODOLOGÍA
El tema principal es la implementación de la industria 4.0 y el internet de las cosas en la máquina de envejecimiento acelerado. Siendo objetivo principal la automatización de procesos en la máquina. Por ello, la metodología implementada se basa en la prototipada, que, consiste en un proceso iterativo enfocado en diseñar, implementar, medir y ajustar un plan. Este modelo se utiliza para dar al usuario una vista preliminar de parte del software.
Se utilizaron 4 principal software pare el desarrollo del proyecto los cuales se incluyen Balsamiq, Fritzing, Visual Studio y Arduino. Los cuales sirvieron para el modelado y el desarrollo del prototipo.
Las etapas para diseñar e implementar la metodología prototipada son:
Recolección y refinamiento de requisitos: Se recabo la información de la maquina como su funcionamiento, Requerimientos funcionales y no funcionales para la aplicación móvil. Una vez Recabada la información se realizaron los diagramas de bloques y flujo del sistema para una mejor compresión.
Modelado, diseño rápido: Se realizo un modelado de la aplicación móvil con la herramienta de Balsamiq y para la parte del circuito se utilizó Fritzing, este paso nos brindó información para el desarrollo de un primer prototipo.
Construcción del Prototipo: A través del programa Visual Studio, se comenzó la creación del prototipo de Balsamiq, además se implemento el protocolo MQTT y las herramientas NuGet de HTTPupt y Microcharts para la visualización de los datos.
Desarrollo, evaluación del prototipo por el cliente: Al término del desarrollo de cada prototipo, el investigador y los alumnos evaluaban el diseño y funcionamiento de la aplicación móvil y el circuito elaborado.
Refinamiento del prototipo: Se propusieron ideas para el mejoramiento de la aplicación, según el desempeño del prototipo.
Implementación: Se actualiza el prototipo y se implementan las propuestas planteadas en la anterior etapa por los alumnos y el investigador.
CONCLUSIONES
En conclusión, el Internet de las cosas está tomando un gran nivel en la tecnología ya que permite la automatización de procesos ejecutados por diversos objetivos, tanto en sectores empresariales como en espacios domésticos.
La industria 4.0 persigue un nivel de cambio radical, haciendo referencia a la incorporación de las nuevas tecnologías de la información a los procesos de producción
El proyecto que se desarrolló para ayudar a obtener y visualizar la información que envían los sensores de la máquina de envejecimiento acelerado de materiales metálicos, esto con el fin de facilitar los procesos y control de la máquina.
Se abordaron diferentes etapas basadas en la metodología de prototipado, en las cuales se mencionan:
Recolección y refinamiento de requisitos
Modelado, diseño rápido
Construcción del Prototipo
Evaluación del prototipo por el cliente
Refinamiento del prototipo
Producto de Ingeniería
Dicha metodología se utilizó ya que no modifica el flujo del ciclo de vida del sistema, además de que reduce el riesgo de construir productos que no satisfagan las necesidades de los usuarios.
Godinez Zeferino Ricardo, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
INTERNET DE LAS COSAS
INTERNET DE LAS COSAS
Godinez Zeferino Ricardo, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La parte desarrollada por un servidor consta de una red de sensores inalámbricos (Wireless Sensor Network), con ayuda del programa OMNeT++ el cual es un simulador modular de eventos de redes orientado a objetos, esto con la finalidad de que exista la conexión entre dichos objetos sin la necesidad de recrear la red de forma física, ya que con el visualizador de eventos que tiene incluido nuestro programa podremos observar lo que pasa.
La implementación del lenguaje de programación C++ dentro del entorno de simulación para el desarrollo y diseño de una red de sensores inalámbricos.
Anteriormente había practicado con otro programa similar a OMNeT++ llamado Cisco Packet Tracer, aunque es similar la diferencia entre uno y otro es que en OMNeT++ hace uso de la programación embebido así que una de las principales herramientas y a mi parecer ventaja es el uso del lenguaje C++, mencionando trabajos similares al presente se encuentran las distintas practicas de Cisco, tal es el caso de RIPv2, EIGRP, OSPF, RSTP, entre otras del rubro.
Ahora por parte de la programación no había tenido experiencias similares a lo desarrollado en esta ocasión razón de esto es el poco uso del lenguaje de programación mencionado anteriormente, el lenguaje mas usado por un servidor ha sido Java, sin embargo, considero que esa diferencia entre lenguajes no ha sido lo que más ha resultado complicado al momento del desarrollo del proyecto actual.
El problema abordado, es el desarrollo de la red de sensores en este entorno, el problema personal fue la baja experiencia en dicho programa por ende no el no estar familiarizado con el uso de las distintas herramientas y los componentes.
La propuesta dada por los asesores, además del apoyo dado, fue seguir experimentando con los ejemplos dados por el programa esto con el fin de familiarizarse más con el entorno y saber como desarrollar proyectos con este.
METODOLOGÍA
El simulador OMNeT++
Material de apoyo relacionado y propio de dicho programa, así como videos explicativos e investigación personal acerca de conceptos y componentes de los cuales desconocía su unción y su uso.
En el apartado de conceptos los más usados e investigados son OMNeT++, Wireless, Network, Sensores, C++,
El problema fue abordado con la investigación dedicada acerca de lo solicitado, además del apoyo brindado por los asesores designados y el material extra brindado por los mismos, cabe remarcar que al saber que no contaba con la experiencia necesaria los asesores hicieron todo lo posible por brindarme material para el entendimiento del programa para de esta manera concluir con el proyecto.
Para empezar lo propuesto fue, analizar los ejemplos que trae el programa preinstalados, de esta manera generando experiencia en el entorno, generar de igual manera sesiones para resolver dudas y observar el avance generado, de manera propia el esfuerzo por comprender el entorno, con ayuda de lo investigado y de lo aportado por los asesores.
Primero que nada, se llevaron a cabo sesiones con los asesores, para que se nos asignasen las actividades a realizar en el periodo, siendo esto parte vital para el comienzo de los procesos posteriores, comenzando por la investigación.
Prosiguiendo con el comienzo del desarrollo se llega a la parte de la investigación que es de vital importancia para el entendimiento y el contexto de lo que se va a trabajar, siendo así llevado a cabo a lo largo de todo el periodo, ya que, con el avance, van surgiendo dudas que de alguna u otra manera se resuelven con ayuda de la investigación.
De igual menara la lectura de los manuales y los materiales de apoyo fueron de vital importancia para el desarrollo.
Utilización del entorno para pruebas ganando experiencia en su uso.
Para finalizar, la implementación de lo adquirido con las investigaciones y lecturas, llevando a el entorno, el desarrollo de la red de sensores en OMNeT++, con el respectivo trabajo de programación y diseño.
Con los resultados se espera obtener el conocimiento acerca de las redes de sensores de manera inalámbrica para en posibles oportunidades posteriores llevarla a cabo de manera física, siendo el proceso llevado a cabo en este periodo de vital importancia para el aprendizaje acerca de los componentes y de su utilización en estos entornos, un posible uso para lo aprendido en este lapso y lo desarrollado sería en el ámbito laboral, como ejemplo en cualquiera que sea la empresa se puede llevar a cabo la implementación de dichos sensores, o de los sensores que se requieran, y evitar que estos mantengan una conexión cableada, ya que en ocasiones suele ser estorbosa o más enredada.
CONCLUSIONES
En conclusión, me llevo una grata experiencia al trabajar con asesores tan dedicados a el apoyo en cuestión de dudas y problemas que surgieron a lo largo de la duración de este periodo. Además, por supuesto de el aprendizaje sobre este programa, que quizá no haga uso inmediato de l mencionado sin embargo me encuentro seguro de que habrá otras oportunidades en las cuales hare uso de esta herramienta tan versátil.
De manera personal, me sentí algo frustrado ya que no otorgaba los avances que los asesores en un principio deseaban, por diversas situaciones me era complicado comprender al completo la manera de trabajo del programa, pero vuelvo a remarcar que el apoyo total de los asesores me fue de gran ayuda para finalizar con el cometido, me llevo no solo la experiencia de trabajar con grandes personas, sino de igual manera la satisfacción de tener su apoyo. Oportunidades como esta no se presentan habitualmente.
Godoy Mendoza Assael, Universidad Autónoma de Baja California
Asesor:Dra. Mayra Angélica Alvarez Lemus, Universidad Juárez Autónoma de Tabasco
EVALUACIóN DE LA ESTABILIDAD DE ESFERAS MONODISPERSAS DE SIO2 MESOPOROSO.
EVALUACIóN DE LA ESTABILIDAD DE ESFERAS MONODISPERSAS DE SIO2 MESOPOROSO.
Godoy Mendoza Assael, Universidad Autónoma de Baja California. Asesor: Dra. Mayra Angélica Alvarez Lemus, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas en la aplicación de nanopartículas para la recuperación mejorada de aceites (EOR, Enhanced Oil Recovery) es la estabilidad de estas bajo condiciones de altas concentraciones de sales. La dispersión de nanopartículas en fase acuosa no es termodinámicamente estable, por lo que se deben encontrar materiales alternativos que ayuden a la estabilidad de las nanopartículas en soluciones acuosas si se requieren utilizar para la EOR[1]. Una característica que se ha utilizado como criterio para predecir la estabilidad de nanopartículas es la medición del potencial zeta, que es una medida de la magnitud de la repulsión o atracción electroestática entre las partículas [2].
METODOLOGÍA
METODOLOGÍA
Se sintetizaron esferas de sílice con una porosidad específica partiendo de una síntesis típica de Sol-Gel empleando CTAB como plantilla [4]. El precursor de silicio fue tetraetilortosilicato (TEOS) y se empleó NaOH y etanol. Una vez realizada la síntesis, se realizaron lavados con agua desionizada y etanol, variando el volumen empleado de este en cantidades de 10, 25, 50 y 75mL.
Mediante la caracterización por espectroscopía FTIR, se observaron las bandas características del SiO2 puro alrededor de 800 y 1097cm-1 [3], la ausencia de bandas características del CTAB confirmaron la exitosa eliminación de este. La Difracción de Rayos-X indico la obtención de SiO2 amorfo, mientras que los valores de potencial zeta en agua fueron entre -35.1 y -27.0 mV. La modificación de las esferas obtenidas se realizó empleando una solución de quitosano, la presencia de una banda ancha alrededor de los 3500 cm-1 confirma la presencia e interacción entre el SiO2 y el polímero. La realización de pruebas de estabilidad visual mostró que las partículas, previas a la modificación, en solución salina se sedimentaban por completo a partir de los 30 minutos. Las pruebas de fisisorción comprobaron la mesoporosidad y la ausencia de microporos. Se obtuvieron esferas mesoporosas de alrededor de 550m3/g.
CONCLUSIONES
Se logró adquirir conocimiento acerca de la obtención y los parámetros de síntesis de esferas de sílice mesoporosas. Se confirmó exitosamente la formación de mesoporos en las nanopartículas tras el análisis por fisisorción de nitrógeno, en el rango cercano a 3 nm como medida promedio de los poros. Tras la confirmación de interacción del polímero quitosano con las esferas sintetizadas se espera observar una mejora en la estabilidad en fase acuosa en medio salinos. Debido al tiempo limitado de la estancia, no se pudo comprobar la monodispersión de las mismas. Sin embargo, espera observar una mejora en la disminución de la aglomeración de las partículas por medio de microscopías electrónicas de barrido y transmisión.
Góez Sauceda Kimberly Xiomara, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
RECORRIDO VIRTUAL INTERACTIVO 360° EN EL SENDERO BELLAVISTA DEL ÁREA PROTEGIDA LA ROMERA EN SABANETA, ANTIOQUIA-COLOMBIA
RECORRIDO VIRTUAL INTERACTIVO 360° EN EL SENDERO BELLAVISTA DEL ÁREA PROTEGIDA LA ROMERA EN SABANETA, ANTIOQUIA-COLOMBIA
Góez Sauceda Kimberly Xiomara, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Mg. Aline Isabel Melo Henríquez, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
PLANTEAMIENTO DEL PROBLEMA
El Área Protegida Reserva La Romera es un punto de conexión entre los municipios de Sabaneta, Caldas, Envigado y El Retiro; y sus caminos que conectan con otros sectores de montañas de localidades vecinas, es visitado para el avistamiento de aves y otros animales silvestres, posee una temperatura de 12 a 18 grados Celsius característica del bosque Altoandino y de niebla.
Según los Libros Rojos de Colombia y la UICN (2017) el Cacique Candela (Hypopyrrhus pyrohypogaster), la Reinita alidorada (Vermivora chrysoptera) y la Perdiz colorada (Odontophorus hyperythrus) las cuales son especies que se conservan en La Reserva, se encuentran en estado de Casi amenazadas (NT). (Montoya, D., 2019).
Es por esto que pensar en estrategias de educación ambiental en medios digitales da oportunidad a la divulgación y apropiación del conocimiento del Área Protegida de manera integral a los diversos usuarios que accedan a un recorrido interactivo en el cual la comunidad académica complemente su formación y la comunidad en general reconozca el valor de este ecosistema.
METODOLOGÍA
Se realizó una exhaustiva revisión bibliográfica sobre los recorridos 360°, antecedentes del proyecto y el marco legal.
Para este se hizo un trabajo de campo en una visita al ANP La Romera con el acompañamiento de un guardabosque para realizar las tomas fotográficas por el sendero Bellavista, para esto se maneja una cámara con ojo de pez para facilitar la captación panorámica, además de apoyarse de un trípode que tiene una rotación de 360°.
Se utilizó el software Pano2VR especial para recorridos virtuales, ya que convierte fotos y videos panorámicos o de 360 ° en experiencias interactivas.
Adicionalmente, se procedió con un registro fotográfico de especies que se visualicen en el recorrido, grabaciones cortas del ambiente, diario de campo escrito para anotaciones específicas sobre el ecosistema y grabación de sonido para ambientar el recorrido 360°.
Se subieron las fotografías en el software y se creó el efecto en 3D para moverse en diferentes escenas, con la opción de incluir fotos, información, acercarse para ver detalles y otros elementos. La información ha de incluir recomendaciones en caso de visita, la importancia para la protección de las especies que habitan este ecosistema, las funciones ecológicas de estos, etc.
Luego, se agregaron los elementos interactivos, como, ventanas emergentes informativas, puntos de acceso para fotos, sonido direccional y video a la panorámica, mediante la adición de botones y controladores personalizados en su propio diseño para la adaptación a cualquier pantalla.
CONCLUSIONES
La identificación de las especies de fauna y flora presentes en La Reserva La Romera permitió hacer del entorno virtual una experiencia cercana al ecosistema, además de aportar a profesionales en el tema sobre su estado de conservación para el cumplimiento del marco legal Nacional y los ODS.
Un recorrido virtual interactivo de fácil acceso apoya a la conservación de los ecosistemas terrestres, llegando a todo tipo de público, como un proceso de enseñanza-aprendizaje en conexión con la naturaleza.
La implementación de medios digitales (como el software Pano VR2) y dispositivos tecnológicos (Computadores, tablets, celulares) son una gran herramienta para la educación ambiental, permitiendo la difusión del conocimiento a todo tipo de público o usuarios que accedan a estos, con el fin de resaltar la importancia del entorno natural de la experiencia virtual, para su conservación.
Gomez Bernal Geraldine, Universidad La Gran Colombia
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
LA IMPLICACIÓN DE LOS MATERIALES ANCESTRALES CON LA NANOTECNOLOGÍA PARA DIFERENTES TIPOS DE ENVOLVENTES
LA IMPLICACIÓN DE LOS MATERIALES ANCESTRALES CON LA NANOTECNOLOGÍA PARA DIFERENTES TIPOS DE ENVOLVENTES
Gomez Bernal Geraldine, Universidad La Gran Colombia. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La nanotecnología tiene como objetivo estudiar, desarrollar, aplicar y manipular materiales desde un nivel atómico, en el cual se pueden observar átomos y moléculas que sirven para generar o modificar estructuras con propiedades optimizadas. Por ende los nanomateriales son productos derivados de la nanotecnología y se determinan por el tamaño, forma y estructura molecular de las partículas, esto influye en las propiedades ópticas, mecánicas, térmicas, eléctricas, entre otras, que se pueden llegar a obtener. [1]
En la actualidad se han logrado avances tecnológicos con el aporte de la nanotecnología abordando diversas áreas de estudio, asimismo se ha obtenido avances de los materiales artificiales y modernos sustituyendo en gran parte los materiales tradicionales, por esto se busca una implicación de ambas metodologías que cumplan con la función de combatir los fenómenos físicos, químicos y biológicos a los que se someten dichos materiales, adaptando materiales naturales con adiciones de nanopartículas que provean propiedades específicas y avanzadas de manera eficiente, durables, livianas, sostenibles y que contengan descontaminantes de la atmósfera para aplicarlo como envolventes o recubrimientos de las diversas construcciones.
Los cerramientos o envolventes son los que se ven mayormente afectados por los agentes atmosféricos y se puede evidenciar en las construcciones vernáculas donde los materiales sufren daños o complicaciones debido a esto y a la falta de mantenimiento, repercutiendo en la estabilidad y resistencia. Por ende la construcción vernácula busca materiales naturales (rocas, tierra, madera, etc.) de los medios locales para implementarlos en la construcción de manera ecológica, económica y práctica, pero que a su vez busca solventar estas problemáticas sin dejar a un lado los medios ancestrales.
METODOLOGÍA
En las conferencias impartidas se investigó cómo los nanomateriales modificaron algunas de las propiedades del concreto para optimizar su función, y aminorar efectos adversos como la contaminación, donde se aplican compuestos químicos como el dióxido de titanio (TiO2). Se realizan pruebas para identificar qué cantidad de este elemento puede llegar a mejorar las propiedades del concreto para que sea antibacteriano.
Empezando por la parte teórica, se deben conocer primero las propiedades físicas y químicas del material a manipular, y el tipo de sustancia que se quiere adicionar, esto conlleva a estudios previos de cada componente y su posible reacción.
Etapa de análisis y caracterización de las muestras:
En la etapa de caracterización se realizan dos análisis de muestras, en el que se adiciona el dióxido de titanio puro y el dióxido de titanio dopado con tulio, se hacen bajo las mismas condiciones, primero se analiza la estructura y morfología mediante microscopios de difracción de rayos x (DRX), electrónico de barrido con detector (SEM-EDS) y electrónico de transmisión (TEM), con el fin de observar las fases cristalinas y transparencias a una escala nanométrica para obtener imágenes de alta resolución.
En la caracterización óptica se analiza la fotoluminiscencia, pruebas de infrarrojo (FTIR) y UV-vis-NIR de las bandas de tulio, para detectar si existen presencia de cuerpos y que movimientos vibracionales genera la estructura molecular.
Se procede con el análisis eléctrico por medio de la fotosensibilidad y por último se analiza la fotocatálisis, la cual se realiza con la degradación de colorante, se llevan a cabo todas estas pruebas para saber qué efecto tiene el dopaje en las propiedades del dióxido de titanio.
La fase de adicción del TiO2 al concreto, se realiza en estado sólido del material para que las nanopartículas ingresen a través de los poros, rellenando los vacíos e interactuando con los demás partículas, volviendo de cierta manera mucho más denso el material, se deduce entonces que los tamaños de las partículas de la adición deben ser menores para que tenga una mejor accesibilidad, de tal manera que el material quede sellado y reforzado aportando mejores comportamientos frente a los contaminantes de la atmósfera.
Las contribuciones que crean los nanomateriales son diversas al entrar en contacto con otras partículas, como las de TiO2 donde el material aumenta su área superficial generando la fotocatálisis para descomponer los óxidos contaminantes de la atmósfera aportando también una autolimpieza, por otra parte se pueden emplear recubrimientos de nanofibras como los nanotubos de carbono que producen mayor resistencia en el agrietamiento (retracción). [1]
CONCLUSIONES
Como resultado se manifiestan mejoras en la fuerza de compresión y ductilidad del concreto, además de las propiedades fotocatalíticas que se adquieren a través de los enlaces del óxido para reducir y mineralizar los agentes contaminantes, que lo convierten en un material antibacteriano y autosuficiente.
En conclusión los nanomateriales se adecuan a una amplia variedad de materia prima, consiguiendo un desarrollo, transformación y renovación óptima de las propiedades del material, pudiendo enfrentar fenómenos y agentes contaminantes, con esto se espera seguir experimentando la adición de nanopartículas en materiales tradicionales gestionando un manejo apropiado en los cerramientos y envolventes naturales dentro del ámbito de la construcción e impactando menos en la contaminación del medio ambiente.
Agradezco las investigaciones del Dr. Jorge Borrego, Dra. Elia Mercedes Alonso, Dr. Adria Sánchez Calvillo y por supuesto a mi asesor Wilfrido Martínez Molina.
REFERENCIA
[1] Tsotsis, G. (2018). Aplicaciones de la nanotecnología en los materiales de la construcción. Universitat Politècnica de Catalunya. https://n9.cl/zgs8g
Gómez Cruz Ana Cristina, Universidad Nacional de Ingeniería
Asesor:Dr. Carlos Juarez Toledo, Universidad Autónoma del Estado de México
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
Gómez Cruz Ana Cristina, Universidad Nacional de Ingeniería. Asesor: Dr. Carlos Juarez Toledo, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
La industria cosmética es uno de los sectores de mayor crecimiento anual en economía que tiene el objetivo de mejorar aspectos físicos de las personas, en la cual para que un nuevo producto salga al mercado pasa por fases como desarrollo galénico, fabricación y control de calidad. Posteriormente en muchas ocasiones su calidad en la pigmentación de los tonos no es la más adecuada ya que son fabricado con materiales inapropiados para la piel o que no se adaptan a ella. El objetivo de este trabajo es diseñar e implementar un colorímetro para identificar la pigmentación de las sombras para así crear mejoras en la línea de productos que garantice que la sombra aplicada al parpado tiene el mismo color e intensidad que el de la paleta por la cual nos basaremos en la escala RGB que integra tres colores que nos permite identificar la luminosidad del rojo, verde y azul en diferentes proporciones.
METODOLOGÍA
Diseñar y construir un dispositivo (colorímetro) que sea capaz de reconocer e identificar el tono y la intensidad de color para tener una medida más objetiva en ciertas sombras. Para desarrollar el circuito, se estarán utilizando muestras que ayuden a diferenciar pigmento, en donde explicaremos el funcionamiento del componente del circuito del sistema de selección de color, así como los programas incluidos en la placa Arduino.
CONCLUSIONES
El tipo de sombras que se utilizo para llevar a cabo las muestras son de diferentes lotes de paletas con tonalidades de diferentes tonos de azul, verde y rojo, adicionando el color blanco. Posterioemente se seleccionó este tipo de sombras debido a que por sus tonos son colores primarios que los encontramos incorporados en la escala RGB, que son los más usuales para la fabricación de cosméticos.
Para experimentar el sistema se utilizaron sombras de cuatro tonos que contenían colores claros y oscuros, que permitieron por medio del sensor comprobar la saturación del producto cosmético, identificando las de mayor pigmentación y menor.En cuanto a los ensayos llevados a cabo muestran la variabilidad tonalidades y que con la aplicación del dispositivo se mejorara la calidad en pigmentación entre tonalidades.
Gómez Figueroa Andrés, Universidad de Guadalajara
Asesor:M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
METODOLOGíA PARA LA GENERACIóN DE UN MODELO MATEMáTICO DE ANáLISIS DE DEPRESIóN: CASO DE ESTUDIO CHATBOT CON TEST DE HAMILTON MEDIANTE IA.
METODOLOGíA PARA LA GENERACIóN DE UN MODELO MATEMáTICO DE ANáLISIS DE DEPRESIóN: CASO DE ESTUDIO CHATBOT CON TEST DE HAMILTON MEDIANTE IA.
Bibiano Cortés Karla Vanessa, Instituto Tecnológico de Acapulco. Gómez Figueroa Andrés, Universidad de Guadalajara. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desarrollo de un prototipo de chatbot y modelo matemático de Deep Learning enfocado al diagnóstico de la depresión en jóvenes y adultos utilizando redes neuronales para predecir la puntuación del usuario en la Hamilton Depresion Rating Scale (HDRS), y con base en el resultado realizar un diagnóstico preliminar de depresión.
Se busca el análisis profundo del comportamiento de las personas que tienen el trastorno de depresión, para buscar alternativas de solución para que las personas puedan mejorar su estilo de vida. Se ha pensado que el desarrollo de este proyecto pueda ayudar a muchas personas a la detección temprana de enfermedades mentales y emocionales.
Carecer de salud psicológica puede ocasionar en los individuos males fuertes como la depresión, este es un trastorno emocional que causa un sentimiento de tristeza constante y una pérdida de interés en hacer diferentes ocupaciones. También denominada «trastorno depresivo mayor» o «depresión clínica», afecta los sentimientos, los pensamientos y el comportamiento de una persona, y puede causar una variedad de problemas físicos y emocionales.
Nuestro proyecto explorará las posibilidades de tecnologías como Inteligencia Artificial haciendo uso de un chatbot, para entender y promover la salud mental, este será capaz de detectar indicios de depresión en las personas y calificar que tan probable o no es que esa persona desarrolle esa enfermedad con predicciones de la puntuación del usuario en el test de Hamilton Depresion Rating Scale (HDRS).
METODOLOGÍA
Para el desarrollo de este proyecto seguimos la fase de la Investigación Aplicada, la cual fue guía para llevar a cabo acciones y obtener nuestros resultados. Se diseñará una pequeña web para implementar el chatbot y experimentar con este mismo, será sencillo y se pretende que desde este sitio se pueda acceder al agente con el que interactuará el usuario final. Las mediciones se harán con Machine Learning como motor de inferencia basado en algoritmos de aprendizaje supervisado por expertos clínicos multidisciplinares. La limitante es que el usuario no puede enviar respuestas abiertas, sino seleccionar un conjunto de opciones predeterminadas.
Herramientas:
-Lenguaje de programación: Python 3.9.0
-Editor de código: Visual Studio Code
-Plataforma de desarrollo colaborativo: Github -Infraestructura de Chatbot: Watson Assistant (IBM)
-Librería para entrenamiento de datos: Tensorflow (Google)
-Librería para diseño de sitios web: Bootstrap.
Extraer los datos muestra recopilados de la encuesta
Con ayuda de la herramienta de Google Forms realizamos nuestras preguntas basadas en el Test de Hamilton y la pusimos al público, donde capturamos un total de 206 datos.
Posteriormente los pasos fueron:
-Dividir los datos para el entrenamiento, validación y prueba.
90% dataset para pruebas
10% dataset para validación
-Definir las métricas para la precisión del modelo.
Modelado predictivo de regresión
El modelado predictivo es el problema de desarrollar un modelo utilizando datos históricos para hacer una predicción sobre nuevos datos donde no tenemos la respuesta. En nuestro caso la métrica elegida para evaluar y reportar el desempeño de el modelo de regresión fue el error absoluto medio.
Elaboración del chatbot con IBM Watson
Se desarrolló un chatbot utilizando el servicio de IBM Cloud llamado Watson Assistant, el asistente fue llamado Hamilton. De acuerdo a la documentación de los asistentes de Watson Assistant, este debe contener al menos una skill para interactuar con el usuario. Se escogió agregar una skill del tipo actions, debido a que es la más rápida de implementar y cuenta con todas las funciones que requieren nuestro chatbot, tales como consultas condicionadas y variables de entorno.
Al comenzar la interacción con el agente, este saluda al usuario y explica brevemente que para ayudar a conocer si este padece depresión debe hacer algunas preguntas, en caso de que el usuario no esté de acuerdo, el asistente se despide y termina la interacción, de lo contrario la prueba de Hamilton comienza.
La acción de hacer el test consta de 23 pasos, los cuales contienen las 16 preguntas, 2 pasos que calculan la puntuación final del usuario y la muestran en la conversación, y los 5 restantes corresponden a las respuestas condicionadas a la puntuación final del usuario, es decir, el diagnóstico que el asistente realizó con base en las respuestas del usuario y su nivel predicho de depresión.
El asistente contiene además, 17 variables, las cuales corresponden a cada una de las 16 respuestas que el usuario dará en el test de Hamilton y una más para la puntuación final correspondiente a la suma de los puntos.
CONCLUSIONES
Este proyecto propone una vía útil para que cualquier persona que lo requiera tenga la capacidad de recibir un diagnóstico preliminar acertado acerca de si padece o no algún nivel de depresión. Este diagnóstico está dado por la comunicación trilateral entre el paciente, el chatbot y la red neuronal artificial, y basado en su totalidad en un test bien fundamentado y utilizado ampliamente como lo es la escala de depresión de Hamilton (Hamilton Depression Rating Scale). Este proyecto tiene la posibilidad de ser escalado, utilizando un agente de chatbot ajeno a IBM Watson, desarrollándolo desde cero y con las necesidades específicas en mente, además esto representa la posibilidad de tener una integración completa entre la red neuronal y el chatbot.
También podemos decir que el desarrollo de tecnologías asociadas con las técnicas de inteligencia artificial (IA), aplicadas a la medicina, representa una novedosa perspectiva, que puede reducir los costos, el tiempo, los errores médicos; enfocándolo en este caso al diagnóstico temprano de enfermedades emocionales y psicológicas, también usar la IA para potenciar el uso de recurso humano en ramas médicas y demás.
Gómez González Leticia del Carmen, Instituto Tecnológico de Comitán
Asesor:Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato
FORMULACIóN DE UNA ESTRATEGIA PARA MEJORAR LAS CONDICIONES DE TRABAJO POR RIESGO COVID-19 EN EL SECTOR MANUFACTURERO
FORMULACIóN DE UNA ESTRATEGIA PARA MEJORAR LAS CONDICIONES DE TRABAJO POR RIESGO COVID-19 EN EL SECTOR MANUFACTURERO
Gómez González Leticia del Carmen, Instituto Tecnológico de Comitán. Joachin Tomas Juan Antonio, Instituto Tecnológico de Comitán. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La pandemia COVID-19 hasta la fecha sigue causando estragos en los diferentes sectores laborales, siendo considerada como un nuevo riesgo biológico ocupacional debido a su rápida trasmisión y a las nuevas cepas, aumenta la probabilidad de contagio que impacta directamente a la salud de los trabajadores. Bajo este contexto, los lugares de trabajo siguen siendo de los espacios más susceptibles a la expansión.
Para su prevención, tanto empresas como empleados juegan un papel importante para mantener los lugares de trabajo seguros; por lo tanto, se deben adoptar medidas necesarias para disminuir la cadena de infección. El riesgo de exposición de la transmisión del virus depende de diversos factores, por lo que es fundamental que las empresas implementen nuevos controles para evitar contagios, ya que, por lo contrario la sostenibilidad del trabajo se vería afectada gravemente.
En México, el Sector Manufacturero ha sido uno de tantos que se han visto afectado al enfrentarse a esta nueva normalidad, por lo que están obligados a tomar medidas para evitar la propagación del virus y poder seguir laborando. En este sentido, se requiere emplear medidas o estrategias de control en Salud y Seguridad Ocupacional adecuadas para prevenir los contagios, proporcionando los instrumentos útiles, así como prácticos para la evaluación del riesgo que en consecuencia ayudaran a determinar las medidas de control más adecuadas.
METODOLOGÍA
La propagación del COVID-19 ha reducido considerablemente las actividades labores 3lo que conduce a las empresas a ser piezas importantes en la preparación y respuesta de medidas de seguridad adecuadas para hacer frente a la pandemia actual. Por tal razón, se propone la combinación de varias metodologías como el de DEMING, IH / OEHS y Control de Bandas para el control del riesgo biológico en los centros de trabajo. A continuación, se presentan las fases de la nueva metodología propuesta para reducir el número de contagios por COVID-19, en el trabajo.
Fase 1: Elaborar el proceso de planeación de la estrategia
Para la determinación de la fase se realizó la interacción de las metodologías de DAMING, IH / OEHS y el Control de Bandas porque coincidían en algunas características como la identificación del riesgo. Se comienza con la planeación seguido de la obtención de un diagnóstico. Para llevar acabo dicho proceso se debe seguir la siguiente secuencia: identificación del riesgo, establecimiento de las metas y objetivos por alcanzar, así como determinar los recursos materiales, humanos, logísticos y presupuesto referencial a emplear. Estos procesos le dan la estructura al diagnóstico inicial de control del riesgo COVID-19.
Fase 2: Establecer Plan de Acción de acuerdo con metas establecidas
Esta fase es un complemento de las tres metodologías anteriormente mencionadas, permitiendo determinar el nivel de exposición del riesgo empleando el Control de Bandas que junto con el grupo de riesgo se identifica la matriz, el cual dará paso a la Selección de Controles / Jerarquía de Controles. Después de seleccionar los controles se lleva a la implementación (prueba piloto).
Fase 3: Comparar Diagnóstico inicial con la Situación Actual
Después de que pase el periodo establecido en el plan de acción, se procede a realizar un análisis para interpretar los resultados obtenidos y hacer una comparación del antes y después, midiendo el desempeño. Para su interpretación se pueden emplear herramientas como Diagrama de Pareto, un Chek lists, gráficos, cuestionarios, resúmenes, entre otros.
Fase 4: Revisar la comparación sobre el logro de metas para comprobar la efectividad de control del riesgo
En esta última, se emplea la fase de actuar del Ciclo Deming donde se revisa si se han obtenido los resultados deseados y se toman acciones para continuar con la implementación, analizar que queda por mejorar o reiniciar el proceso. Si los cambios realizados no dieron como resultado una mejora, se considera las lecciones aprendidas de la prueba inicial y se volverá a la primera fase.
CONCLUSIONES
Como resultado se obtuvo la propuesta de la estrategia holística compuesta por las cuatro fases, con la finalidad de reducir el contagio en los centros de trabajo del Sector Manufacturero por el riesgo biológico COVID-19, obteniéndolo de la combinación de las metodologías DEMING, IH / OEHA y Control de Bandas. Por lo que se espera que al ser aplicada se tenga una mejora continua, lo que ayudara a reducir el nivel de exposición del riesgo en cada una de las áreas de la empresa.
Tras la recopilación de información en revistas científicas algunas deficiencias que se presentaron fue la falta de información que plantearan estrategias adecuada al enfoque del tema, ya que por ser un nuevo riesgo biológico, no se contaban con información precisa para saber de qué manera actuar sin afectar la productividad de las empresas. Por lo tanto, se propone mejorar la propuesta con nuevas actualizaciones para que los procedimientos sean de fácil comprensión lo que permitiría adecuarlo a diferentes sectores. Así mismo, como una línea de investigación a futuro, sería incluir el apoyo psicológico-emocional para disminuir el nivel de estrés que pudiera generar en el empleado al estar laborando y adaptándose a los nuevos cambios.
Como análisis final de la estrategia propuesta es importante hacer mención que en la fase uno se tiene que llevar a cabo contando con el personal especializado en riesgos. Así como, se sugiere que se adhiera un paso más, denominada Integración del equipo para la implementación de la estrategia. Para la fase tres y cuatro no se llegó a ese punto de cumplimiento en plasmar cómo es que se desarrolla y qué información básica se deben de contar para poder emplearlas en el análisis. Finalmente, con la propuesta de las tres metodologías podemos concluir que la metodología IH / OEHA y el de Control de Bandas son las que permiten identificar el riesgo y encontrar las medidas de control correspondientes; sin embargo, el Ciclo de Deming viene a completar esta estrategia ya que permite contar con un antes y un después de aplicar las dos metodologías mencionadas. Por lo que creemos, que su aplicación permitirá tener un mejor control y seguimiento continuo, evitando bajar la guardia.
Gomez Hoyos Simon, Universidad Autónoma de Manizales
Asesor:Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán
DESARROLLO DE UN MODELO DE NEGOCIO PARA EL DISPOSITIVO MEDIDOR DE SATURACIóN DE OXíGENO UTILIZANDO LA METODOLOGíA DE DESIGN THINKING.
DESARROLLO DE UN MODELO DE NEGOCIO PARA EL DISPOSITIVO MEDIDOR DE SATURACIóN DE OXíGENO UTILIZANDO LA METODOLOGíA DE DESIGN THINKING.
Gomez Hoyos Simon, Universidad Autónoma de Manizales. Segura Ramirez Natalia, Universidad Autónoma de Manizales. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán
PLANTEAMIENTO DEL PROBLEMA
La tasa de mortalidad de recién nacidos prematuras ha disminuido en las últimas décadas esto gracias a nuevas estrategias y cuidados neonatales durante y después del parto. Sin embargo, existe alto riesgo de complicaciones y muertes durante la etapa neonatal.
Por falta de la atención supervisada continua por parte del personal de salud genera riesgos en los neonatos cuando están en el hogar, lo cual se ve afecta la probabilidad de muertes antes de los 5 años, según OMS.
Actualmente el monitoreo de las variables fisiológicas en neonatos prematuros, que pertenecen a programas de oxígeno domiciliario, se realiza mediante el uso de un pulsioxímetro. Además, se les entregan los elementos de administración de oxígeno, como lo son oxígeno en cilindro y concentrador de oxígeno.
A lo largo de los últimos años se han ido desarrollando nuevos dispositivos y proyectos relacionados con el monitoreo de variables fisiológicas de neonatos en el hogar, algunos de ellos aplicados a neonatos que pertenecen a programas de oxígeno domiciliario. Es necesario realizar un análisis del modelo de negocio de estos dispositivos y proyectos para ver la viabilidad de estos en el mercado, analizar sus usuarios, ver sus necesidades y validar su satisfacción frente a los usuarios.
Al aplicar la metodología Design Thinking va a permitir un análisis de viabilidad de los dispositivos de monitorización de saturación de oxígeno, teniendo en cuenta la percepción del usuario y cuáles son las necesidades que este tiene. Por lo cual, esto parte de un reto de innovación en el cual va a ayudar a delimitar el público objetivo y poder realizar un estudio del mercado más acorde con la problemática anteriormente expuesta. Por tanto, el reto de innovación como punto de partida para esta investigación es De qué manera podríamos prevenir riesgos en los neonatos oxígeno requirentes para disminuir la mortalidad a través del uso de la teleasistencia en los municipios de Manizales y Villa Maria.
METODOLOGÍA
La metodología que se utiliza está relacionada con el desarrollo ágil de start ups. El proceso que se lleva a cabo se describe a continuación.
Establecer el reto de innovación como punto de partida para aplicar conceptos de Design Thinking permitió dar un análisis al modelo de negocio actual para desarrollo del dispositivo. Dentro de las actividades que se debieron realizar para poder implementar dicha metodología son los siguientes:
La creación de Scan Cards que permitió realizar un panorama de las tendencias actuales. De las cuales, ayudaron a entender la situación de los usuarios antes de poder realizar las entrevistas pertinentes.
Se realizó un análisis de tendencias actuales basadas de las Scan Cards en las cuales se pueda identificar categorías donde se puedan agrupar estas tendencias. Esto ayuda a entender a quién va dirigida la investigación.
Se hizo una matriz de Tendencias que nos permite obtener información acerca del producto que estamos analizando categorizado en 4 factores que son cultural, tecnológico, servicio y usuarios. En cada uno de estos se identificaba como se realizaba en el pasado, actualmente como se lleva a cabo y como se piensa que será en un futuro.
Se identificaron perfiles de usuarios primarios, secundarios, stakeholders, retractores asociados al dispositivo al realizar. Para esto se llevó a cabo un mapeo de usuarios y stakeholders, para identificar los usuarios que se van a entrevistar.
Se propuso hipótesis para cada uno de los perfiles identificados, con la finalidad de poder generar las preguntas pertinentes para las entrevistas. Estas preguntas deben generar una narrativa que permita entender al usuario.
Desarrollar un guión para las entrevistas.
Se realizaron entrevistas a los perfiles identificados.
Se documentaron las entrevistas en formatos especiales para su posterior estudio.
Identificar insights de gran valor donde se puedan generar nuevas oportunidades de atractivos negocios y que permitan entregar valor a usuarios y consumidores, expresado en forma de productos, servicios y experiencias deseables, relevantes, significativas y rentables.
CONCLUSIONES
Conclusiones Resultados:
Considerar todas los usuarios que puedan tener relación directa o indirecta e incluso detractores, nos amplía la visión de cómo entregar valor a los usuarios.
Se espera que el análisis de las entrevistas realizadas al personal de salud (relacionado a las unidades de neonatología) y personal técnico de los equipos médicos presentes en el hogar nos brinde información relevante que podamos aplicar o implementar en el diseño del dispositivo monitoreo de saturación de oxígeno.
En la entrevista realizada al personal técnico de la instituciones prestadoras de servicios de salud, se pudo observar que a los acudientes de familia no se les brinda las capacitaciones necesarias para el buen manejo de los dispositivos. Además, mencionan que la mejor manera de realizar una capacitación es dando una demostración del manejo del equipo y que esta sea muy dinámica.
Los del personal técnico de las clínicas/hospitales identificaron que muchas veces no realizan la lectura de los manuales de usuarios para poder saber cómo manipular el equipo que tiene en casa, por lo cual mencionaron que una forma de solucionar es mediante el uso de guías rápidas con escritura más coloquial y que fueran más dinámicas.
Conclusiones aprendizaje del proceso:
Para el desarrollo de una nueva tecnología es pertinente realizar estudios generales del mercado ya que nos ofrecen la obtención de datos o factores que pueden ser relevantes al momento de llevar este producto al mercado.
Es importante relacionar las necesidades emocionales de los usuarios con el planteamiento del producto para validar posibles soluciones en necesidades latentes de estos usuarios.
Gómez Ibón Jorge Eduardo, Universidad Tecnológica de Nayarit
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
BUENAS PRáCTICAS OPERATIVAS SUSTENTABLES EN LAS CADENAS DE SUMINISTRO: PERSPECTIVA INTERNACIONAL, NACIONAL Y REGIONAL.
BUENAS PRáCTICAS OPERATIVAS SUSTENTABLES EN LAS CADENAS DE SUMINISTRO: PERSPECTIVA INTERNACIONAL, NACIONAL Y REGIONAL.
Gómez Ibón Jorge Eduardo, Universidad Tecnológica de Nayarit. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La problemática de estudio se centra en identificar el tipo de prácticas sustentables que realizan las cadenas de suministro del sector agroindustrial, para poder conocerlas, comprenderlas y compararlas entre sí, y su relación con la rentabilidad y productividad.
Con ello, encontrar las diferencias entre las prácticas, a nivel Regional, Nacional e Internacional. Asimismo, existe la problemática detectada en la falta de prácticas sustentables de forma generalizada en las cadenas Agroindustriales, por lo que, se desea conocer con exactitud a nivel regional, en el sector agroindustrial de Nayarit un aproximado del grado de aplicación de prácticas sustentables, conocer las limitantes y áreas de oportunidad para, a través de un medio de divulgación escrita, presentarlas.
METODOLOGÍA
Cualitativa, del tipo descriptiva y exploratoria, ya que la intención fue
conocer las buenas prácticas sustentables en las cadenas de valor a nivel nacional e internacional. También la investigación contempló un piloto a baja escala para conocer la percepción del sector agroindustrial de Nayarit sobre la importancia de la sustentabilidad y sus prácticas.
CONCLUSIONES
Se obtuvo un cuadro comparativo y descriptivo de las buenas prácticas de sustentabilidad a nivel Nacional e internacional, para el contexto regional, en Nayarit, se implementó un instrumento en un muestreo de empresas, dicha información será de análisis para una publicación científica.
Como conclusión se establece la necesidad de que los representantes de las cadenas viren su óptica a las prácticas sustentables, como algo parte de y no aparte de. Las áreas que se recomiendan trabajar son: tratamiento de aguas residuales, control de consumo de agua, tratamiento de residuos peligrosos y no peligrosos, optimización de materiales y eficiencia energética, ligada a fuentes de energía sustentables.
Gómez Muñiz Miriam Michel, Universidad de Guadalajara
Asesor:Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
PANORAMA DEL ENFOQUE DE INDUSTRIA 4.0 EN PROGRAMAS DE INGENIERíA: UNA MIRADA A UNIVERSIDADES DE COLOMBIA Y MéXICO
PANORAMA DEL ENFOQUE DE INDUSTRIA 4.0 EN PROGRAMAS DE INGENIERíA: UNA MIRADA A UNIVERSIDADES DE COLOMBIA Y MéXICO
Gómez Muñiz Miriam Michel, Universidad de Guadalajara. Asesor: Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
La cuarta revolución industrial mejor conocida como industria 4.0, llegó como un cambio radical, principalmente por su característica de globalización,donde los enfoques tecnológicos llegaron para quedarse en su pleno esplendor en cualquiera de los contextos que pudiéramos pensar. Por tal motivo, esta revolución no es más que el cambio trascendental del pasado a una nueva era moderna, digital y tecnológica.
Ahora bien, considerando la magnitud del impacto que la industria 4.0 ha tenido en todos los ámbitos, es primordial enfocar nuestra atención en el sector académico, siendo uno de los más importantes, al encargarse de formar a los futuros profesionistas, refiriéndonos particularmente al nivel superior, que otorga las competencias necesarias y específicas para integrarse al sector laboral a partir de los programas académicos.
Finalmente, al denotar la marcada relación que tiene la industria 4.0 con el nivel superior, en específico con los programas académicos, debemos limitarnos particularmente en el área ingenieril, que nos permitirá plasmar un panorama general del enfoque de industria 4.0 en los programas ingenieriles, al profundizar en investigaciones relacionadas a la situación actual en ese contexto.
METODOLOGÍA
La investigación fue desarrollada con la metodología de enfoque cualitativo, descriptivo y exploratorio.
Según Pita Fernández y Pértegas Díaz (2002) la investigación cualitativa evita la cuantificación. Los investigadores cualitativos hacen registros narrativos de los fenómenos que son estudiados mediante técnicas como la observación y las entrevistas no estructuradas. Además, trata de identificar la naturaleza profunda de las realidades, su sistema de relaciones y su estructura dinámica.
Principalmente empleamos el enfoque cualitativo, basándonos en la recolección y análisis de la información obtenida de las entrevistas realizadas a administrativos que poseen relación con los programas ingenieriles. En segunda instancia tenemos el descriptivo, dado que a partir de la información recolectada e investigada, pudimos abiertamente intentar explicar y plasmar el panorama de la situación actual en términos de industria 4.0 con relación a los programas ingenieriles. Por último, el exploratorio, debido a que investigamos en diferentes fuentes, con el objetivo de estudiar la relación previamente mencionada con los programas académicos, con el objetivo de comprender mejor el panorama.
Se realizó una investigación bibliográfica del mismo carácter antes dicho, de revisión de literatura académica en las bases de datos Scopus, Google académico y Biblioteca de la Universidad Cooperativa de Colombia. Los cuales nos permitieron recopilar y analizar la literatura relacionada con el entorno que rodea a la industria 4.0 en primera instancia, para luego dar el enfoque a los programas ingenieriles. Conociendo así, las tecnologías que engloban esta amplia revolución, los requerimientos que se espera tengan las competencias de los profesionistas egresados de ingeniería y las capacidades de docentes, alumnos y sociedad en general para adaptarse a todos estos cambios.
Se llevó a cabo un proceso de revisión sistemática de literatura, en el cual comenzamos partiendo de la planeación, para establecer y delimitar el problema, formular la pregunta de investigación y puntualizar nuestros objetivos. En consiguiente, nos adentramos a realizar una búsqueda amplia y exhaustiva sobre el tema en cuestión, para recolectar toda aquella investigación relevante, a la cual aplicamos un proceso de selección de artículos, seguido por una extracción de datos. Finalmente, nos adentramos a analizar toda la información que hemos seleccionado, para plasmar los resultados de dicho análisis en nuestro documento.
CONCLUSIONES
A partir de lo realizado durante el verano de investigación, logramos obtener conocimientos y conformar una perspectiva más objetiva y profunda sobre la situación actual de industria 4.0 dentro del contexto académico de ingenierías. Pudiendo así, elaborar una crítica y reflexión enfocadas u orientadas en una propuesta de mejora para el cambio del panorama que tenemos en las universidades con el reto de la actualización constante que implica, requiere y demanda esta cuarta revolución industrial. Partiendo de la necesidad que actualmente implica evolucionar y adaptarse a la industria 4.0, los programas ingenieriles se ven en adversidad, resultando muy complejo ir a la par con esta era moderna y digital. Si bien, no pretenden quedarse estancados y buscan en la medida de lo posible estarse actualizando, existen factores que juegan en contra y les dificulta la realización de este objetivo ideal, tal como es la zona de confort, los procesos sistemáticos, la falta de gente preparada en temas nuevos, entre otros.
Ahora bien, podemos ser conscientes que la industria 4.0 representa un reto en general para cualquier ámbito que se piense, en especial, para el académico. La opción que pudiera solucionar ese atraso en las universidades, para que estas no caigan en una situación de conformismo que las lleve eventualmente al obsolescencia, hecho que cabe recalcar, no puede suceder, depende primordialmente de la cooperación e iniciativa para actualizarnos de los integrantes del cuerpo académico, desde los estudiantes hasta los administrativos y organismos colegiados que tienen relación con los programas ingenieriles.
Gómez Rico Ulises Adrian, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
ELABORACIóN DEL MODELO PARA LA PREDICCIóN DEL DESEMPEñO ACADéMICO USANDO REDES NEURONALES ARTIFICIALES
ELABORACIóN DEL MODELO PARA LA PREDICCIóN DEL DESEMPEñO ACADéMICO USANDO REDES NEURONALES ARTIFICIALES
Gómez Rico Ulises Adrian, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desarrollar un modelo para la predicción del desempeño académico favorece a las nuevas generaciones de estudiantes en cualquier nivel, principalmente en el nivel superior. Ayuda a conocer el comportamiento académico del alumno según sus avances y comportamientos dentro del ámbito educativo. El modelo desarrollado utiliza un conjunto de datos muestra para el entrenamiento, y será necesario poner a prueba el modelo en un ámbito real donde podamos obtener información de los alumnos y poder realizar predicciones.
Intentar predecir el comportamiento de un estudiante no es nuevo en el mundo del aprendizaje automático (machine learning) y la inteligencia artificial, pero en México este tipo de prácticas no se ha llevado a un nivel de aplicación y experimentación, la mayoría de los trabajos se quedan en el campo de la investigación. En este documento nos centraremos en la investigación y desarrollo de un modelo que logre ayudarnos a predecir el desempeño de sus calificaciones a través del comportamiento de un alumno. Posteriormente se pretende aplicar el modelo en un sistema que nos ayude a darle seguimiento de forma inteligente y automática a los alumnos mediante una plataforma web, pero no es tema es de este reporte.
Las redes neuronales artificiales (RNA) son la implementación computacional y matemática de las redes neuronales humanas. En el aprendizaje automático las redes neuronales nos ayudan a analizar un conjunto de datos, donde se le dan a conocer instancias (los datos) como ejemplo para que logren aprender ciertos patrones que nos permitan obtener predicciones con un alto grado de precisión.
Una red está compuesta por capas, que incluyen capas de entrada y de salida, y, por lo menos, una capa oculta. Las neuronas de cada capa aprenden de los atributos con los que se entrenan e identifican el tipo de valor o clase a la que pertenece, a este tipo de entrenamiento se le conoce como aprendizaje supervisado.
METODOLOGÍA
Crear un modelo de redes neuronales no es un proceso que lleve un orden escrito, tampoco es simple, y depende mucho de la información que vayamos a utilizar. Se busca un conjunto de hiperparametros que logren ajustar los pesos que dé como resultado un modelo con un error pequeño. Para ello, se repiten los pasos de evaluación del modelo y de actualización de los hiperparámetros del modelo para reducir la superficie de error. Este proceso se repite hasta que se encuentra un conjunto de parámetros lo suficientemente bueno.
El algoritmo de optimización Adam (Adaptive Moment Estimation, Adam), es un proceso computacional que utiliza el descenso del gradiente estocástico y un gradiente adaptativo, este gradiente se adapta a diferentes tasas de aprendizaje para diferentes parámetros, estas son las ventajas que Adam reúne de otros algoritmos y lo convierte en uno. Ese algoritmo es altamente usado en las redes neuronales y el aprendizaje automático.
Un aspecto importante en el aprendizaje automático es tener un conjunto de datos homogéneo, es decir que no existan faltantes dentro del conjunto. Se realiza una división en 2 conjuntos, el primero constará de un 80% y se usará para el entrenamiento y el 20% restante será utilizado para las pruebas, esta división debe ser completamente aleatoria y nunca deben existir las mismas instancias en ambos conjuntos y por último debemos realizar la conversión de valores nominales (valores de texto) a numéricos, para este proceso existen varios métodos pero el más común es que cada valor tengan un numero diferente empezando en uno y así sucesivamente y en caso de tener ausencia de ese valor se coloca un cero.
Una vez que conocemos nuestro conjunto de datos, lo dividimos en un conjunto de entrenamiento y otro de prueba, lo que nos da como resultado un conjunto de 318 instancias para el entrenamiento y 77 instancias para las pruebas. De estos obtenemos aleatoriamente 5 para nuestras pruebas unitarias.
Sabemos que tenemos 10 atributos de entradas y una salida multiclase llamada G3, esta será el atributo a predecir y como sus valores van desde 0 hasta 20, podemos decir que son 21 neuronas de salida, lo que nos lleva a crear nuestro primer modelo y revisar su comportamiento que quedarían de la siguiente manera:
• 1 capa de entrada con 10 neuronas con función Relu.
• 1 capa de salida con 21 neuronas con función Softmax.
• 1 capa intermedia con 10 neuronas, manteniendo la anchura de la red.
• Número de lote: 32
• Tasa de aprendizaje: 0.1
• Número de épocas: 100
Los hiperparámetros como tamaño de lote, tasa de aprendizaje y número de épocas toman al inicio valores recomendados que ya habíamos descrito antes.
CONCLUSIONES
Los resultados parciales obtenidos son altamente prometedores para este modelo creado y entrenado con un conjunto de datos específicos. Se logra obtener un alto índice de precisión llegando hasta un 99.4% y un bajo porcentaje de error 0.04%. Sin embargo, no hay que descartar el caso de un sobreajuste de los datos (overfiting), que es ocasionado cuando se cuenta con un conjunto de datos muy pequeño, como es nuestro caso.
El modelo de predicción obtenido durante este análisis conforma todo un conjunto de hiperparametros y funciones matemáticas que se acoplan de manera correcta y logran un alto desempeño. Hay que mencionar que este modelo puede cambiar con un conjunto de datos diferente, pero esos cambios serán mínimos y podrían no presentar problemas si son ajustados de manera correcta.
El trabajo de dar seguimiento académico a los alumnos de una institución no puede solo regirse por el camino de capturar datos de un día e intentar predecir sus notas en las materias, será necesario considerar capturar datos cada cierto tiempo que nos dé actualizaciones del alumno. Este modelo de red neuronal artificial que predice calificaciones solo es el inicio de un trabajo que requiere ser implementado con una plataforma educativa WEB, donde podamos capturar el desempeño del alumno en sus materias y no solo obtener datos de un formulario.
Gonzalez Acosta Luis Carlos, Universidad Nacional Abierta y a Distancia
Asesor:Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
Caloch Campos Edgar, Instituto Politécnico Nacional. Carrillo Ramirez Luis Daniel, Universidad Tecnológica de Nayarit. Gonzalez Acosta Luis Carlos, Universidad Nacional Abierta y a Distancia. Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad se cuentan con páginas de información turística sobre los pueblos mágicos de México, sin embargo, nos encontramos con una cuestión referente a la navegabilidad en sitios web turísticos, específicamente a su deficiencia de estilo e intuitividad para el usuario a la hora de consultar información, además de los datos pocos relevantes que se visualizan.
Por esto mismo, nuestro objetivo durante la estancia de investigación XXVI fue desarrollar un aplicación web interactiva que brindara una mejor experiencia e información más detallada sobre las diferentes actividades, festividades, entre otros, sobre los pueblos mágicos que se encuentran en el país.
METODOLOGÍA
La estancia inició con una capacitación enfocada al framework de PHP llamado Laravel, tecnología que nos ayudó durante el desarrollo del proyecto. Dicha capacitación fue esencial para lograr reconocer las diferentes funcionalidades para implementarlas en el proyecto.
Primeramente se inició con la parte del frontend, utilizando HTML5, hojas de estilo CSS y JavaScript del paquete de diseño Material Kit basado en Bootstrap. Estas herramientas nos ayudaron con la creación de las vistas inicio, sobre nosotros, pueblos y contacto, a las cuales podemos acceder desde la barra de navegación principal. Adicionalmente se crearon las vistas información de los participantes e información sobre los pueblos, siendo así un total de 6 vistas.
Vista Inicio: En esta vista se despliega un mensaje de bienvenida el cual nos brinda una breve descripción e imagen de ciertos pueblos mágicos aleatoriamente. Esta sección de la vista es un prediseño perteneciente al paquete Material Kit el cual hace uso de la función carrusel para la transición de imágenes.
La siguiente sección de la vista muestra nuestros pueblos sugeridos,el cual con ayuda de tarjetas prediseñadas en Material Kit, muestra información de tres pueblos mágicos los cuales son seleccionados con base en la proximidad de sus festividades.
Finalmente observamos una sección de comentarios, los cuales son enviados por visitantes de la página contándonos su experiencia en el sitio web.
Vista Sobre Nosotros: Así como en la vista Inicio, en Sobre Nosotros también hacemos uso de tarjetas que despliegan información sobre el programa federal de pueblos mágicos, misión y visión del programa federal y la información sobre los participantes. Por otra parte, en la vista Contacto se despliega un formulario que permitirá a los visitantes de la página enviar comentarios, sugerencias o reclamaciones que tengan para la mejora del sitio.
La vista Información de los Participantes contará con información breve sobre nosotros, mientras que la vista Pueblos será la entrada para desplegar la información completa de los pueblos mágicos. Esta página muestra un filtro el cual seccionará a los pueblos mágicos dependiendo de a qué estado pertenecen.
Al momento de seleccionar alguno de los 32 estados del país, aparecerán los pueblos mágicos que se encuentren dentro de él, esto gracias a la realización de una consulta por medio de la conexión con una base de datos MySQL mediante la API de Laravel. Dicha consulta devolverá los pueblos de ese estado en formato de tarjeta, las cuales contarán con una imagen de previsualización del pueblo. Al dar click sobre la carta de nuestra preferencia nos redirigirá a la vista del pueblo correspondiente.
Vista Información de Pueblos: Como se mencionó anteriormente, seremos redirigidos a la vista de la información del pueblo sobre el que se hizo click. En esta vista se mostrará dinámicamente la información detallada del pueblo que se haya elegido, compuesta por una breve descripción, atractivos, festividades, actividades, servicios y números de emergencia.
Se realizó la conexión con una base de datos MySQL mediante la API de Laravel.
CONCLUSIONES
Reconocer las funcionalidades del framework Laravel para el desarrollo de soluciones, aplicar otras herramientas de diseño y programación e implementar formatos prediseñados en los paquetes cómo Material Kit y adecuarlos a las necesidades o demandas del proyecto.
En retrospectiva nos sentimos satisfechos con nuestro desempeño durante la estancia de verano pues logramos el desarrollo del template del sitio, así como el módulo de turistas, sobre el cual se podrá seguir trabajando en el futuro.
González Cruz Cristian Iván, Instituto Politécnico Nacional
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
DETERIORO Y BIODETERIORO DEL PATRIMONIO INMUEBLE EN MATERIAL PéTREO.
DETERIORO Y BIODETERIORO DEL PATRIMONIO INMUEBLE EN MATERIAL PéTREO.
González Cruz Cristian Iván, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
El Patrimonio Inmueble, construido con materiales pétreos se deteriora a través del tiempo por efecto de agentes físicos, químicos y del medio ambiente. Estos últimos dependen en gran medida de la ubicación geográfica del inmueble que se tomó en cuenta para dicha investigación.
De acuerdo con la Comisión Nacional de la UNESCO, el patrimonio inmueble está constituido por monumentos, obras de la arquitectura y de la ingeniería, sitios históricos y centros industriales, zonas u objetos arqueológicos, calles, puentes, viaductos de interés o valor relevante desde el punto de vista arquitectónico.
Se puede decir que de esto se deriva un impacto en la sociedad, generando consciencia y, a su vez, en la conservación del patrimonio cultural.
Un ejemplo para destacar del tema fue que se encontró en el turismo que, a lo largo de los años, genera reflexiones que destacan el valor histórico del patrimonio inmueble. Y principalmente centrándose en el Material Pétreo. Los materiales pétreos son aquellos que proceden de las piedras y que pueden hallarse ya sea en estado natural o procesados a nivel industrial. El cemento, el granito y el mármol son algunos de los materiales pétreos más populares.
Cómo ejemplo de investigación y desarrollo se tomó la ciudad de San Francisco de Campeche (Campeche, México) que fue fundada en 1560. La ciudad se caracterizó por un innovador sistema de defensa militar que fue diseñado para proteger las oficinas gubernamentales locales y las residencias coloniales españolas de los continuos ataques piratas que ocurrieron durante los siglos XVI y XVII. Este sistema urbano consistía en una construcción fortificada de baluarte y muralla irregular en forma de hexágono que rodeaba el núcleo interior de la ciudad.
METODOLOGÍA
Por motivos de Seguridad Sanitaria, respecto a la Pandemia del Covid 19, la estancia se realizó de forma virtual y tomamos como referencia uno de los Monumentos de la Ciudad de Campeche con Investigaciones realizadas previamente.
El Bastión de San Carlos, fue construido con materiales locales de la región, que se ubica en la esquina noroeste de este sistema de defensa militar. Debido a su proximidad al mar, la mayoría de las paredes (excepto las del sur y sureste) sufrieron durante mucho tiempo el impacto constante de las olas y los movimientos de las mareas. Hoy en día, el bastión permanece bajo la influencia de aerosoles marinos y la contaminación del aire local.
Desde su edificación, el Baluarte de San Carlos también ha estado expuesto a la acción del clima tropical, que indujo a la intemperie. Hasta el momento, se han realizado muy pocos estudios sistemáticos para determinar las causas específicas del deterioro del núcleo urbano de San Francisco de Campeche.
Se crean así las condiciones para el establecimiento y proliferación de organismos vivos en la piedra tales como bacterias, algas, hongos, líquenes y plantas que por ser invasivos y colonizadores causan biodeterioro. Dado que los metabolismos de estas especies involucran el consumo de sustratos químicos orgánicos e inorgánicos presentes en la roca, son otro factor que va en detrimento de la estabilidad, durabilidad, y apariencia estética de la misma.
Estos resultados están de acuerdo con las expectativas sobre la descomposición en un medio marino y los elementos identificados por el análisis mostrado. Se produce ácido oxálico por la actividad metabólica de microorganismos como cianobacterias, se detectó solo en la muestra 1 (norte pared). Probablemente se originó a partir de residuos de conchas marinas.
CONCLUSIONES
Con dicha investigación, se concluye que, aunque la generalidad del clima tropical provocó efectos físicos, químicos y biológicos en los materiales de construcción, la principal causa de los daños observados en el edificio es la acción tanto de las sales marinas como contaminantes por la alta humedad relativa. Igualmente, existe la presencia de elementos como cloro, sodio y azufre indican que la degradación del edificio durante su larga exposición al ambiente costero de la ciudad de San Francisco de Campeche.
El régimen de vientos desgasta la roca, temporadas de lluvia que al contener sales disueltas causan deterioro por reacciones químicas de estas con la matriz del material, y el carbonato de calcio el cual es su principal componente; radiación solar durante todo el año causante de descoloramiento; humedad que permite el establecimiento de formas de vida.
Referencias Bibliográficas
https://travel.sygic.com/
https://www.scielo.org.co/scielo
2009 “Corrosión y degradación de infraestructura en Yucatán Península”, en J. González-Sánchez, F. Corvo & N. Acuña-González (eds.), Degradación ambiental de la infraestructura y patrimonio cultural en el clima tropical costero, Campeche, Transworld Research Network, 1-34.
Ariño, Xavier, J. Ortega Calvo, A. Gomez-Bolea y C. Saiz-Jimenez 1995 “Colonización de líquenes del pavimento romano de Baelo Claudia (Cádiz, España): biodeterioro vs. bioprotección”, Ciencia del Medio Ambiente Total.
González de la Cerda Andrea, Universidad de Colima
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
CARACTERíSTICAS DE LAS NANOPARTíCULAS QUE CRUZAN LA BARRERA HEMATOENCEFáLICA Y LOGRAN REDUCIR LOS TUMORES CEREBRALES
CARACTERíSTICAS DE LAS NANOPARTíCULAS QUE CRUZAN LA BARRERA HEMATOENCEFáLICA Y LOGRAN REDUCIR LOS TUMORES CEREBRALES
González de la Cerda Andrea, Universidad de Colima. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La lucha contra el Glioblastoma Multiforme, el tumor cerebral maligno más común, no ha cambiado mucho en los últimos quince años cuando el tratamiento estándar de radioterapia finalmente fue complementado con el uso de la medicina temozolomida.
Hoy en día el uso de tratamientos multifacéticos que incluyen la resección quirúrgica, radioterapia y quimioterapia son mucho más comunes, pero aún no logran extender el tiempo de vida media que tienen los que sufren de esta enfermedad: 15 meses.
Parte de la complejidad de esta patología incluye la existencia de la barrera hematoencefálica, una estructura que permite que nuestro cerebro no termine intoxicado por las múltiples hormonas y medicinas que pueden correr por nuestras venas; pero que impide la entrada de quimioterapia al cerebro, ya sea en forma de pequeñas moléculas o incluso en forma de anticuerpos.
El diseño de la nanoestructura más efectiva para reducir los tumores cerebrales sigue sin ser descubierta, por lo que, en mi verano de investigación, me dediqué a leer la información existente a las características de las nanopartículas que de forma más eficiente reducen los tumores en animales de laboratorio.
METODOLOGÍA
Después de desarrollar la estrategia de búsqueda correcta para encontrar información relevante al tema, se utilizaron las bases de datos Web of Science, Science Direct, PubMed y JSTOR para encontrar los artículos de investigación que reportaban los distintos tamaños y materiales de las nanopartículas que logran reducir el tamaño de los tumores cerebrales en animales. Se destinaron aproximadamente dos semanas a la recopilación de información bibliográfica para poder descubrir cuál sería nuestra pregunta de investigación y empezar a trabajar en ella. Se revisaron en el transcurso de la semana múltiples herramientas utilizadas en la investigación científica como lo son Flipgrid, Connected papers, PROSPERO, Shape of Science e incluso se tomó una capacitación del CONRICyT para el uso de administradores bibliográficos como Mendeley. La redacción del artículo de review fue realizada según el protocolo de investigación PRISMA.
Posteriormente, empecé la clasificación de la información recopilada en distintas categorías como lo son animal de estudio; tamaño, material y tipo de la nanopartícula estudiada; reducción porcentual documentada del tumor y tiempo de estudio.
Se encontró una correlación de poco más del 92% entre el tamaño de la nanopartícula y la reducción del tumor cerebral visualizada en animales por lo cual se pudo establecer que esta variable era importante. No se encontró correlación entre el material de nanopartícula y su eficiencia en la reducción de neoplasmas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del cáncer cerebral, los métodos de tratamiento vigentes y el futuro desarrollo de un tratamiento específico al cáncer cerebral a partir de nanopartículas. Así mismo, aprendí sobre la importancia de las nanopartículas, las diferencias entre varios tipos de nanopartículas y su inmenso campo de aplicación. Se logró estimar el tamaño promedio que tienen las nanopartículas que más eficientemente cruzan la barrera hematoencefálica y reducen los tumores cerebrales como 116.8 nanómetros.
González García Frida Merlina, Universidad Autónoma de Zacatecas
Asesor:Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES
González García Frida Merlina, Universidad Autónoma de Zacatecas. Asesor: Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
Es importante implementar acciones que privilegien la promoción y la prevención de la salud, así como garantizar el acceso de los pacientes a tratamientos efectivos, se destacaron la siguiente propuesta de acciones:
En primer lugar, es necesaria una educación amplia sobre la salud cardiovascular en todos los niveles educativos y en todos los niveles del ámbito de la salud. La educación en la salud es prevención y la prevención es la única medida para revertir esas cifras. Así, sabemos que los programas de prevención ahorrarán millones de pesos del presupuesto del sistema de salud.
En segundo lugar, hacemos un llamado para que el Sistema Nacional de Salud trabaje de manera conjunta para implementar programas transversales y replicar los programas exitosos para que puedan estar al alcance de todos los pacientes sin importar a que sistema de seguridad social pertenezca, por ejemplo contar con un programa nacional unificado para atender emergencias cardiovasculares como el infarto agudo al miocardio, permite eficientar recursos, mejorar la calidad e incrementar la atención a mayor población en menos tiempo.
Y, en tercer lugar, queremos hacer un llamado a Protección Civil, autoridades y particulares para la colocación de desfibriladores automáticos en los espacios públicos, así como la capacitación de reanimación cardiopulmonar desde edades tempranas. En adición, el establecimiento de esquemas de prevención primaria y diagnóstico de muerte súbita en primer y segundo nivel para su referencia.
METODOLOGÍA
Por medio de la página web https://appinventor.mit.edu/ se programa la aplicación compatible con teléfonos inteligentes. La programación que ofrece la página web de app inventor de MIT es en bloques.
Desde esta aplicación el usuario puede registrarse, ingresar a su perfil, visualizar sus datos y compartirlos con su doctor. La aplicación inicia con una ventana de bienvenida y a partir de ahí se desglosan más ventanas según el usuario vaya abriendo la información.
Gracias a que el usuario puede registrarse, existe la posibilidad de entrar a diferentes perfiles desde un mismo teléfono, claro que se recomienda por seguridad del usuario y la protección de sus datos que solamente exista un usuario por cada teléfono y reloj inteligente.
La interfaz de esta aplicación es muy sencilla para así aumentar la comodidad de navegación en ella y que el usuario no encuentre ninguna dificultad dentro de ella.
La aplicación está enlazada cien por ciento con la página web y el reloj inteligente, gracias a esto, dentro de la página web los usuarios pueden realizar las mismas acciones que en la aplicación y visualizar los mismo datos.
CONCLUSIONES
El desarrollo de este este proyecto titulado Sistema para el Monitoreo de Signos Vitales y Notificación del Comportamiento de las Variables Clínicas de Pacientes fue muy satisfactorio. Gracias a la investigacion pudimos darnos cuenta del rezago que hay en la salud y la mucha falta de tecnologia.
Si crearamos mas tecnologia dentro del area de la salud, podriamos ayudar a muchas personas y todo seria un proceso mas llevadero.
González González Brenda Paola, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
Caballero Patiño Francisco, Instituto Tecnológico del Valle de Morelia. García Pérez Joana, Instituto Tecnológico del Valle de Morelia. González González Brenda Paola, Instituto Tecnológico del Valle de Morelia. Medina Chávez Eugenio, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
PLANTEAMIENTO DEL PROBLEMA
En México son contados los trabajos que se han realizado sobre la caracterización de los servicios ecosistémicos. La mayoría de estas investigaciones se han centrado en vegetación de ambientes semiáridos en el norte del país. Sin embargo, no existen estudios sobre la caracterización de los servicios ecosistémicos en México en los bosques mixtos de la Sierra Madre Occidental específicamente en la región del el Salto, Durango México.
Por tanto, esta región proporciona una oportunidad para estudiar y sistematizar la composición, estructura, riqueza y diversidad florística, o las formas de entender la evolución de los rasgos dentro de las especies a través de los ciclos biogeoquímicos, relacionados con los flujos de materia orgánica y nutrientes desde el dosel, procesos hidrológicos, en estos tipos de ecosistemas, en el cual las especies vegetales nativas y el tipo de suelo donde prosperan tienen una diversidad de usos tales como forraje para la ganadería y fauna silvestre, carbón, madera para la construcción, estantería, alimentos, herbolaria, medicinas y semillas para reforestación.
El objetivo de este estudio fue cuantificar la producción de la hojarasca, determinar las propiedades fisicoquímicas del agua vía precipitación incidente, precipitación directa, escorrentía cortical y describir la composición y estructura florística.
METODOLOGÍA
Producción de Hojarasca
En cuatro sitios de la sierra del estado de Durango. Se colecto hojarasca, (sitio, 2500 m2) usando diez canastas (1.0 m2) distribuidas en forma aleatoria. La colecta se realizó con intervalos quincenales (Enero-2021-Julio 2021). La hojarasca fue separada en hojas, material leñoso (ramas <2 cm de diámetro) y otros (estructura reproductivas, cuerpos y heces de insecto). Las muestras fueron secadas en una estufa a temperatura de 65°C durante 72 h. Los datos de producción de hojarasca fueron expresados en (g m-2).
Flujos corticales
En el ejido San Juan, Pueblo Nuevo, se establecio una parcela de 2,500 m2 donde fueron seleccionadas especies vegetales, para medir la precipitación directa mediante canaletas fijas (PVC de 0.1 m2 (10 cm de ancho x 100 cm de largo) en forma de U, conectadas por medio de mangueras a recipientes de 20 L, a una altura de 1 m. Adyacente a la parcela, se establecieron cuatro colectores de precipitación incidente. Para el escurrimiento fustal se eligieron arboles con 15 cm de diámetro (utilizando colectores de plástico en forma de embudo, mientras que para arboles de diámetros de 35 cm, se utilizaron mangueras de plástico con perforaciones de 2.5 a 3 cm de intervalos, estas mangueras se fijaron a 1 m de altura, para cada variable evaluada se utilizaron cuatro árboles de cada especie, (Yáñez, 2011). Después de cada evento de lluvia, las cantidades fueron registradas dentro del periodo de enero-2021-julio 2021. La determinación del valor de pH y conductividad eléctrica (CE, µS cm-1) de las muestras colectadas, se realizo mediante un potenciómetro-conductivímetro marca Consort multi-parameter analyser modelo C3010.
Composición y estructura de la vegetación.
En dos sitios de la sierra del estado de Durango. Se ubicaron parcelas de 1000 m2 por sitio de estudio, en las cuales se realizó un inventario y a cada individuo se le determinaron parámetros dasométricos tales como diámetro normal a altura de pecho, utilizando una forcípula forestal marca Haglöf, modelo Mantax Blue 950Mm, altura total y comercial con un hipsómetro Vertex Láser IV marca Haglöf, modelo HS102, cobertura de copas con cinta métrica marca Truper, modelo CM112 50 m; esta última se estimó a partir de la longitud del largo (norte-sur), por ancho (oriente-poniente) de cada copa, con el fin de conocer la cobertura parcial y total de las especies presentes por sitio, densidad, así como los indicadores ecológicos: abundancia, dominancia, frecuencia y valor de importancia (VI). La diversidad de especies se estimó con el índice de Shannon-Wiener y la similitud entre sitios mediante el índice de Jaccard.
CONCLUSIONES
Los resultados señalan la importancia de los diferentes componentes de la hojarasca, la deposición es un proceso fundamental en ciclo de nutrientes planta suelo ya que representa la principal fuente de transferencia de materia orgánica y nutrientes por parte aérea a la superficie del suelo produciendo una capa protectora, esta capa produce un manto orgánico el cual contribuye a la regeneración del suelo, mantiene la fertilidad y ayuda mantener las propiedades físicas y químicas, entre otros procesos fundamentales de los ecosistemas.
El pH y CE presenta variaciones químicas relacionadas al tipo de evento de lluvia, en general el pH se obtuvieron valores combinados (alcalinos y acidos) En la CE se mostraron valores muy altos en las primeras lluvias ya que arrastro consigo nutrientes y sedimentos de algunos insectos acumulados con el tiempo y fueron lluvias con poca precipitación, factores como la forma del árbol, duración del evento y dirección de la lluvia son importantes en la variación de la C.E.
Los resultados obtenidos de esta investigación revelan que la diversidad y estructura en sitios continuos y en condiciones similares de latitud existen una marcada diferencia en composición y estructura, lo cual es un ejemplo de la complejidad ecológica que alberga la Sierra Madre Occidental, además de que el desarrollo de las especies no es el mismo y que se le está dando un manejo diferente a estas áreas, a través de la información generada se proporciona el análisis sobre la composición y estructura vegetal de cada uno de los sitios, aportando información cuantitativa sobre la diversidad y riqueza de especies existentes en cada uno de ellos, permitiendo comprender el funcionamiento de los ecosistemas forestales y que sean utilizados en la toma de decisiones silvícolas para realizar un buen plan de manejo para el aprovechamiento de los recursos forestales o conservación de los mismos.
Gonzalez Legorreta Lizeth Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. David Choque Quispe , Universidad Nacional José María Arguedas
TRATAMIENTO DE AGUAS RESIDUALES CONTAMINADAS CON METALES PESADOS MEDIANTE ADSORCIÓN POR ARCILLAS ACTIVADAS CON CLORURO DE SODIO (NACL)
TRATAMIENTO DE AGUAS RESIDUALES CONTAMINADAS CON METALES PESADOS MEDIANTE ADSORCIÓN POR ARCILLAS ACTIVADAS CON CLORURO DE SODIO (NACL)
Gonzalez Legorreta Lizeth Daniela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
Durante los últimos años, la gestión de los residuos y metales pesados ha sido uno de los problemas ambientales más alarmantes a solucionar, ocasionado por el incorrecto manejo y disposición final de los residuos industriales.
Los estudios recientes demuestran que la producción de las trazas industriales en los cuerpos de agua es uno de los mayores problemas que se presentan en el medio natural y que ha incrementado considerablemente como consecuencia del rápido crecimiento demográfico, la urbanización, la industrialización y el desarrollo económico, que además provoca un impacto a corto, mediano y largo plazo sobre los cuerpos de agua teniendo como resultado la pérdida de las condiciones mínimas para el uso racional y adecuado en su aprovechamiento.
La siguiente Línea de Investigación surge como necesidad de llevar a cabo la regulación ambiental de la Presa derivadora de Ándaro en el municipio de Temascalcingo, Estado de México; que permite la captación y descarga de aguas residuales provenientes de la Cuenca del Río Lerma y cuyo vertimiento industrial ha marcado un notable incremento en el control de los metales pesados.
Por consiguiente, el objetivo consiste en desarrollar materiales naturales que recurran a la generación de fuentes alternas en el tratamiento de aguas residuales mediante la evaluación de su eficiencia para la remoción y adsorción de metales Cu(II), Ni(II) y Pb(II) expuestos al medio ambiente y soluciones sintéticas empleando arcillas modificadas químicamente con Cloruro de Sodio, aprovechando su capacidad de cambio catiónico que se erige como la fuente inmediata de aprovechamiento debido a su efectividad en procesos de adsorción en la remoción de metales pesados, pretendiendo brindar una solución en relación a la implementación y sostenibilidad que mejore la calidad y posibilite el reusó en torno a una gestión eficiente para el uso del agua residuales contaminadas.
METODOLOGÍA
La investigación es de tipo exploratorio para realizar la descripción de la evaluación de la capacidad de remoción de metales pesados en aguas residuales del rio Lerma en la presa derivadora Ándaro analizando los parámetros CIC de las arcillas activadas y la cinética de adsorción de metales pesados.
Caracterización de la Arcilla
El proceso de activación se realizó de acuerdo al procedimiento planteado por Perugachi (2006). Este proceso se realizó con una sal de cloruro de sodio a diferentes concentraciones considerando un tiempo de agitación de 24 horas y una relación g de arcilla/ml de cloruro de sodio igual a 1/5.
La arcilla se activa mediante la activación sódica que se realizando una impregnación simple estando en contacto la arcilla con Cloruro de Sodio (NaCl) a diferentes concentraciones 0.5, 1.0 y 1.5 molar durante un tiempo determinado.
Capacidad de Adsorción
La capacidad de adsorción está relacionada con la superficie específica y porosidad para que exista la interacción de tipo químico entre el adsorbente.
Cinética de Adsorción
El estudio de la cinética de adsorción es importante ya que permite entender mejor el mecanismo de reacción.
Capacidad de Intercambio Catiónico (CIC)
Alta capacidad de hinchamiento en fluidos orgánicos.
Valor de intercambio catiónico alrededor de los 80meq/100g.
pH de la Solución
El pH considerado para las muestras de la presa derivadora corresponde a un pH de 6, ya que se ha demostrado que al aumentar el pH de la solución esta reduce la concentración de iones de hidrógeno que permite una mejor atracción entre los cationes metálicos y las superficie del adsorbente, donde estos son absorbidos en la superficie del adsorbente mediante el intercambio catiónico.
CONCLUSIONES
La concentración de metales pesados, constituyen en la actualidad un serio problema ambiental debido a su alto índice de peligrosidad por las elevadas concentraciones en volumen de metales pesados en el agua, de su uso y filtración en el suelo para riego de tierras de los sembradíos y de su pésima calidad fisicoquímica desencadenando una serie de problemas ambientales, sociales y de salud.
La implementación metodológica de la Línea de investigación sobre el Tratamiento de aguas residuales contaminadas con metales pesados mediante adsorción por arcillas activadas con cloruro de sodio (NaCl) representa una oportunidad para la evaluación de la capacidad de remoción de los extractos de metales pesados como el Cu(II), Ni(II) y Pb(II) en las aguas residuales del caudal del rio Lerma que son captadas en la presa derivadora Ándaro para ser utilizadas en la irrigación de los cultivos de maíz en el Valle de Temascalcingo, México.
De manera que, la adsorción por arcillas activadas ha tomado importancia en el tratamiento de aguas residuales debido a que, además de ser un método factible y de bajo costo con excelentes resultados de remoción de metales pesados, contribuye a mejorar las condiciones fisicoquímicas dada su capacidad de intercambio catiónico, obteniendo mayores porcentajes de remoción de metales a concentraciones superiores a 1.0 M y con un índice de pH 6 para producir proceso en la interfase y en la superficie de la arcilla que permitan disminuir los altos índices de contaminante, separar los sólidos ofensivos y convertir al líquido cloacal en un efluente final sea aceptable que garantice así la preservación de las aguas tratadas al límite de que su uso posterior no sea descartado, facilitando su implementación y sostenibilidad.
González Luna Isela, Instituto Tecnológico Superior de Xalapa
Asesor:M.C. José Marcos Zea Pérez, Universidad Politécnica de Querétaro
TRITURADORA DE PET CASERA
TRITURADORA DE PET CASERA
González Luna Isela, Instituto Tecnológico Superior de Xalapa. Asesor: M.C. José Marcos Zea Pérez, Universidad Politécnica de Querétaro
PLANTEAMIENTO DEL PROBLEMA
La presencia del plástico en el planeta ha alcanzado cantidades con las que el ser humano ya es incapaz de lidiar. El plástico ha facilitado la vida de las personas desde principios del siglo XX, sin embargo, su uso en la actualidad ya está trayendo más desventajas que ventajas debido a las decenas e incluso cientos de años que le toma descomponerse.
En México de acuerdo con la investigación realizada por La Comisión de Medio Ambiente y Recursos Naturales el consumo de PET asciende a 722 mil toneladas al año. Además, México es el segundo consumidor de envases de PET para refrescos en el mundo y el primero para recipientes de agua embotellada, esto quiere que la tercera parte de la basura doméstica en México se debe a los envases de PET, ya que se producen aproximadamente nueve mil millones de botellas al año.
METODOLOGÍA
Se llevó a cabo una metodología de diseño para la manufactura en conjunto con la metodología de design thinking partiendo de etapa de empatizar con el problema, posteriormente la generación de soluciones mediante una lluvia de ideas, para de ahí pasar a la etapa de prototipado que en este caso al ser todo de forma virtual se optó por realizarlo con herramientas digitales de software especializado en CAD de tal forma que se modelaron cada una de las piezas que conforman a la trituradora en el software SolidWorks, así como el ensamble final. Es importante mencionar que se modificaron las dimensiones que se tenían pensadas inicialmente de la trituradora para que fuera posible su manufactura, considerando la capacidad de cada uno de los procesos de fabricación, así mismo se buscó que fuera más compacta y de esta forma también más fácil de transportar para el usuario.
CONCLUSIONES
Durante la estancia del programa de verano logré adquirir diversos conocimientos, primero que nada, aprendí acerca de la gran problemática actual que existe debido a la contaminación por PET, tanto en México como en el mundo. Por otra parte, puede aprender mucho sobre el manejo del software SolidWorks, pues, aunque ya había trabajo con él, existían muchas herramientas que desconocía.
Como principales resultados se obtuvo el modelo geométrico en CAD del prototipo de la trituradora, así como los planos técnicos de cada una de las piezas, el plano general, el plano explosionado del ensamble, en donde se muestran de forma clara como están colocadas cada una de las piezas que conforman la trituradora. También se obtuvieron las hojas de proceso que describen a detalle la forma de manufacturar la trituradora de forma óptima. Por último, se obtuvo una imagen renderizada del ensamble final, así como una simulación de movimiento para validar su funcionamiento previo a su fabricación.
Finalmente, se espera que este proyecto pueda ayudar a la sociedad a tomar conciencia sobre el problema actual de contaminación por PET, así como también ayudar al cuidado del medio ambiente.
González Martínez Leslie Jocelyn, Instituto Politécnico Nacional
Asesor:Dr. Carlos Alberto Castañeda Olivera, Universidad César Vallejo
USO DE BIOMASA BACTERIANA PARA ADSORCIóN DE CADMIO EN AGUAS CONTAMINADAS: UNA REVISIóN DE LA LITERATURA.
USO DE BIOMASA BACTERIANA PARA ADSORCIóN DE CADMIO EN AGUAS CONTAMINADAS: UNA REVISIóN DE LA LITERATURA.
González Martínez Leslie Jocelyn, Instituto Politécnico Nacional. Asesor: Dr. Carlos Alberto Castañeda Olivera, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
Las aguas contaminadas con cadmio (Cd2+ ) han suscitado una creciente preocupación debido a sus propiedades no biodegradables, su alta toxicidad y propiedades cancerígenas, incluso en dosis bajas (Bolan et al., 2014). Este elemento causa alteraciones a nivel enzimático, renal, respiratorio y digestivo ; adicionalmente, produce la enfermedad de Itai-itai, con el agravante de tener una vida media de 10 a 30 años en los humanos (Ramírez,2002), entre otros.
Diversos métodos convencionales han sido utilizados para la eliminación de metales pesados en aguas, entre ellos: precipitación química, oxidación, reducción, intercambio iónico, filtración, tratamiento electroquímico, tecnologías de membrana, la adsorción con biocarbón, electroflotación y recuperación por evaporación, los cuales se asocian con altos costos, ineficiencia (principalmente cuando la concentración de los metales es muy baja, menor a 100 mg/L), complejidad, contaminación secundaria y dificultad con el manejo de los residuos generados (Li et al., 2020; Devanesan y AlSalhi, 2021). Por ello es imperante la búsqueda de tratamientos alternativos para eliminar el Cd2+ de las aguas contaminadas y así evitar generar impactos negativos en el ambiente. Entre los biotecnologías propuestas está la bioadsorción, que emplea tanto biomasa viva como biomasa muerta (Mejía, 2006) y/o sus productos metabólicos para la eliminación y/o recuperación de metales pesados en aguas contaminadas (Wang and Chen, 2009), así pues, se requiere el conocimiento de las diversas especies bacterianas utilizadas en las distintas investigaciones a fin de establecer cuáles son las más eficientes y a qué condiciones operacionales han sido sometidas para lograr biotratamientos competentes.
METODOLOGÍA
La presente investigación es del tipo aplicada, está asociada la utilización de los conocimientos orientados a resolver problemas de la vida cotidiana o controlar situaciones prácticas (Padrón, 2006), en este caso, resolver el problema planteado.
Se realizó la búsqueda de información bibliográfica presente en los diversos recursos digitales disponibles, a fin de efectuar una Revisión Integradora de la Literatura sobre las diversas especies bacterianas utilizadas en la biorremediación de cadmio. Para realizar la búsqueda de información se recurrió a la base de datos confiable a nivel internacional Scopus, en ella se emplearon palabras clave (biomass, bacteria, bacterium, adsorption, biosorption, bio-sorption, cadmium, contaminated water, wastewater y polluted water) y operadores booleanos (AND y OR), estableciéndose la siguiente cadena de búsqueda:
(biomass AND ( bacteria OR bacterium ) AND ( adsorption OR biosorption OR bio-sorption ) AND cadmium AND ( "contaminated water" OR wastewater OR "polluted water" ) )
Los operadores booleanos se utilizaron para establecer las operaciones lógicas entre los conceptos y para recuperar documentos que incluyan información pertinente acerca del tema. Así mismo, se estableció el periodo de búsqueda para artículos científicos pertenecientes a los últimos 10 años (2012-2021) y, además se eligieron aquellos publicados en el idioma inglés. Para realizar la selección de investigaciones, primero se procedió a la lectura de todos los títulos y resúmenes de los artículos encontrados, posteriormente se realizó el cribado de los mismos según PRISMA. Los documentos empleados en la investigación fueron seleccionados a partir de criterios de inclusión (palabras clave, año e idioma establecidos) y presencia de datos relevantes.
En la base de datos Scopus se encontró una suma total de 33 artículos de investigación relacionados con el tema; sin embargo, no todos fueron incluidos puesto que no contenían información específica del tema, no detallaban la metodología y/o dosis utilizada, obteniendo un total de 20 artículos para lectura y análisis, de éstos se extrajo información sobre las biomasas bacterianas utilizadas en la adsorción de cadmio, de las cuales se establecieron las cepas más eficientes, también, se extrajeron las condiciones de operacionales a las que fueron sometidas (pH, temperatura, concentración de biomasa, concentración inicial de Cd 2+).
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las biomasas bacterianas utilizadas en la adsorción de cadmio en aguas contaminadas. Se puede inferir que estos microorganismos son herramientas sostenibles para la desintoxicación y la desmovilización de iones de cadmio en aguas, las cepas bacterianas más eficientes encontradas en las investigaciones consultadas según las condiciones de operación correspondientes son: Pseudomonas sp. 375 (viva), Pseudomonas aeruginosa CA207Ni,Pseudomonas aeruginosa Gb30,Bacillus amyloliquefaciens HM28, Alcaligenes faecalis K2. Esta biotecnología es una alternativa útil a los sistemas convencionales para la eliminación de metales pero no necesariamente debe suplirlas por completo, podrían ser complementarias para los procesos existentes que no resultan completamente eficientes. Sin embargo, el desarrollo de los procesos de bioadsorción y demás tecnologías para el tratamiento de aguas, requiere una mayor investigación a fin de obtener sistemas de tratamiento rentables y sustentables para así evitar evitar la contaminación secundaria, fomentar el ahorro de recursos y promover la recuperación del Cd2+.
González Mena Fabiola, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN QUERÉTARO, MÉXICO.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN QUERÉTARO, MÉXICO.
González Mena Fabiola, Tecnológico de Estudios Superiores de Jocotitlán. Millan Uribe Christofer, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En 2011 se da a conocer la Cuarta Revolución Industrial en la Feria de Hannover que es la Feria Industrial más grande del mundo, surgiendo un nuevo paradigma económico (Deutschland, 2014). El concepto forma parte de una estrategia de alta tecnología del gobierno alemán que describen la producción industrial en general donde, los elementos del sistema productivo están interconectados entré sí digitalmente. Después de 10 años, a este respecto Taboada y Sámano en Martínez, Álvarez y García (2020) afirman textualmente que:
… a diferencia de lo que en otros países y en distintos grados viene sucediendo - en particular en Alemania desde 2013 (Schroeder, 2017), en México, no hay una estrategia integral para participar y prepararse para los fuertes cambios de índole diversa que derivarán de esta fuerte transformación o revolución.
De acuerdo con el Clúster Industrial de México, durante 2020, las regiones con mayor crecimiento en digitalización de la industria en México fueron:
El corredor del Bajío y Guadalajara.
En el Norte: Monterrey, Tijuana, Ciudad Juárez y Hermosillo.
En el centro el Estado de México
Una de las grandes ventajas que tiene el estado es la vocación manufacturera, lo cual provoca una fuerte demanda por las empresas relacionadas con los componentes y servicios tecnológicos, mismos que se busca desarrollar a nivel local con técnicos e ingenieros especializados y en palabras del titular de la SEDESU, Marco Antonio del Prete Tercero … Hoy Querétaro está siendo la punta de lanza en la famosa revolución 4.0 (Almanza, 2017) La principal debilidad es la falta de recurso humano técnicamente habilitado en industria 4.0, considerando aspectos de teoría, práctica, contexto y normatividad. México es de las 12 economías más importantes del mundo en lo que a la industria manufacturera respecta, por su valor de producción y diversidad, con un sector industrial considerado robusto. Sin embargo, el sector corre el riesgo de rezagarse debido a la carencia de talento calificado y se ubica en el lugar 46 al considerar a los países más preparados para la industria 4.0. En nuestro país apenas 5% de las empresas conocen y aplican la industria 4.0 (Campa, 2019).
METODOLOGÍA
El proyecto de investigación aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) En desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) De acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) del estado de Querétaro, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Por factores de periodos vacacionales la información recolectada por las IES es poca, sin embargo, ya se cuenta con un amplio directorio para encuestas de diferentes IES para retomar en cuanto inicie el ciclo escolar.
De los datos obtenidos por nuestros encuestados podemos ver que para nuestros factores a encuestar; planta docente, estudiantes y estudiantes potenciales, planes de estudio, infraestructura y equipo, mercado laboral, liderazgo y políticas regionales y por último sostenibilidad, reflejan lo siguiente:
Factor Planta Docente: los datos muestran que la percepción sobre las capacidad y el número de profesionistas relacionados a la industria 4.0, incentivos tanto económicos y sociales son suficientes para el estado de Querétaro.
Factores Estudiantes y Estudiantes Potenciales: Para los estudiantes y estudiantes potenciales se muestra un claro interés sobre temas de industria 4.0, por otro lado, se considera un poco de confusión sobre las oportunidades laborales y remuneraciones económicas y oportunidades de desarrollo personal incentiven el interés sobre tópicos de industria 4.0.
Factor Planes de Estudio: se considera que los programas de estudio relacionados con la industria 4.0 son pertinentes a la industria 4.0 y aportan competencias profesionales para la digitalización de procesos, sin embargo, se considera ampliar más el catálogo y actualizar los existentes.
Mercado Laboral: según nuestros encuestados no hay suficientes aspirantes capacitados para la industria relacionada con la industria 4.0 pese a la remuneración del mercado laboral, la posibilidad de crecimiento profesional, igualmente se ve una tendencia que la industria regional ofrece y promueve poco la capacitación en industria 4.0.
Liderazgo y Políticas Públicas Regionales: según nuestros encuestados, no hay suficientes o muy pocas políticas públicas, agendas políticas, agendas académicas o industrial para desarrollar la industria 4.0 en la región.
Factor Sostenibilidad: se cuenta con pocos programas de becas para promover talentos en industria 4.0, sin embargo, se considera que son necesarios a corto y mediano plazo porque favorece el cuidado del medio ambiente, favorece el cuidado de la seguridad y salud ocupacional, ofrece la oportunidad de desarrollar planes de negocio innovadores.
González Mondragón Yaxkin Alejandro, Universidad de Guadalajara
Asesor:Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
Chávez Luna Katia Marlen, Instituto Tecnológico Superior de Los Reyes. Conejo Patiño Karen Lizbet, Instituto Tecnológico Superior de Huetamo. González Mondragón Yaxkin Alejandro, Universidad de Guadalajara. Victoriano Rocha María Isabel, Universidad Veracruzana. Asesor: Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
PLANTEAMIENTO DEL PROBLEMA
El caso que se analiza corresponde a la empresa Confecciones Sara S. A. S." ubicada en la ciudad de Medellín, Colombia, la cual ofrece ropa interior femenina y masculina. Esta empresa no manejaba óptimamente el control de sus pronósticos de ventas debido a una deficiente planeación en sus operaciones y falta de comunicación entre el Área de Gestión Ventas directas y el Área de Gestión de Producción (Directora Comercial y Director de operaciones); sumando a esto, tenía una errónea gestión de inventarios, ya que en repetidas ocasiones se reflejaban excedentes o faltantes de materias primas, para lo cual se busca la integración del área de logística y producción. Si se logra resolver la problemática antes descrita se tendrá un eficiente control tanto en inventarios como en producción, lo cual se verá reflejado en un incremento en las ganancias, teniendo un mejor posicionamiento ante la fidelidad de los clientes.
METODOLOGÍA
Se utilizaron diferentes métodos para la resolución de las problemáticas, uno de ellos fue crear el diagrama de Ishikawa en el que de manera gráfica se pudo observar las principales causas y efectos que tenía la empresa en la gestión inadecuada de los inventarios, flujo de información, proveedores y tecnologías.
Más tarde se elaboraron los pronósticos de los diferentes productos que maneja la industria para el año 2015, los cuales se elaboraron en Minitab y fueron diferentes métodos para cada producto, en el Baby Doll, Brasier, estraple y panty se utilizó el de descomposición, en la brasilera fue el método Winters y en el cachetero fue el promedio móvil. Optamos por estos métodos ya que al analizar la demanda por medio de las diferentes gráficas y utilizar todos los métodos de pronóstico para los productos, se determinó que se trabajaría con el menor porcentaje de error y como se mencionó anteriormente, esos fueron los mejores resultados para los pronósticos del año 2015. Teniendo los pronósticos, se realizó el plan maestro de producción, en donde se planeó cuantos lotes producir por semana para satisfacer la demanda con y sin subcontratación, esta producción varia durante los meses del año dependiendo las ventas del producto.
Posteriormente, para el manejo de los inventarios se tomó en cuenta la demanda anual de cada materia prima, para la formulación de una correcta política de abastecimiento que permitiera contener la menor cantidad de inventarios en almacén. Además, con la información proveída previamente en el caso y obtenida en pasos anteriores, se hizo el cálculo del stock de seguridad con ayuda del plazo de entrega de los productos, la desviación estándar, la demanda y la tasa de servicio que se planea prestar. De esta manera se tiene seguridad ante retrasos y se evita la pérdida de ventas y el ahorro de tiempos.
Con referente a la estructura organizacional, se plantearon varios cambios en relación al organigrama original:
Supresión del Departamento de Gestión Comercial y gerencial. Esto a raíz de que ya se cuentan con dos departamentos que llevan a cabo actividades de gestión comercial, por lo que las acciones de éste departamento pueden ser absorbidas por los últimos mencionados. La gestión gerencial puede ser manejada por medio de otra herramienta de control.
Incorporación del Área de Ventas Directas y Compras al departamento de Gestión Comercial Ventas Directas. El cambio surge al encontrarse dicha área sin depender claramente de ningún departamento.
Reestructuración del Departamento de Gestión de la Producción. Ante la falta de comunicación en las áreas, que ocasiona descoordinación logística, se reestructuró el departamento subviniéndolo en dos áreas, la de producción y la de logística. En el área de Logística se agrupan los despachos, el área de compras y el de producto terminado, mientras que en Producción se asignan el resto de las áreas enfocadas únicamente en la realización del producto.
CONCLUSIONES
Como resultado de la investigación, se puede concluir que, al aplicar las herramientas de ingeniería industrial a los problemas que se presentan en el caso Confecciones Sara S.A.S., se obtuvo la propuesta de mejoramiento de la producción en cuanto a la demanda, control de sus inventarios, y una mejor estructura organizacional.
En cuanto a la planificación de la demanda se debe realizar un proceso riguroso ya que la demanda de los modelos tiene un alto índice de rotación por los cambios de moda, una vez pronosticado, se obtuvo que para baby doll durante todo el año se hará 1 lote por semana de 300 pzas, para brasier se recomienda sub contratación para la producción de 2, 3 y 4 lotes diarios de 800 pzas, esta producción varía de acuerdo a la estacionalidad, para estraple, brasilera y cachetero se pretende 1 lote diario de 300 pzas. De igual manera, para llevar a cabo una mejor administración de los inventarios se plantearon pronósticos de ventas para el año 2015, los cuales resultaron de la siguiente manera: Baby doll un total de 8,987 pzas al año, brasier 510,117 pzas, y panty 146,897 pzas, para el cachetero 6,489 pzas y por último la brasilera con 47,688 pzas al año. Se recomendaron también políticas de inventarios que garanticen un índice aceptable de productividad.
Finalmente, se identificó que se requiere un modelo colaborativo en la cadena de suministro del caso Confecciones Sara tanto como en el área gestión de ventas directas como el área de gestión de la producción.
González Morales Nora Andrea, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
DISEÑAR E IMPLEMENTAR ELEMENTOS MECÁNICOS QUE PERMITAN DOSIFICAR LOS ALIMENTOS, ASÍ COMO MANTENER LOS NIVELES ADECUADOS PARA EL AGUA EN EL AJOLOTARIO CON SENSORES Y ACTUADORES
DISEÑAR E IMPLEMENTAR ELEMENTOS MECÁNICOS QUE PERMITAN DOSIFICAR LOS ALIMENTOS, ASÍ COMO MANTENER LOS NIVELES ADECUADOS PARA EL AGUA EN EL AJOLOTARIO CON SENSORES Y ACTUADORES
González Morales Nora Andrea, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Con base en el articulo publicado en la revista Lasirc con titulo Diseño de Ajolotario Artificial Automatizado Para la Conservación de la Especie, el problema principal es el peligro que la especie corre de extinción por los problemas ambientales y culturales que hay en su hábitat, Xochimilco, Edo. De México.
Dentro de este proyecto, inicialmente, el diseño de un ajolotario automatizado que consta de alimentación automatizada que consta de un actuador que impulsa el alimento a través de una compuerta y es arrojado en hacia el estanque.
Para poder ser completado el proyecto de automatización, es necesario agregar el control de temperatura, aún cuando la especie si es capaz de adaptarse, sin embargo, nosotros buscamos optimizar lo que más sea posible. También se busca controlar el nivel de pH.
Por lo que, en este verano de investigación se modificara el mecanismo para la alimentación y los sensores de temperatura y pH.
METODOLOGÍA
Como primer momento se investiga las características que debe tener el agua y que sensores e instrumentos son los ideales para poder medir dicho parámetro.
Durante la búsqueda de información se encontró que, para temas de acuicultura, ya hay sistemas que nos permiten controlar variables como la temperatura, el pH, los niveles de cloro, etc. del agua. Esto se realiza con diversos sensores y mecanismos que varían dependiendo la especie, ya que cada una de estas requieren distintas temperaturas y niveles de pH.
Se consideraron únicamente dos variables como se mención en el apartado anterior. Las variables son la temperatura y pH.
Por lo anterior, se utiliza una resistencia Termistor NTC junto con un sensor LM35, una tarjeta Arduino UNO® y una resistencia de 47 Ohms. Lo antes mencionado es para medicion de temperatura, que para el ajolote deber estar entre los 14 y 16 °C. Al entrar en un aumento de temperatura superior a lo normal, se activa una alarma que nos indica dicho aumento.
Y para el control de pH, tenemos un sensor, un modulo para Arduino UNO®, y una tarjeta Arduino UNO®. Igualmente con la temperatura, cuando el valor sea mayor o menor que 7, se activara una alarma que nos indica que el nivel esta por encima o por debajo de la cifra correcta.
Estos sistemas se integran físicamente en el mecanismo que proporciona el alimento el cual se explica a continuación.
En el articulo del que se obtuvo la información, el sistema que proporciona el alimento al estanque no se tiene contemplado que físicamente la distribución no seria igual o proporcional, ya que, se solo es una compuerta la que se abre y cae sobre un solo punto. Entonces, se modifica agregando una mesa inclinada a 40° con respecto la altura máxima del estanque, teniendo una longitud del diámetro del mismo. En esta mesa inclinada que tiene una longitud de ancho de 40 centímetros, tiene dos compuertas colocadas 20 centímetros a partir de la mitad de la mesa. Estas compuertas son abiertas por motores a pasos.
Cuando la compuerta, donde se encuentra el alimento se abre y el actuador empuja la porción indicada, esta pasa y baja a través de la mesa. La primera compuerta se mantiene abierta y justo al pasar por el centro de la mesa, la compuerta dos se abre permitiendo depositar el alimento. Después de un tiempo de 5 segundos, se cierra y el proceso se repite, solo que en este caso la compuerta uno es la que apertura y deja caer el alimento.
CONCLUSIONES
Durante el verano de investigación, a pesar de algunas dificultades que están fuera del evento, se adquirió conocimiento sobre como se lleva a cabo una investigación, desde el proceso de identificar cual es la problemática a resolver, planificar y llevar a cabo lo planeado. Esto último, al realizar una rápida autoevaluación, me lleva a determinar que aun no logro adquirir muchas habilidades y es algo que se debe practicar.
En términos del proyecto y su materia, se logro un diseño diferente que nos ayuda al control y medición, sin embargo, no se culmino de acuerdo a lo planeado ni se obtuvieron resultados esperados debido a fallas de la estudiante en cuanto a tiempo y dedicación. Solo se obtuvieron conocimientos básicos y teóricos.
González Ortega Paula Daniela, Universidad Santo Tomás
Asesor:Dra. Miriam Siqueiros Hernández, Universidad Autónoma de Baja California
ESTUDIO DE FIBRAS NATURALES UTILIZADAS EN MATERIALES COMPUESTOS DE MATRIZ POLIMÉRICA PARA LA MANUFACTURA DE PRÓTESIS TRANSTIBIAL
ESTUDIO DE FIBRAS NATURALES UTILIZADAS EN MATERIALES COMPUESTOS DE MATRIZ POLIMÉRICA PARA LA MANUFACTURA DE PRÓTESIS TRANSTIBIAL
Acosta Púa Aura Marcela, Universidad de la Costa. González Ortega Paula Daniela, Universidad Santo Tomás. Asesor: Dra. Miriam Siqueiros Hernández, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Introducción
Durante las últimas décadas se ha incrementado significativamente el uso de materiales poliméricos en las más diversas aplicaciones, debido a algunas importantes ventajas frente a otros materiales, como la facilidad de procesamiento, la productividad que puede alcanzarse en su obtención, su baja densidad y su bajo costo.
Diversos estudios coinciden en señalar las ventajas de usar fibras naturales como cargas en compuestos de matriz polimérica, entre las que se destacan: provienen de recursos renovables, lo cual facilita su disponibilidad; son de bajo costo, biodegradables, por lo tanto se atenúa el impacto sobre el medio ambiente, y además son livianas. Una característica de gran interés es que presentan propiedades mecánicas que, en algunas aplicaciones, son comparables con materiales de refuerzo sintéticos convencionales como las fibras de vidrio o de carbono.
Las fibras naturales se clasifican según su origen vegetal, animal o mineral. A su vez, las fibras de origen vegetal se clasifican de acuerdo con la parte de la planta de la que se extraen, como se muestra en la Figura 1. (Velásquez, Pelaéz, & Giraldo, 2016)
METODOLOGÍA
2. Materiales compuestos
2.1. Evolución de los materiales compuestos
Los materiales compuestos han cobrado gran importancia en la industria aeronáutica, aeroespacial, automotriz y en la fabricación de generadores eólicos, en general, en la fabricación de objetos que poseen muy bajo peso, con una alta resistencia. Esto se debe a que los materiales compuestos, comparados con el acero son cinco veces más fuertes, dos veces más rígidos y pueden llegar a ser cuatro veces más livianos.
Un material compuesto consiste en dos o más materiales (proporciones razonables >5%) que trabajan juntos y cada uno contribuye estructuralmente a un nivel macroscópico con sus propiedades. Esto resulta en una combinación y el material resultante tiene propiedades superiores a la de los constituyentes, tal como se muestra en la figura 2. (Rosel, Molina, Paz, & Ruiz, 2018)
2.2. Clasificación de los materiales compuestos
Los materiales compuestos se clasifican en tres divisiones cuales son: Reforzados por partículas, fibras y estructurales como se muestra en la Figura 3. La fase dispersa de los compuestos reforzados con partículas tiene aproximadamente las mismas dimensiones en todas las direcciones. Por su parte, los compuestos estructurales están hechos de multicapas y son diseñados para tener baja densidad y alto grado de integridad estructural. (Córdova, 2019)
2.3. Propiedades de los materiales compuestos
- Matriz
- Refuerzo
- Teoría de Homogenización
3.Fibras naturales
3.1. Fibras vegetales basadas en celulosa natural
Las fibras vegetales son materiales fibrosos que pueden extraerse de la naturaleza. En mayor proporción se componen de celulosa, lignina, hemicelulosa y otros componentes en menor cantidad. Las fibras celulósicas se encuentran en la naturaleza de diversas formas, es así como se clasifican de acuerdo con la figura 4. (Córdova, 2019)
4. Propiedades de las fibras vegetales
Las fibras vegetales presentan características, las cuales les permiten ser utilizadas como refuerzo en matrices poliméricas, las mismas que están relacionadas con las propiedades finales del material compuesto. Siendo resistentes a esfuerzos de 19 tracción, compresión, flexión e impacto. (Balladares, 2017)
CONCLUSIONES
De acuerdo con la revisión bibliográfica llevada a cabo en esta investigación; se plantea realizar un estudio a nivel teórico sobre fibras naturales utilizadas en materiales compuestos de matriz polimérica para la manufactura de prótesis transtibial, con el fin de identificar las fibras vegetales que por sus excelentes propiedades mecánicas puedan ser usadas en materiales compuestos de matriz polimérica para la fabricación de prótesis transtibial, lo anterior con el propósito de mejorar la calidad de vida, el bienestar y satisfacer las necesidades de la población que requiera de dichas prótesis. Por otro lado, desde el enfoque medioambiental esta es una propuesta con alto impacto ambiental, social y de sostenibilidad para aprovechar de manera eficiente los recursos naturales.
González Padreñan Cindy Paola, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. David Choque Quispe , Universidad Nacional José María Arguedas
NANOMATERIALES, TRATAMIENTOS DE AGUAS
PERSPECTIVAS DE LA CALIDAD DE AGUA Y SU TRATAMIENTO EN EL RIO LERMA, MéXICO
NANOMATERIALES, TRATAMIENTOS DE AGUAS
PERSPECTIVAS DE LA CALIDAD DE AGUA Y SU TRATAMIENTO EN EL RIO LERMA, MéXICO
González Padreñan Cindy Paola, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
Las aguas residuales deben ser vertidas al entorno una vez tratadas adecuadamente, ya que si no pueden suponer un riesgo tanto para la salud pública como los distintos ecosistemas. Dentro de este tipo de aguas, se encuentran los lixiviados de vertederos generados por la degradación de los residuos y la filtración (percolación) del agua de lluvia a través de ellos. Estos lixiviados presentan en su composición ácidos húmicos, nitrógeno amoniacal, sales inorgánicas y metales pesados. Todo ello hace que sean altamente contaminantes. Por ello, se consideran un problema medioambiental de primera magnitud.
METODOLOGÍA
Los problemas de escasez de agua están incrementando rápidamente debido al crecimiento de la población, contaminación y cambio climático es por esto, que se han buscado alternativas para el tratamiento de aguas.
En México, el Río Lerma es una de las preocupaciones para la sociedad. El río Lerma es el río interior más largo de México. Nace en los manantiales de Almoloya del Río, en el Estado de México, y atraviesa hacia el noroeste el Valle de Toluca, Querétaro, Guanajuato, Michoacán y desagua en el lago de Chapala en Jalisco. Tiene una longitud de 708 km y drena una cuenca de 47.116 km².
El río Lerma ha sido siempre un recurso natural básico para las actividades humanas, proveyendo agua potable y humedad a miles de hectáreas de cultivos de las márgenes y dotando de energía eléctrica a la Ciudad de México.
Sin embargo, recibe vertidos de residuos tóxicos industriales y domésticos a lo largo de sus 750 kilómetros. La mayor parte de sus aguas están contaminadas por ser utilizado como canal receptor de desecho por las ciudades y zonas industriales de Toluca y Salamanca, existiendo en esta última una refinería de petróleo. Aunado a lo anterior, se agrega la contaminación que tiene su origen en el lavado de las tierras de cultivo. El tratamiento de aguas negras podría ayudar a resolver parte de este problema. El problema es que ni los gobiernos locales ni el sector industrial hacen nada al respecto, a pesar de las reivindicaciones sociales en los últimos años. En época de precipitaciones pluviales el arrastre de desperdicios aumenta el riesgo de desborde del río, lo que ha afectado a los habitantes de las poblaciones asentadas en sus márgenes, principalmente la de San Mateo Atenco. La contaminación del agua afecta no únicamente a animales que habitan en los ríos contaminados como el Lerma, sino también a organismos que dependen de éstos como alimento.
Con cascarones de huevo, cal y óxido de magnesio, ciudadanos, junto con investigadores del Instituto Interamericano de Tecnología y Ciencias del Agua de la UAEMéx, trabajan para sanear el agua de los pozos en los municipios aledaños al río Lerma.
El análisis del líquido que dotan los pozos de agua potable en Lerma, Toluca, San Mateo Atenco, Metepec y la zona sur de la entidad, identificó que es dañina para la salud, sobre todo de niños y ancianos, por la cantidad de arsénico y metales concentrados.
Lo anterior es resultado de la degradación del recurso provocada por la incorporación de materia orgánica, pues los ayuntamientos e industrias no cumplen con la instalación de plantas tratadoras y descargan el agua residual o sucia en el río Lerma, contaminando todo alrededor del cauce.
El problema central es que los materiales peligrosos se filtran en la tierra, los extractos de metales como plomo o cadmio, además del arsénico, se concentran en el subsuelo y al cambiar su calidad fisicoquímica se mezclan de manera atípica.
Como consecuencia, generan enfermedades en la gente como cáncer, problemas renales. En niños y adultos mayores el efecto en la salud es directo, por ejemplo, en la pigmentación de la piel, generan dermatitis, reacciones en los ojos, porque el suelo, con esta materia orgánica, viene con una carga microbiológica elevada.
Es necesaria la incorporación de una mezcla de materiales que sirva de filtro para contener los residuos dañinos e impedir que los coma o beba la población, al consumir agua. Sin embargo, tras la organización de la ciudadanía, se implementó un sistema de saneamiento a base de barreras verticales en las que se realizan zanjas con un metro de profundidad donde colocan el cascarón, el óxido de magnesio y la cal.
De acuerdo con el monitoreo, y en un promedio de cinco años, se espera que al término de la recarga de lluvias el líquido tenga la calidad para poder, incluso, tomar el agua que sale de la llave.
Es posible que, con el uso de un alcalinizante, que tiene la misma función de la mezcla depositada en las zanjas y otros que buscan primordialmente cuidar y liberar el cuerpo de metales dañinos
CONCLUSIONES
Durante la estancia virtual obtuve conocimientos sobre cómo la nanotecnología emerge siendo una interesante alternativa para el diseño de sistemas para el tratamiento de aguas. El pequeño tamaño de las nanopartículas y las características de los nanomateriales hacen que el potencial de la nanotecnología en este campo sea enorme, también fue importante reconocer la importancia de la nanotecnología en el cuidado al medio ambiente ya que brinda las bases de la nanociencia, así como las nanopartículas pueden ser usadas efectivamente en el tratamiento de aguas residuales.
González Ramírez Kevin de Jesús, Instituto Tecnológico Superior de Los Ríos
Asesor:Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos
APLICACIóN DE LAS TECNOLOGIAS DEL APRENDIZAJE DURANTE LA PANDEMIA EN LA INGENIERIA EN SISTEMAS COMPUTACIONALES DEL ITSR
APLICACIóN DE LAS TECNOLOGIAS DEL APRENDIZAJE DURANTE LA PANDEMIA EN LA INGENIERIA EN SISTEMAS COMPUTACIONALES DEL ITSR
González Ramírez Kevin de Jesús, Instituto Tecnológico Superior de Los Ríos. Asesor: Dra. Fabiola Virginia Cruz García, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
El área en el que se trabajó esta investigación fue en el Instituto Tecnológico Superior de los Ríos, el tema en cuestión se tratara en específico en la academia de Ingeniería en Sistemas Computacionales, tomando como muestra los valores estadísticos que se encuentran en la jefatura de Estadística y Evaluación, en el Departamento de Planeación y Vinculación de dicha institución, enfocado en el área de la carrera de Ingeniería en Sistemas Computacionales.
La educación universitaria es uno de los principales factores más influyentes en el desarrollo de personas el cual provee conocimientos que ayudan a afrontar las transformaciones que se viven hoy en día con los avances tecnológicos y científicos, logrando contribuir a la formación de sociedades productivas. Contar con estudios universitarios ayuda a superar los retos sociales y tecnológicos que la sociedad le plantea a un estudiante, seguir con los estudios universitarios abre las puertas a mejores oportunidades laborales, dando la oportunidad de conocer nuevas personas además cambia por completo la perspectiva de ver las cosas entendiendo las razones del porque suceden y la manera en que se pueden debatir y cuestionar. Pero incluso, más allá de aquello, son muy pocos los estudiantes que llegan a graduarse en el tiempo estipulado de acuerdo a los planes de estudios de dicha institución.
METODOLOGÍA
La presente investigación es de tipo cualitativa debido a que es importante la recolección de datos de la población en especifica en este caso nos centramos en un grupo de estudiantes de la carrera de ingeneria en sistemas computacionales para que verificar la utilidad de las Tecnologias de la información en los estudiantes y como los docentes pueden emplearla, la investigación se llevo acabo en la universidad de Balancan Tabasco en el Tecnologico Nacional De Mexico Campus de los Ríos, la meta de esta investigacion es que los alumnos y docentes se puedan involucrar con las tecnologias de la información oara que puedan tener un mejor aprendizaje, con estas herramientas tambien se busca que lo alumnos de la carrera puedan ser autodidactas y se den la tarea de explorarlas para beneficios de ellos
CONCLUSIONES
Las tecnologías del aprendizaje son importantes hoy en día ya que gracias a ellas los alumnos pueden aprender de una u otra manera, con la modalidad a distancia los estudiantes de Tecnológico nacional de México campus de los Ríos de la carrera de Ingeneria en sistemas computacionales deben buscar la manera de aprender a usar estas diferentes tecnologías para que puedan aprender ya sea de manera autónoma o que sus docentes la implementen en sus clases virtuales, lo que las encuesta realizada busca descubrir como los alumnos se identifican con estas TA. Por medio de la pandemia del covid-19 las cosas cambiaron en todos los aspectos ya sea por bien o por mal para la educación ya que mientras otros alumnos aprenden otros no tienen las posibilidades por que ni siquiera cuentan con red móvil o internet donde viven y salir de sus pueblos es exponerse al virus del SARS-COV-2 por ende igual se diseñaron dos propuestas de solución para no excluir a estos estudiantes ya que la primera es por medio del M-Learning para que los alumnos tengan acceso a una plataforma idéntica al YouTube pero de manera gratuita y de tal modo igual se beneficiarían otras carreras al implementarlo, la segunda opción es la más costosa pero la más viable para los alumnos ya sea utilizando T-Learning que por medio de un canal de televisión puedan impartir clases para que los alumnos puedan aprender esa parte práctica y teórica de las materias, se llevaron acabo encuestas para una reducida población de alumnos la cual era importante para conocer sus conocimientos sobre las tecnologías del aprendizaje para poder a si diseñar las propuestas.
González Reyes Brenda Yael, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Giraldo Morales Madeleyne, Universidad Santo Tomás. González Reyes Brenda Yael, Benemérita Universidad Autónoma de Puebla. Torres González Olga, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
A partir de la revolución industrial los grandes problemas que enfrenta el sector energético son los procesos de combustión a partir del uso de combustibles fósiles y la disminución de las reservas de petróleo, ocasionando una alta concentración de gases contaminantes en la atmosfera. Una alternativa para cubrir la demanda de combustible es la producción de bioetanol y biodiesel, que pueden obtenerse por fermentación alcohólica y anaeróbica de materia orgánica sacarida y celulósica y por la conversión química de AG presentes en cultivos oleaginosos y grasas animales, así como residuales de aceites comestibles, respectivamente. Sin embargo, resulta un proceso poco sostenible debido a la alta competencia alimenticia y el uso de suelos aptos para agricultura. Por esta razón, las microalgas son materia prima de alto interés para la producción de biodiesel dada su capacidad de asimilación de CO2, alta acumulación de AG, cultivos en terrenos no agrícolas, menor consumo de agua, alta tasa de producción de biomasa en pocos días de crecimiento celular en agua salobre.
México como Colombia al igual que muchos países latinoamericanos son exportadores de petróleo, pero sus reservas probadas cada vez disminuyen. Por ello es necesario el estudio del potencial de la biomasa regional para la producción de bioetanol y biogás y al mismo tiempo la implantación de cultivos algales outdoor para producción de biodiesel cuidando la legislación y la sostenibilidad. Son muchos los retos que se tienen como el estudio de especies algales con alto contenido lipídico bajo metodologías implementadas y la adaptación a condiciones climáticas.
METODOLOGÍA
La primera parte consistió en una revisión científica literaria relacionada con el objetivo del proyecto. La segunda parte se centró en la obtención experimental de bioetanol a partir de pulpa y cascara residual de plátano y pulpa residual de mango. La obtención experimental del perfil de AG algal y el estudio de su potencial para la producción de biodiesel se llevó a cabo mediante análisis y discusión de investigaciones previas realizadas en el Laboratorio de Bioenergía del Programa de Estudios de Ingeniería en Energía de la Universidad Politécnica de Sinaloa (UPSIN).
La primera parte permitió establecer para el caso del bioetanol que la biomasa debe cumplir con altos rendimientos o presencia de compuestos sacáridos, siendo la fermentación alcohólica la tecnología más eficaz al emplear Saccharomyces cerevisiae dando buenos resultados de conversión a alcohol, el cual para fines energéticos debe ser purificado mediante destilación fraccionada y membranas que eliminen el contenido de agua en un porcentaje mayor a 96%, alcanzándose en la mayoría de los casos 99.9% de pureza. El caso experimental de producción estuvo basado en agregar levadura a biomasa previamente triturada y diluida en agua potable. Se usaron como reactores envases de plástico de 2 lt cerrados herméticamente para llevar a cabo la fermentación alcohólica anaerobia en un tiempo estimado de 5 días y en cuyo caso se apreció cualitativamente la acción del microorganismo sobre la digestión de la biomasa, la producción de CO2 como gas principal de la reacción bioquímica ocurrida y la producción de etanol una vez filtrada la muestra cuyo color y olor presento variación según el residual usado.
Para el caso de producción de biodiesel la técnica de conversión de AG contenidos en los lípidos únicamente es la transesterificación química catalizada por ácidos, álcalis o enzimas. El caso experimental estuvo basado en las microalgas Dunaliella tertiolecta y Nannochloropsis oculata las cuales presentaron crecimiento celular en 21-24 días respectivamente. Para la obtención de la biomasa se usó un agente floculante, siendo NaOH 1 M el que alcanzo en 99.9% de dicha recuperación, luego se aplicó liofilización para una biomasa completamente deshidratada color verde y olor a producto marino. Paso siguiente fue la extracción de lípidos empleando una mezcla de solvente y mediante la técnica de sonicación y soxhlet, finalmente se caracterizó por cromatografía de gases obteniendo un perfil lipídico para Dunaliella tertiolecta compuesto por AG saturados, monoinsaturados y polinsaturados tales como ácido palmítico, ácido mirístico, ácido linoleico y ácido linolenico clásicos y favorables para la producción de biodiesel, con rendimientos aceptables comparables con reportes científicos publicados.
CONCLUSIONES
Se lograron los conocimientos teóricos para producción de bioetanol y biodiesel como combustibles alternos que factiblemente pueden obtenerse tanto en México como en Colombia. De ello se deriva que: la biomasa óptima para producción de etanol de residuos agrícolas es aquella que contenga un alto contenido de sacáridos, utilizando pulpa, cáscara y/o hueso. En este proyecto de forma experimental los cambios bioquímicos se observaron en ese lapso, pero se dejó en un máximo de 5 días para una mejor observación. Para biodiesel es ideal que las microalgas sean oleaginosas y crezcan en aguas salobres como Dunaliella tertiolecta y Nannochloropsis oculata. En lo experimental se obtuvo un % acorde de AG saturados e insaturados con potencial para transesterificación por catálisis básica (NaOH). También se derivó que: un factor fundamental para elegir la biomasa es cumplir con la reglamentación vigente en el país correspondiente y garantizar que su uso no comprometa la producción alimentaria. A pesar de que existe mucha biomasa residual, es necesario hacer una caracterización fisicoquímica que avale el contenido de sacáridos, grasas y proteínas para garantizar la producción. Las condiciones de trabajo para los procesos bioquímicos que realizan los microorganismos son fundamentales, prioritariamente temperatura y nutrientes. Los procesos de refinación son importantes ya que estos combustibles vendrán acompañados de productos como agua y glicerol.
Gonzalez Rodriguez Angel, Universidad Autónoma del Estado de México
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL CON PRE-ENTRENAMIENTO.
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL CON PRE-ENTRENAMIENTO.
Gonzalez Rodriguez Angel, Universidad Autónoma del Estado de México. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El auge y crecimiento exponencial que ha tenido el área de Inteligencia Artificial es considerable, destacando principalmente, la gran variedad de métodos para desarrollar numerosas aplicaciones. Algunos de estos métodos pertenecientes al aprendizaje automático presentan limitantes en características como linealidad, convergencia y tiempos de respuesta. A causa de estas limitantes se opta por utilizar otros modelos como lo son las estructuras dendríticas, donde el elemento de procesamiento básico es la dendrita, para los perceptrones morfológicos y su cálculo consiste en máximos o mínimos de sumas. De esta forma se favorece la implementación del modelo con una arquitectura más rápida, más eficiente y con una reducción considerable de capas neuronales.
Este trabajo se enfoca en evaluar, para el problema de clasificación en baja dimensión y en alta dimensión (imágenes), el desempeño de tres unidades con procesamiento dendral: Hipercajas, hiperelipses e hiperesferas, con una etapa de pre-entreno que permita inicializar los pesos para posteriormente entrenar con descenso por gradiente.
METODOLOGÍA
El desarrollo del trabajo se implementó en diferentes etapas, desde conocimientos fundamentales que consisten en:
Programación en Python: Aprendizaje de los conceptos básicos del lenguaje de programación, asi como, uso de algunas librerias (Pandas, Matplotlib y Numpy).
Módulos de inicialización: Desarrollo de módulos de pre-entrenamiento que consisten en encerrar y clasificar en figuras como: rectangulos, circulos y elípses, una nube de puntos aleatoria de forma automatizada.
Machine Learning: Entrenamiento de modelos de aprendizaje utilizando redes neurales para obtener la mas exacta clasificación de data-sets como Mnist, Fashionmnist y Cifar10.
Deep Learning: Reentrenamiento de los modelos utilizados en el módulo anterior, utilizando redes neuronales convolucionales, en especial, el algoritmo de LeNet-5.
Dendríticas con inicialización aleatoria: Aplicación de modulos dendríticos de elípses y esferas en el módelo de Deep Learning.
CONCLUSIONES
Los resultados experimentales muestran que el modelo de entrenamiento diseñado en este trabajo mejora su desempeño en cada una de las etapas que se trabajó, obteniendo los siguientes resultados para el valor de precisión:
Módelo de Machine Learning: Para 30 épocas;
Precisión Entrenamiento: 0.9972
Precisión Validación: 0.9807
Módelo de Deep Learning: Para 20 épocas;
Precisión Entrenamiento: 0.9985
Precisión Validación: 0.9867
Módelo dendrítico con inicialización aleatoria: Para 8 épocas;
Precisión Entrenamiento: 0.9995
Precisión Validación: 0.9957
La aplicación de tres unidades de procesamiento dendral (hipercajas, hiperelipses e hiperesferas) genera el modelo más preciso de clasificación.
Se espera como trabajo futuro, al modelo de Deep Learning con las dendriticas con inicialización aleatoria, se añada el módulo de pre-entrenamiento, permitiendo mayor precisión y menor tiempo de respuesta.
González Sánchez David Mauricio, Universidad La Gran Colombia
Asesor:Dr. Alejandro Garces Garces, Universidad Tecnológica de Pereira
ANáLISIS DE IMPLEMENTACIóN DE MOVILIDAD ELéCTRICA EN EL MUNICIPIO DE ARMENIA-QUINDíO.
ANáLISIS DE IMPLEMENTACIóN DE MOVILIDAD ELéCTRICA EN EL MUNICIPIO DE ARMENIA-QUINDíO.
González Sánchez David Mauricio, Universidad La Gran Colombia. Asesor: Dr. Alejandro Garces Garces, Universidad Tecnológica de Pereira
PLANTEAMIENTO DEL PROBLEMA
En el municipio de Armenia se ve un incremento exponencial en su movilidad, siendo este a su vez consecuencia del incremento poblacional que se ha visto en los últimos años, así pues, este incremento de la movilidad impulsada por el petróleo puede generar varios tipos de afectaciones, tanto a la salud como al ambiente del municipio.
La movilidad eléctrica surge como solución a la polución del ambiente, donde su contaminación ecosistémica se ve muy por debajo de la contaminación que hoy día encontramos por la quema de combustibles fósiles tratados. De este modo, se realizó una encuesta sobre la movilidad eléctrica en el municipio, con el fin de desarrollar una serie de recomendaciones concretas que puedan servir como herramientas y guía para la toma de decisiones en el diseño e implementación del marco regulatorio y las políticas públicas orientadas a fomentar el desarrollo de la movilidad eléctrica en el país.
Por este caso, se decidió generar dicha encuesta enfocada más al ciudadano en general del municipio con la siguiente pregunta de investigación:
¿Qué percepción acerca de la movilidad eléctrica tienen los ciudadanos del municipio de Armenia - Quindío?
De esta forma se busca generar unos resultados de interés común de los cuales se pueden sacar varias conclusiones y recomendaciones al respecto.
METODOLOGÍA
Método de Investigación: Descriptivo - explicativo
Enfoque de la investigación: Enfoque cuantitativo.
Tipo de Investigación: Explicativa, Evaluativa.
El proceso metodológico se dividió en tres fases, las cuales fueron la fase de diseño de encuesta, realización de encuesta y análisis de encuesta, donde se inició recolectando la información relevante como estado del arte para profundizar en el tema investigativo de la movilidad eléctrica, así mismo, se inició con el desarrollo de una encuesta con un total de 11 preguntas, con el fin de que esta sea más cómoda y amena al público objetivo de la misma, abarcando cuestionamientos sobre su grado de aceptación y las barreras más comunes desde el punto de vista individual de la movilidad eléctrica y su implementación en el municipio capital del Quindío.
De este modo y terminado el proceso de diseño, se dio inicio a la encuesta, la cual tuvo una duración de 7 días a partir del 19 de julio hasta el 26 de julio del año 2021, la cual fue compartida por medios sociales como lo fueron facebook y whatsapp, dando un total de participación de 49 individuos, de los cuales se obtuvieron respuestas diversas que nutrieron a la investigación desde un primer punto de inicio, cabe resaltar que la encuesta sigue abierta para futuros análisis más detallados dentro del municipio.
Por último, se realizó un análisis detallado con la información recolectada, donde se hizo uso de porcentajes y gráficos visuales, para una mayor aclaración de los mismos, obteniendo diversas conclusiones parciales y recomendaciones para la implementación de esta estrategia de movilidad sostenible.
CONCLUSIONES
La ciudadanía de Armenia presenta una falta de información acerca de la movilidad eléctrica, manejando una desconfianza evidente al producto y un desconocimiento de cómo obtener este tipo de tecnologías para sus cotidianidades.
Basado en la encuesta realizada, se ve un apoyo por mayoría hacia las iniciativas sostenibles y a las movilidades eléctricas, dando un vistazo inicial de cómo se podría implementar dichas estrategias por el bien común.
El público objetivo para fomentar este tipo de tecnologías de movilidad se encuentran en su mayoría entre los adultos jóvenes dentro del sondeo de 49 participantes, seguidos por personas entre los 31 y 50 años y por último sin mucha diferencia se encuentran las personas entre los 51 años en adelante.
Dentro de la ciudad se vio mediante la encuesta una predominancia sobre la movilidad en vehículos automotor de 2 y 4 ruedas con porcentajes del 36,7 y el 42,9% respectivamente, seguido del autobús con un 10,2% y la bicicleta con un 8,2%, por último se tiene la movilidad por medio de taxis o Ubers con el 2%, dando así un objetivo de mercado eléctrico que está en auge actualmente.
Entendiendo que la ciudadanía busca siempre un beneficio tanto moral como económico, la movilidad eléctrica puede ser una clave fundamental para este mercado en crecimiento actual, así mismo, estas estrategias son fundamentales para apuntar al municipio hacia las smart cities dentro del territorio colombiano, generando consigo un mayor desarrollo y un crecimiento ambiental y económico de forma exponencial con un enfoque en los vehículos automotor de 4 y 2 ruedas (carros y motocicletas).
Recomendaciones:
Como principales recomendaciones para la implementación y aceptación de la movilidad eléctrica en el municipio se tienen los siguientes:
Mayor difusión y promoción a vehículos eléctricos por medio de alianzas público-privadas con un enfoque en las motocicletas como plan inicial, ya que este tipo de vehículos son los más accesibles en la actualidad.
Mayor promoción y difusión por parte de las empresas responsables de esta estrategia para dar a conocer los planes y la posibilidad de instalar acometidas y adaptadores para los vehículos eléctricos en los domicilios propietarios.
Mayor infraestructura de centros de carga por la ciudad, ya que hoy en día solo se cuenta con un único punto de carga en el Centro Comercial Calima Armenia.
Reforzar los incentivos financieros y las normas que favorecen las tecnologías limpias.
Ampliar programas de electrificación de vehículos y flotas de alto uso como buses y taxis con programas pilotos con el objetivo de dar confianza y mejorar la imagen hacia esta tecnología.
Reforzar estrategias de movilidad eléctrica nacionales y municipales y objetivos a largo plazo.
González Sánchez Javier, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
MODELACIóN DE LA RED DE ABASTECIMIENTO DE AGUA POTABLE DE LA COLONIA CENTRO MORELIA (SECTOR NUEVA ESPAñA)
MODELACIóN DE LA RED DE ABASTECIMIENTO DE AGUA POTABLE DE LA COLONIA CENTRO MORELIA (SECTOR NUEVA ESPAñA)
González Sánchez Javier, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La Colonia Centro Morelia (Sector Nueva España) en el estado de Michoacán ha tenido problemas de sequía en los últimos 2 años por lluvias insuficientes, paso de una media de producción de agua de tres mil litros por segundo a dos mil quinientos litros por segundo, con la implementación de una propuesta de red de abastecimiento en el Sector Nueva España, se pretende una mejoría en esta red.
La red existente será evaluada y analizada para comprender al cien por ciento su funcionamiento, este análisis y comprensión dará paso a hacer diferentes propuestas sobre la red hasta obtener un funcionamiento satisfactorio que pueda ayudar con el problema de sequía en la región de Morelia Centro, de esta manera se pretende ayudar a toda la población dentro del sector que está siendo afectada.
METODOLOGÍA
La red proporcionada por OOAPAS fue analizada a través del software Epanet la red mostraba valores en el caudal negativos por lo que el primer paso fue cambiar el flujo de las líneas de tubería para obtener una simulación correcta y poder trabajar sobre esta, al tener una simulación funcional se analiza la red de distribución comprendiendo que tenía velocidades y caudales con valores en cero, por lo cual se procede a establecer las válvulas en los lugares con mayor afectación, estas válvulas de regulación como sostenedoras pretendían hacer una cambio significativo en las tuberías con mayor afectación de manera que pudiera tener un flujo del agua y velocidades aceptables las cuales se toman como referencia las recomendadas por el Manual de Agua Potable Alcantarillado y Saneamiento.
Una vez establecidas las válvulas se hacen diferentes simulaciones en los sectores para ver el comportamiento del fluido en el sistema, tomando en cuenta que las válvulas fueron colocadas en diferentes ubicaciones y proponiendo diferentes sistemas, en el cual no hubo cambio en velocidades, ni en caudales. Una vez descartado las válvulas como opción se procede a cambiar la altura de la bomba, la cual obtuvo los mismos resultados sin tener afectación en la red.
Después de estos análisis se opto por meter una segunda bomba, tanto en paralelo como en serie, la cual igual que antes no tuvo una simulación favorable para la red.
CONCLUSIONES
Después de realizar el análisis y estudio de la red, se comprende que con los diferentes parámetros expuestos no tiende a aumentar la velocidad y el caudal como se esperaba, las diferentes simulaciones no mostraban cambios significativos en las zonas de mayor afectación, por lo cual la propuesta pasa a mayores términos.
Teniendo como fundamento que la velocidad esta en función del diámetro y el gasto, la propuesta que se hace es un cambio de diámetro en las tuberías con dichas afectaciones, y colocación de válvulas reguladoras que sean requeridas. Esta propuesta requiere de abrir zanjas sobre algunas de las calles del sector, por lo cual se tomó como una de la ultimas opciones para mejorar la red, dadas las circunstancias obtenidas con el análisis, siendo esta una opción para obtener un funcionamiento eficiente en la red de agua potable del Sector Nueva España.
González Sánchez Nallely Joseline, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
APLICACIÓN DE LA METODOLOGIA DMAIC POR MEDIO DE UNA SIMULACION DEL JUEGO DE DISTRIBUCIÓN DE CERVEZA
APLICACIÓN DE LA METODOLOGIA DMAIC POR MEDIO DE UNA SIMULACION DEL JUEGO DE DISTRIBUCIÓN DE CERVEZA
González Sánchez Nallely Joseline, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El juego de la distribución de cerveza se remonta a los primeros días de la dinámica del sistema. El juego se ha utilizado durante décadas como una introducción al pensamiento de sistemas, la dinámica, la simulación y la gestión por computadora. Ha sido jugado por miles de personas en todo el mundo, desde estudiantes de secundaria hasta directores ejecutivos de grandes corporaciones.
Uno de los grandes problemas en el ámbito educativo es la incorporación de metodologías como lean seis sigma usando una estrategia de transferencia del conocimiento como el juego de la distribución de cerveza. Esta fusión permitirá mitigar el impacto del desarrollo de competencias en herramientas de análisis y solución de problemas con ingenieros en formación profesional.
METODOLOGÍA
Seis sigma
Es una herramienta metodológica enfocada en la mejora incremental de procesos existentes, es una estrategia de calidad basada en estadística, que da mucha importancia a la recolección de información y a la veracidad de los datos como base de una mejora. Cada paso en la metodología se enfoca en obtener los mejores resultados posibles para minimizar la posibilidad de error mediante la aplicación de DMAIC
DMAIC es el acrónimo en inglés para cinco pasos:
Definir (Define);
Medir (Measure);
Analizar (Analyze);
Controlar (Control) y
Mejorar (Improve).
Cada uno de estos pasos debe realizarse en el orden D-M-A-I-C y, si no es alcanzado el objetivo el ciclo debe repetirse hasta que se alcance la mejora deseada.
D - Definir
Es definir las oportunidades, el alcance, los objetivos y los participantes.
M - Medir
Es recolectar datos e informaciones para analizar y evaluar el escenario actual.
A - Analizar
Es identificar la causa raíz del problema
I - Mejorar
Es implementar las soluciones de las mejoras identificadas en una escala pequeña.
C - Controlar
Es controlar las acciones del plan de acción para controlar el proceso.
En la simulación se aplicará la metodología DMAIC (Definir, medir, analizar, mejorar y controlar) en un juego llamado distribución de cerveza que tiene como objetivo minimizar los costos totales de su equipo .La metodología DMAIC permite la mejora continua de los procesos existentes, por medio de la resolución de problemas, en una secuencia ordenada para alcanzar los resultados deseados, cumpliendo con los requerimiento y reglas del juego. Se espera obtener una disminución de los costos totales aplicando DMAIC, así como la implementación de un juego serio para reforzar el aprendizaje de seis sigma en la formación de ingenieros industriales.
CONCLUSIONES
La aplicación de DMAMC determina que podemos lograr que los costos se minimicen. La simulación nos ayudara junto con Lear seis sigma a percatarnos como se aplica y cual es su objetivo en un proceso.
Como resultado final se espera que con la ayuda de DMAMC se pueda lograr una disminución de precios en la distribución de cerveza, al mismo tiempo observar cual son los factores que actuaban negativamente para que esto generara mas costos.
Graciano Herrera Gabriel, Instituto Politécnico Nacional
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
Girón Arcila Sebastián, Universidad del Valle. Graciano Herrera Gabriel, Instituto Politécnico Nacional. Herrada Serrano Jorge Luis, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En 2015 se produjo la primera observación directa de las ondas gravitacionales (GW) por parte del Observatorio de Ondas Gravitacionales por Interferómetro Láser (LIGO) y comenzó la era de la astronomía de ondas gravitacionales. El inicio de la astronomía de ondas gravitacionales trajo consigo algunos retos para la correcta detección y caracterización de las mismas.
La técnica utilizada para la detección se denomina Matched Filter (Filtro Adaptado, MF). Esta técnica supone que las señales a detectar están embebidas en un ruido gaussiano aditivo, de esta manera, los datos de los detectores se emparejan con plantillas de GW. Y las que minimizan la relación señal-ruido (SNR), se seleccionan.
Aunque el uso de MF ha sido capaz de proporcionar resultados precisos en la detección de GW, también es una técnica limitada. Una de esas limitaciones es que no hay plantillas para las GW generadas por supernovas tipo 2, o de colapso de núcleo (CCSNe), por lo tanto, la búsqueda de nuevos caminos se centra en la detección de ese tipo de GW.
Una opción que surge es implementar un modelo de Inteligencia Artificial (IA) que sea eficiente en el procesamiento de una gran cantidad de datos. El aprendizaje profundo (DL) es el subcampo del aprendizaje automático (ML) que ha demostrado ser competente en el análisis de datos y su posterior clasificación. Todo ello mientras es capaz de aprender y mejorar continuamente.
Mediante el uso de algoritmos de DL podemos identificar el ruido no gaussiano en la señal y así esa señal puede ser clasificada en dos conjuntos diferentes, uno que contiene sólo ruido y el segundo que está compuesto por ruido y una especie de GW.
Existe un algoritmo de DL llamado Red Neural Convolucional (CNN) que requiere un preprocesamiento mínimo de los datos en comparación con otro tipo de algoritmos de clasificación. Una CNN es capaz de aprender características siempre que se le proporcione suficiente entrenamiento. Además, los algoritmos CNN ya se han utilizado en el pasado para el reconocimiento de la GW.
METODOLOGÍA
Se utiliza la primera parte de la estancia para entrar en contacto con los conceptos que se trabajarán a lo largo del verano. Por ejemplo, las ondas gravitacionales y cómo se detectan. También se trabaja con los recursos. Para esto, se requirió herramientas computacionales como: Sistema operativo linux como entorno de desarrollo, python3 como lenguaje de programación, un paquete de software que contiene módulos para analizar datos de ondas gravitacionales y procesamiento de señales llamado PyCBC, además de TensorFlow para crear, entrenar y validar la Red Neuronal. Después, el profesor nos dio una guía donde explican e implementan una CNN con el fin de tener claro la arquitectura que se va a utilizar para la detección de GW.
Luego, ya configurado nuestro ambiente de trabajo, el investigador a cargo del proyecto nos proporcionó datos del LIGO. Estos datos contienen información de ambos interferómetros, H1 y L1, donde para cada uno de estos datos, la onda tiene una duración de 1200 segundos. Ya teniendo estos archivos, se implementaron los scripts para leer estos archivos, poder mostrarlos en una gráfica y a partir de módulos de pycbc, agregar a cada onda 61 inyecciones de GW distribuidas dando un factor. Una vez hecho esto, se procede a formar dos arreglos de datos, uno para H1 y L1 que contengan 6 segmentos de la onda por cada inyección, tres de estos son segmentos contienen solo ruido y los otros tres contienen ruido más onda gravitacional. Esto quiere decir que por cada Job se extraen 366 datos diferentes. Este número viene del producto entre el número de Jobs por el número de segmentos que se extraen por Job(61*6).
Ya teniendo estos datos(Strain Data H1 y Stain Data L1), se debe hacer un preprocesamiento antes de formar el dataset .Este preprocesamiento consta de tres pasos,el primero es un pasabanda HighPass, un filtro que da paso alto a los datos de baja frecuencia y este se aplica para eliminar ruido.El segundo, blanqueamiento de los datos, toma los datos e intenta hacer que la densidad espectral sea plana, de modo que todas las frecuencias contribuyan por igual.
El tercer paso, la transformación constante-Q, es similar a un espectrograma estándar hecho con transformación de fourier de corto tiempo con la ventaja de que los contenedores de frecuencia están más espaciados a altas frecuencias. Por último, antes de pasar al entrenamiento de la CNN, se debe formar el dataset. Para esto se guarda la información de Stain Data H1 y L1 ya preprocesado, seguido de la etiqueta correspondiente si es o no GW ( 0 = ruido, 1 = ruido + GW) y también un arreglo con el tipo de inyección.
Ahora, ya previamente generado el dataset, se hizo el entrenamiento de la red neuronal basándonos en la arquitectura CNN estudiada al principio de la instancia.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las ondas gravitacionales, cómo son detectadas y su caracterización. También se adquirieron conocimientos teóricos además de destrezas prácticas con temas relacionados con la inteligencia artificial, más específicamente Deep Learning, área del Machine Learning.
La red neuronal desarrollada que fue entrenada y probada con un dataset generado durante la estancia y entrega una eficiencia de alrededor del 85% para detectar correctamente si en una señal capturada por los interferómetros podemos encontrar solamente ruido o ruido acompañado de una onda gravitacional.
Por limitaciones de recursos computacionales y de tiempo, la red neuronal fue entrenada y testeada con solamente una parte del dataset generado. Por esta razón se espera que el porcentaje de efectividad de la CNN pueda mejorar sustancialmente al utilizar la totalidad de los recursos generados para ello durante la estancia.
Granados Bovio Dana, Universidad Politécnica de Sinaloa
Asesor:Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
PROPUESTA MODELO DE AGRICULTURA SOSTENIBLE DE SACHA INCHI (PLUKENETIA VOLUBILIS) EN UNA REGIÓN DE MÉXICO, APLICANDO INDICADORES DE HUELLA ECOLÓGICA, ACV, ECOLOGÍA INDUSTRIAL Y ECONOMÍA CIRCULAR.
PROPUESTA MODELO DE AGRICULTURA SOSTENIBLE DE SACHA INCHI (PLUKENETIA VOLUBILIS) EN UNA REGIÓN DE MÉXICO, APLICANDO INDICADORES DE HUELLA ECOLÓGICA, ACV, ECOLOGÍA INDUSTRIAL Y ECONOMÍA CIRCULAR.
Granados Bovio Dana, Universidad Politécnica de Sinaloa. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La Plukenetia volubilis, conocida comúnmente como Sacha Inchi es una planta con múltiples propiedades que, actualmente, solo se cultiva de manera comercial en Perú, Colombia, Ecuador, Brasil y Venezuela. A pesar del potencial económico que su cultivo ha adquirido en estos últimos años, no hay registros de intentos de introducción a Mexico hasta ahora.
Se pretende desarrollar un modelo de cultivo sostenible para introducir la Sacha Inchi a Mexico de manera en que se pueda aprovechar de los beneficios que poseen sus productos. Para garantizar su crecimiento en otra región es necesario que se respeten las condiciones de cultivo del país originario; que el cultivo sea controlado de manera en que no se genere competencia con las especies nativas.
El fin último de su introducción es la generación de ganancias, por lo que será esencial buscar un lugar en el mercado tanto para los productos simples (semilla), como para los subproductos y residuos de su cosecha y procesamiento en una biorefinería.
METODOLOGÍA
Se evaluaron las condiciones de cultivo (clima, temperatura, luminosidad, altura, tipo de suelo, precipitación) de Sacha Inchi en las principales regiones productoras de Latinoamérica, posteriormente se compararon sus características climatológicas y geográficas con distintas regiones de México por medio de una revisión bibliográfica.
A partir de la información disponible en artículos científicos, manuales, libros y páginas web oficiales, se identificaron los distintos métodos de cultivo y técnicas para el mejoramiento de eficiencia utilizados en la Sacha Inchi. Se compararon principalmente el uso de recursos, producción y calidad de la semilla con el fin de desarrollar un modelo optimo y adecuado a las condiciones de la región previamente establecida.
Se seleccionaron los indicadores según su efectividad para reflejar el grado de sostenibilidad del cultivo en relación con el uso de recursos, valorización de productos, residuos y emisión de contaminantes. Se plantean las pautas necesarias para la elaboración de un análisis de ciclo de vida.
La integración del cultivo de sacha inchi, productos y subproductos en la industria y mercado mexicano se determinó de acuerdo a las actividades económicas características de la región escogida de manera en que se pueda relacionar a un sistema de economía circular y ecología industrial.
CONCLUSIONES
La región sur este de Mexico reúne las características necesarias para llevar a cabo la producción de Sacha Inchi, se plantea el sur de Tabasco como una posible localización. La sostenibilidad del cultivo se basó en prácticas de agroecología tales como el uso de abono y fertilizantes orgánicos (lombriabono), el planteamiento de un modelo de policultivo y la valorización de toda la biomasa de Sacha Inchi (hojas podadas, tallos, cascarilla).
Granados Jiménez Priscila Daniela, Instituto Tecnológico de Tepic
Asesor:Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
CONTROL Y MODELADO DE DRONES AéREOS E HíBRIDOS.
CONTROL Y MODELADO DE DRONES AéREOS E HíBRIDOS.
Granados Jiménez Priscila Daniela, Instituto Tecnológico de Tepic. Huerta Espinoza Marcelo Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Desarrollo de un algoritmo de control de vuelo, movimiento y dirección de un cuadrirrotor utilizando Matlab Simulink
METODOLOGÍA
Se presentan una serie de ecuaciones que describen un sistema de control para el vuelo de un cuadrirrotor, su movimiento en x y y y la dirección en roll pitch y yaw.
Se utilizo un control PID para la estabilidad en vuelo Hover del cuadrirrotor. Posteriormente, dadas las ecuaciones del movimiento se utilizó un control en paralelo para el movimiento de x y y, dado que este movimiento este acoplado con roll y pitch.
Finalmente se utilizó un arreglo matricial para delimitar las magnitudes de las velocidades angulares de los motores, así mismo utilizando una matriz de rotación para el traslado en yaw mientras existe un movimiento en x y y.
CONCLUSIONES
Encontramos como primera conclusión que el algoritmo no funciona correctamente sino se presentan los cálculos para las saturaciones de los motores del sistema.
Concluimos también que las diferentes técnicas para utilizar los controladores pueden ser utilizadas sin excepción con controladores PID.
A su vez también encontramos que es indispensable que se utilicen las saturaciones para los motores, así como la matriz de rotación en Yaw, de lo contrario el modelo será disfuncional o muy poco eficiente.
Guerrero Ceron Isarel, Instituto Tecnológico de Pachuca
Asesor:M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
Guerrero Ceron Isarel, Instituto Tecnológico de Pachuca. Macdonal Lizcano Dieter Jazen, Instituto Tecnológico Superior de Los Ríos. Nahuatt Hernandez Doris Yanel, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
El aumento de personas enfermas se ha visto incrementando los últimos años ya sea por causas internas o externas, entre ellas están las enfermedades digestivas que son trastornos del aparato digestivo.
En México las enfermedades gastrointestinales son uno de los principales problemas de salud en México, ya sea por la ingesta de líquidos o alimentos contaminados, afectando principalmente a la población infantil, aunque también están los casos de enfermedades digestivas por causas de alimentos que tienen ciertas reacciones adversas como puede ser el gluten que son: dolor persistente en la zona abdominal, diarrea frecuente, dolor de cabeza, fatiga, estreñimiento entre otros.
El problema de esta proteína es que se encuentra en el trigo, que es la base en la elaboración de harinas y se usa en la comida mexicana siendo esto un producto indispensable, estas enfermedades se conocen como “enfermedad celiaca”. En México se estima que más del 2% de la población padece esta enfermedad, mientras que el 0,9 % alergia al trigo y la sensibilidad al gluten no celiaca varia de 1 hasta 25% en ciertos grupos de poblaciones
METODOLOGÍA
Encuesta: La encuesta permitió conocer las motivaciones, actitudes y opiniones de los individuos, con relación a la oferta de un nuevo tipo de harina elaborada a base de harina de coco. La encuesta que se aplicó está estructurada: Si consume harina, gustos por tipos de harina, lugar y frecuencia de compra, precio que paga por kilo; expectativas por la oferta de una nueva harina en el mercado. al igual que sus subproductos, además si presentaban problemas con algunas proteínas que poseían son la glucosa y que otras variantes presentan.
En base a los resultados se observó que el 29% de los entrevistados presentan problemas con el gluten, por lo que se comparó el trigo el ingrediente más utilizado en harinas y consumido por la población de Balancán, Tabasco.
Siendo el coco el más recomendable, por su alto grado de vitaminas como son: ácido fólico, vitamina C, vitamina E, magnesio. Una vez obtenido los datos y considerando los beneficios se procede a la transformación del fruto entero (carne) a un polvo blanco fino.
A continuación, se presenta detalladamente paso a paso el proceso productivo:
Recepción de materia prima: En este primer paso se recepta la materia prima, que está comprendida por los cocos secos, mismos que son almacenados.
Verificación de materia prima: Una vez receptada la materia prima se procede a la verificación de la misma, en donde se inspecciona de que el coco no esté abierto o en mal estado.
Lavado: Luego de haber inspeccionado los cocos, se procede al lavado del mismo eliminando toda impureza, al mismo tiempo ablanda la cascara del coco.
Pelado del coco: Consiste en sacarle la cascara externa al coco, para lo cual se hace uso de un cuchillo, una vez sacada la cascara se procede a partir el coco a la mitad, quedando listo para la extracción de la pulpa.
Extracción de la pulpa: se realiza manualmente con el uso de un cuchillo.
Deshidratación de la comida de coco: Una vez obtenida la pulpa se procede a la deshidratación de la misma, para ello se usa un horno deshidratador, en donde la pulpa de coco es colocada en bandejas y permanece por 60 minutos.
Molido: Concluida la deshidratación, se procede al molido, donde luego de eso se obtiene la harina.
Verificación de materia prima molida: Una vez obtenida la harina de coco se procede a la verificación de la misma, para garantizar la calidad del producto, así como sus características idóneas.
Dosificación, empacado y etiquetado: Aquí se procede a realizar una dosificación, es decir separar la cantidad exacta de producto que ira dentro de cada funda para proceder a empacar la harina de coco y se realiza el etiquetado con toda la descripción del producto.
Almacenamiento: El almacenamiento se lo realizara en un lugar que esté libre de humedad y exceso de calor.
Salida del producto: Elaborado y etiquetado el producto, queda listo para su respectiva distribución en las bodegas y autoservicios de la ciudad de Balancán, Tabasco.
CONCLUSIONES
Elaborado el presente Proyecto de Factibilidad para la Implementación de Harina de Coco en la Ciudad de Balancán, Tabasco, se ha llegado a establecer las siguientes conclusiones:
El proyecto está elaborado con el fin de promover el desarrollo empresarial con un producto nuevo e innovador en el mercado del municipio, creando fuentes de trabajo además se considere en su dieta diaria la harina de coco. Debido a que es una alta fuente de proteína, libre de gluten, siendo ideal para personas hipo alergénicas.
Que los consumidores opten por este nuevo producto como lo es la harina de coco misma que estará a disposición en bodegas y autoservicios más cercanos a su domicilio de calidad, higiene y buen precio, ofrecida por una nueva empresa local.
Guevara Leyva Victor Manuel, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
Asesor:Dr. Iván Félix González, Instituto Mexicano del Petróleo
CARACTERIZACIóN DE LAS CARGAS AMBIENTALES PRODUCIDAS POR LAS CONDICIONES DE VIENTO, OLEAJE, CORRIENTE Y MAREAS PARA EL APROVECHAMIENTO Y PRODUCCIóN DE ENERGíA EóLICA MARINA, EN LA ZONA COSTERA DE ICA, PERú
CARACTERIZACIóN DE LAS CARGAS AMBIENTALES PRODUCIDAS POR LAS CONDICIONES DE VIENTO, OLEAJE, CORRIENTE Y MAREAS PARA EL APROVECHAMIENTO Y PRODUCCIóN DE ENERGíA EóLICA MARINA, EN LA ZONA COSTERA DE ICA, PERú
Guevara Leyva Victor Manuel, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas. Asesor: Dr. Iván Félix González, Instituto Mexicano del Petróleo
PLANTEAMIENTO DEL PROBLEMA
Las energías renovables toman un papel cada vez más importante en el escenario mundial, esto debido a una serie de medidas que se están tomando a escala global para reducir las emisiones de gases de efecto invernadero, donde el viento se ha convertido en una de las principales fuentes de generación de energía limpia y renovable, tanto en tierra como en alta mar.
En la actualidad se ha puesto la mira en la energía eólica marina, que se obtiene al aprovechar la fuerza del viento que se produce en alta mar, donde este alcanza una velocidad mayor y más constante debido a la inexistencia de barreras (cordilleras). Sin embargo, esta requiere una mejor tecnología para el desarrollo de las mega estructuras asentadas sobre el lecho marino y dotadas con las últimas innovaciones técnicas, lo que implica tener mayores gastos. Por lo tanto, para aumentar la eficiencia en el aprovechamiento de la fuerza de viento, se necesita caracterizar las condiciones ambientales como las Condiciones de Viento, Oleaje, Corriente y Mareas.
METODOLOGÍA
MATERIALES
Macro Localización.
Para definir la ubicación de estudio, se usarán los mapas eólicos a nivel nacional y por región dadas en el Atlas Eólico del Perú. De tal manera que podamos localizar las regiones con mayor potencial de vientos.
A continuación, se presenta el mapa eólico a nivel nacional (ver Figura 1), en el cual se muestran las intensidades de viento a una altura promedio de aerogenerador de 100 m.
Del Atlas Eólico del Perú se puede observar el potencial eólico marino que existe en la costa de las regiones de Piura, La Libertad e Ica; los cuales presentan vientos favorables entre los 5m/s y 12m/s para aprovechamiento eólico. Por tal motivo se definió que el planteamiento de la ubicación geográfica del parque eólico marino será en la región de Ica.
Sin embargo, el litoral costero de Ica se encuentran zonas de conservación de áreas naturales para lo cual se tienes que hacer estudios más precisos para poder elegir responsablemente la micro localización de este parque eólico marino.
Disponibilidad de Materia Prima.
Viento.
A partir de los gráficos mostrados anteriormente se pueden observar las distintas velocidades que se presentan en las zonas elegidas durante las distintas estaciones del año. En la zona costera se observa que la velocidad del viento se encuentra entre los 8 y 9 m/s durante la mayor parte del año, mientras que en invierno llega a superar los 10 m/s.
Corrientes Marinas.
La Corriente Costera Peruana (CCP) va pegada a la costa y fluye hacia el norte; tiene características químicas y físicas que favorecen el desarrollo de la pesquería, es de color verdoso, como consecuencia de la gran abundancia de plancton (fitoplancton) y su transparencia es menor a 5 m. Esta corriente tiene un ancho aproximado de 100 millas marinas y una profundidad de 200 m; su actividad es máxima en invierno y mínima en el verano; su velocidad media está en el orden de 0,2 a 0,3 nudos. En su recorrido hacia el norte se extiende hasta los 5º ó 6º de latitud sur (Punta Aguja, Perú), donde se desvía hacia el oeste, para formar parte del Sistema de las Corrientes del Ecuador (Corriente Sur Ecuatorial CSE). Su transporte es del orden de 6 x 106 m3/s. Sin embargo, existe un ramal de dicha corriente que, durante los meses de invierno, cuando el sistema de circulación se intensifica, se dirige paralela a costa hacia el norte, (Petro-Tech Peruana S.A., 2014).
Olas.
De acuerdo a esa información, las direcciones predominantes del oleaje están concentradas en el sur y suroeste, mientras que las demás direcciones ocurren con una probabilidad muy baja.
MÉTODOS.
Con los datos obtenido de la revisión bibliografía en el capítulo anterior sobre velocidad de viento, corriente y marea procedemos a realizar la caracterización de las cargas ambientales de la turbina eólica marina para un monopilote de fondo fijo.
El diseño para una cimentación de un monopilar se estudia analizando el momento flexionante, cortante debido al viento, en la base de la torre y la raíz de la torre para varios valores de profundidad del agua, altura de la torre, diámetro del pilote y modelo de turbulencia; Para ellos se utilizará el programa Octave.
Resultados de Simulación:
A manera de ejemplo en el presente informe, se utiliza un modelo de aerogenerador de 5MW. Las variables de diseño de la turbina son: Db (diámetro de base del mástil = 10.5 m), Dt (diámetro en la parte superior del mástil=3.5 m), Hb (elevación de la base del mástil=10 m), Ht (elevación de la parte superior del mástil=150 m), Tp (espesor de la placa del mástil=1.75 in). La turbina es una máquina de velocidad variable y paso colectivo controlado, con una velocidad máxima del rotor de 12,1 rpm. La velocidad nominal del viento es de 8 m / s. Se asume que la turbina se tendrá DMp (Diámetro de la subestructura-monopilote = 10.5m), TpMp (Espesor de la subestructura = 2 in), WD (Profundidad del agua = 30 m), Hp (Altura total del monopilote = 40 m). Con características de los materiales presentes: g (Aceleración de la gravedad = 9.81 m/s), Airden (Densidad del aire = 1.225 kg/m3), Steelden (Densidad del acero = 7850 kg/m3), SWden (Densidad del agua de mar = 1025 kg/m3), Steelden (Densidad del acero = 7850 kg/m3).
CONCLUSIONES
En el territorio nacional se identificó las zonas de mayor potencial eólico marino en la costa peruana específicamente en Ica.
Con la caracterización de las cargas ambientales se logró determinar el efecto de estas en un aerogenerador marino tipo monopilote.
Ya teniendo hecha la programación en el software Octave se procedió a evaluar el comportamiento del aerogenerador marico tipo mono pilote con lo diferentes estados de carga presentes.
A manera de ejemplo se logró caracterizar las cargas ambientales producidas por la condición de viento, condición de onda y condición de por corriente y marea para el aprovechamiento y producción de energía eólico marina, en la zona costera de Ica, Perú.
Guillén Pérez María Fernanda, Instituto Politécnico Nacional
Asesor:M.C. Rodolfo Romero Herrera, Instituto Politécnico Nacional
ALGORITMOS INTELIGENTES BASADOS EN COMPORTAMIENTO DE PLANTAS Y áRBOLES PARA SU SIMULACIóN EN MECANISMOS CON IMPACTO EN SALUD DIGITAL.
ALGORITMOS INTELIGENTES BASADOS EN COMPORTAMIENTO DE PLANTAS Y áRBOLES PARA SU SIMULACIóN EN MECANISMOS CON IMPACTO EN SALUD DIGITAL.
Guillén Pérez María Fernanda, Instituto Politécnico Nacional. Asesor: M.C. Rodolfo Romero Herrera, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En el presente proyecto se desarrolló una Guía de Interfaz Gráfica (GUI) que analiza mecanismos basados en el movimiento y comportamiento de plantas (como la mimosa pudica, venus atrapamosca, etc.) al interactuar con los humanos, su entorno, vibraciones, así como diversas situaciones de riesgo u estrés, con la finalidad de aplicarlos en la solución de problemas que requieren inteligencia artificial.
El objetivo de este proyecto fue presentar en la GUI el análisis de los movimientos realizados por las plantas al estar en contacto con su entorno (como es el caso de la mimosa pudica), capturando los fotogramas de dos momentos cruciales: su estado antes y después de recibir dicho contacto, para posteriormente aplicar dos técnicas de segmentación de imágenes: el método Otsu y el método Geodesia, todo esto dentro del programa MATLAB que es un sistema de cómputo numérico con un lenguaje de programación propio y adecuado para el desarrollo de códigos enfocados a Inteligencia Artificial.
METODOLOGÍA
Las plantas cuentan con un sistema para detectar su entorno, tomando en cuenta su actividad neuronal (que es la encargada de recopilar y traducir información del entorno mediante impulsos eléctricos), el código neuronal (vincula las señales sensoriales y las respuestas neuronales) y el conjunto de procesos coordinados en cuanto a su organización corporal que provocan electricidad por lo que es considerada como una molécula de señalización similar a un neurotransmisor.
Existen más estudios en los que podemos ver el comportamiento de las plantas bajo diversas situaciones de presión o estrés, algo que tienen en común la mayoría de las situaciones expuestas es la incesante búsqueda de las plantas por mecanismos de protección o adaptación, pero, más allá de ello podríamos observar que realmente no esta tan alejada la idea de un sistema neurológico complejo dentro de estas, que si bien podrían parecer algo simples en su forma física lo cierto es que cada hoja cuenta con una gama de sensores que le permiten a las raíces (propuestas como el cerebro de las plantas) planear estrategias o solamente obtener información del medio. Visto desde un lado científico las podemos considerar como una maravilla de la naturaleza, por todo lo que pueden hacer incluso a falta de los órganos que para nosotros serian básicos para percibir el mundo (vista, olfato, oído y tacto), es por ello que el estudio respecto a cómo funcionan las plantas y la estructura que llevan a cabo para conseguir realizar todas estas acciones sensitivas y guardar la información para aplicarla en su beneficio y mayor supervivencia, podría abrir paso a la realización de sensores o simuladores.
Debido a esto nuestro programa se encamina a detectar los momentos en los que la planta realizo algún cambio en sus movimientos, dentro de nuestro proyecto se analizó el video de una mimosa, tomando los fotogramas en que se presenta la reacción de nuestra planta, el primero (fotograma Núm. 1) en que se encuentra antes del contacto y el segundo (fotograma Núm. 78) donde al recibirlo va cerrando sus hojas una a una.
Para poder analizar bien el cambio de un estado a otro primero se consideraron los dos fotogramas, se les aplico una escala de grises y a partir de ello se obtuvieron los bordes de la imagen, una vez que se aplicó esto a ambas imágenes se procedió a obtener la diferencia entre estos fotogramas para poder comenzar a aplicar los métodos de segmentación de imágenes.
Se realizaron dos GUI, en la primera se aplicó el método Otsu, el cual elige un umbral que minimiza la varianza intraclase de los píxeles en blanco y negro con umbral. El umbral global se puede utilizar para convertir una imagen en escala de grises en una imagen binaria.
En la segunda GUI, se implementó el método Geodesia, este segmenta la imagen en color, devolviendo una imagen binaria segmentada con etiquetas. Y son imágenes binarias que especifican la ubicación de las zonas iniciales (primer plano y fondo), posteriormente segmenta la imagen en color, devolviendo una imagen segmentada en tres regiones (segmentación trinaria) con las etiquetas de región especificadas por la matriz de etiquetas, y son imágenes binarias que especifican la ubicación de las zonas iniciales para las tres regiones.
Una vez ejecutados estos dos métodos de segmentación se aplicó un código para calcular el área de esta diferencia entre fotogramas, para obtener el valor del cambio que se produjo en la planta, y con estos valores capturados en una gráfica se pudo visualizar los resultados del análisis de nuestro video.
CONCLUSIONES
Con los resultados obtenidos pudimos realizar graficas donde se reflejara el cambio que sufrió la planta al recibir el contacto, y con estos resultados obtener la diferencia de área o los cambios que tuvo en el video e incluso experimentar con diversos videos sobre el movimiento de las plantas, luego de hacer una comparativa pudimos observar la eficiencia de los dos métodos de segmentación de imágenes, de los cuales el método Geodesia resulto más adecuado para el análisis de la imagen y la obtención del área de la misma.
El fin de este proyecto fue obtener los resultados que ayuden en el estudio de la implementación del comportamiento de las plantas dentro de un modelo de Inteligencia Artificial que aplique los datos basados en nuestra Guía de Interfaz Gráfica para evolucionar el sentido de la programación con los estudios realizados sobre la naturaleza.
Gurrola Puerta Fernanda Marian, Universidad Autónoma de Sinaloa
Asesor:Mg. Liliana Rocio Patiño León, Universidad La Gran Colombia
ACERCAMIENTO A LOS CONCEPTOS BáSICOS DE LA ARQUITECTURA SOSTENIBLE
ACERCAMIENTO A LOS CONCEPTOS BáSICOS DE LA ARQUITECTURA SOSTENIBLE
Gurrola Puerta Fernanda Marian, Universidad Autónoma de Sinaloa. Asesor: Mg. Liliana Rocio Patiño León, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
Cada día, miles de arquitectos se dan a la tarea de buscar nuevos materiales para la construcción de edificios sostenibles. El propósito de ellos es encontrar materia prima que genere un menor impacto en el ambiente al igual que, encontrar componentes que sean durables y que se puedan incorporar a distintas tecnologías, tales como: el uso de tecnologías de aprovechamiento, la domótica, los ECCN (Edificios de Consumo Energético Casi Nulo), entre otros.
De la misma forma, existe una gran demanda para construcciones sostenibles debido a los grandes beneficios ambientales y de diseño que aportan a los proyectos. Se estima que los edificios consumen aproximadamente entre el 20% y 50% de los recursos físicos en referencia su entorno. Lo anterior quiere decir que las edificaciones son una de las causas directas de contaminación por el impacto que tienen sobre los territorios, debido a que ocasionan una cantidad imaginable de impactos negativos sobre los mismos. Ejemplos de lo anterior son: contaminación del medio ambiente, aumento de residuos, transporte y construcción de los inmuebles, deforestación, etcétera.
En relación a la problemática expuesta, el concepto de sostenibilidad se encuentra en todos lados; según el arquitecto español Luis Garrido (2006), es todo aquello que garantiza el máximo nivel de bienestar y desarrollo de los ciudadanos y que posibilite igualmente el mayor grado de bienestar y desarrollo de las generaciones venideras, y su máxima integración en los ciclos vitales de la naturaleza.
En ese sentido, los creadores de arquitectura en la actualidad se enfrentan a una problemática asociada a dar cumplimiento a este concepto de sostenibilidad, mediante el diseño de edificaciones y/o proyectos que resuelvan y atiendan las necesidades de forma personalizada, para que exista una inclusión social, justa para todos los sectores de la población, pero, que no afecten de ninguna manera al medio ambiente que nos rodea. Se pretende incorporar una especie de equilibrio en donde todos nos veamos beneficiados a través de la implementación de estrategias de diseño y de materiales que tenemos a nuestro alcance como lo son: la madera, la piedra, la tierra y el bambú.
Es así como, en este proyecto de investigación, se abordan una serie de dudas acerca de la arquitectura sostenible, algunas de estas son: ¿qué es la sostenibilidad?, ¿qué necesita un edificio para ser considerado como sostenible?, ¿qué materiales y estrategias constructivas se pueden implementar en una edificación sostenible?, entre otras; razón por la cual, nos dimos a la tarea de analizar de qué manera se puede construir de forma sostenible. Primera instancia, investigamos materiales que generaran un menor impacto ambiental tanto en la producción como en ciclo de vida. También, técnicas constructivas para la construcción sostenible. Además, realizamos una investigación acerca de los lineamientos y aspectos a tener en cuenta para hacer un diseño sostenible: optimización de los recursos y materiales, disminución del consumo energético y uso de energías renovables, minimización de residuos y emisiones y aumento del ciclo de vida las edificaciones.
METODOLOGÍA
Durante la estancia realizada dentro del Programa Delfín, mi asesora de investigación y yo, tuvimos reuniones semanales en línea en donde llevamos una especie de cronograma de actividades de investigación las cuales, se presentan a continuación:
Investigación acerca de las condiciones y determinantes del contexto.
Materiales ecológicos y su huella de carbono.
Análisis de las estrategias y variables del diseño sostenible.
Manejo de energías renovables.
Análisis acerca de la captación de vientos y optimización de recursos en una edificación.
Desarrollo de estrategias y materiales que se pueden implementar en Sinaloa.
Parámetros de diseño ecológico para el diseño de un hotel sostenible y bioclimático.
Investigación sobre el bambú en México.
Bases de las estrategias bioclimáticas.
Sostenibilidad y Arquitectura.
CONCLUSIONES
Después de haber realizado una amplia investigación acerca de los conceptos de arquitectura y sostenibilidad, he llegado a la conclusión de que la sostenibilidad es un tema de gran importancia debido a que tiene un alto impacto en todo lo que podemos observar a nuestro alrededor. Como estudiante de arquitectura, creo firmemente en que la sostenibilidad es un tema del futuro y que existen ciertas variantes y estrategias que debemos implementar en nuestro día a día. Incluso, considero que dichas determinantes deben ser requisitos necesarios a la hora de construir cualquier tipo de proyecto, ya sea de carácter habitacional o comercial.
En cuanto a las determinantes del contexto, saber en dónde se realizará un proyecto arquitectónico, nos permite sacarle un mayor provecho al diseño del mismo. Actualmente, la labor de los arquitectos es diseñar proyectos que sean funcionales e inclusivos, razón para la cual considero que es de gran importancia hacer una investigación previa del lugar para posteriormente, hacer una implementación correcta de los agentes naturales como: iluminación natural, vientos, precipitaciones, etc.; y así, lograr un buen diseño bioclimático y sostenible.
Por otro lado, los materiales como la madera, la piedra y el bambú son materiales sostenibles que podemos encontrar en la mayor parte de las localidades del país. Dichos materiales, nos han acompañado a lo largo de la historia y son considerados uno de los cuales generan un menor impacto ambiental en su producción y ciclo de vida. Saber qué materiales se pueden implementar en un proyecto y de qué forma se puede optimizar el uso de los mismos; nos sirve para crear proyectos arquitectónicos amigables con el medio ambiente. Dicha conclusión, llega a partir de haber realizado un análisis sobre qué materiales ofrecían una mayor cantidad de ventajas frente a la sostenibilidad.
Gutierrez Carrillo Josue David, Universidad de Sonora
Asesor:Dr. Humberto Aceves Gutiérrez, Instituto Tecnológico de Sonora
DETERMINACIóN DE LA HUELLA DE CARBONO DE UNA VIVIENDA A TRAVéS DE LAS DECLARACIONES AMBIENTALES DE LOS PRODUCTOS
DETERMINACIóN DE LA HUELLA DE CARBONO DE UNA VIVIENDA A TRAVéS DE LAS DECLARACIONES AMBIENTALES DE LOS PRODUCTOS
Gutierrez Carrillo Josue David, Universidad de Sonora. Asesor: Dr. Humberto Aceves Gutiérrez, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
Estamos viviendo muchas de las consecuencias de las que han sido provocadas por los mismos seres humanos, esto como bien se sabe afecta a cada una de nuestras áreas de vida, desde en el aspecto social, económico, político y cultural, es por ello que se debe de empezar por optar una serie de acciones con tendencias al desarrollo sustentable con el fin, de tratar de mejorar la calidad de vida de las futuras generaciones y no explotar los pocos recursos que les podríamos estar dejando en un futuro cercano.
Situaciones como el desequilibrio de los ecosistemas, sequias donde había agua abundante, deshielo de los polos, lugares fríos los cuales de estar en temperaturas por debajo de los 0°c rebasando los 10°c, son situaciones que nos afectan a todos los seres vivos y a los humanos claramente, siendo también perjudicial el coexistir en ambientes donde abunde los efectos de la contaminación, reduciendo considerablemente la calidad de vida y la mortandad de las personas; siendo condicionadas en cierta forma a vivir en un estilo de vida de forma estrictamente reglamentario (como lo es en el caso de China).
Aun que nuestro país aporta únicamente un total de 1.3% del total de emisiones mundiales, se ubica en la 13 posición; siendo que, en 2019, el costo total por el agotamiento y degradación ambiental fue de 1 billón de pesos mexicanos, siendo un 4.5% del Producto Interno Bruto (PIB) (Solis, 2021).
METODOLOGÍA
Nuestra metodología para poder llevar acabo el cálculo y cuantificación de la huella de carbono en nuestro proyecto, fue basada en las Declaraciones Ambientales de los Productos (DPA) o por sus siglas en ingles EPD (Environmental Product Declarations), los cuales se tratan de documentos que nos proporcionan información relevante al comportamiento del producto y/o servicio certificado en base a un ACV, esto nos ayuda para identificar con mayor facilidad la información del comportamiento ambiental del producto para así poder plantear comparaciones contra otros productos similares en cuestión. Añadiendo a esto, que el cálculo para la obtención de la huella ecológica es en unidades de masa KgCo2.
En resumidas cuentas, nuestro objetivo es poder determinar las posibilidades y el impacto de la huella de carbono para una vivienda utilizando las EPD en el sector ambiental de la construcción en México, para esto, se nos presentó la explosión de insumos (catálogo de conceptos) de una casa habitación de nivel interés social, de una planta con una superficie cubierta de 57.615 m2 y un área de construcción de 55.095 m2, la cual está constituida por medio de muros de block tradicional, el uso de mampostería con su losa de cimentación y azotea, con su respectivo sistema de vigueta y bovedilla.
Para poder cuanto dióxido de carbono va liberar la edificación ya en su entrega final, debemos de conocer la cantidad de dióxido de carbono que se generó por cada material que será empleado para la construcción de la vivienda, nos centraremos en la etapa de la cuna a la puerta, donde se albergan las primeras tres etapas del ciclo de la vida, siendo la extracción de materias primas (A1), transporte a fabrica (A2) y producción (A3), siendo la conocida etapa de producto.
Para facilitar la gestión de cálculos (siendo la unidad de las emisiones de KgCo2eq) se elaboró una hoja de cálculo en Excel donde se organizó la tabla de la siguiente manera:
Producto
Unidad
Cantidad
Factor de emisión
Peso por unidad de material
Unidad de peso del material
Unidad funcional
Factor de conversión
Total, de emisiones
CONCLUSIONES
De los resultados podemos destacar que los materiales con mayores emisiones totales en KgCo2eq fueron los siguientes:
Cemento gris: 4765.34 KgCo2
Concreto Premezclado: 3563.28 KgCo2
Mientras que podemos destacar que los materiales con menores emisiones totales en KgCo2eq fueron los siguientes:
Caja de registro: .178 KgCo2
Pegamento: .145 KgCo2
Tomando en consideración las cantidades de emisión que tomamos de los conceptos y los sumamos todos, tendremos que para la vivienda de interés social de un piso se obtuvo una sumatoria de: 14,516.267 KgCo2.
Obteniendo así la Huella de Carbono por m2 de construcción: 263.447 KgCo2/m2.
Obteniendo también la Huella de Carbono por m2 de construcción en toneladas: .263 TonCo2/m2.
Obtuvimos en esta investigación la tarea de obtener las emisiones de Gases de Efecto Invernadero (GEI) de Co2 para la construcción de una vivienda de interés social, tomando en cuenta desde la extracción de los materiales hasta la finalización del inmueble, para la superficie de construcción del mismo fue de 55.095m2 conlleva a la emisión de .263 toneladas de dióxido de carbono a la atmosfera terrestre, un dato impactante, ya que para entrar en comparación, se tiene que un árbol de acre de bosque joven absorbe 2.5 toneladas de dióxido de carbono al año, promediando un aproximado de 6kg por día (Ecocharco, 2020), se necesitaría el año entero de un árbol de acre trabajando para poder purificar el dióxido de carbono de 9 unidades habitacionales que hemos analizado.
Gutiérrez Miranda Zahil, Universidad Mexiquense del Bicentenario
Asesor:Dr. Hugo Francisco Gonzalez Robledo, Universidad Politécnica de San Luis Potosí
IMPLEMENTACIóN DE SOLUCIONES DE APRENDIZAJE AUTOMáTICO EN LA CLASIFICACIóN DEL TRáFICO DE RED
IMPLEMENTACIóN DE SOLUCIONES DE APRENDIZAJE AUTOMáTICO EN LA CLASIFICACIóN DEL TRáFICO DE RED
Gutiérrez Miranda Zahil, Universidad Mexiquense del Bicentenario. Asesor: Dr. Hugo Francisco Gonzalez Robledo, Universidad Politécnica de San Luis Potosí
PLANTEAMIENTO DEL PROBLEMA
La clasificación del tráfico de la red es un problema importante en el análisis del tráfico de la red. Desempeña un papel vital en muchas tareas de red, incluida la calidad del servicio, la aplicación del firewall y la seguridad. Uno de los problemas desafiantes de clasificar el tráfico de red es el desequilibrio de los datos de la red. Por lo general, la cantidad de tráfico en algunas clases es mucho mayor que la cantidad de tráfico en otras clases. En este documento, propusimos una aplicación de un enfoque de aprendizaje. Usamos datos de red propuesta recientemente para el aprendizaje no supervisado llamada para generar muestras de datos sintetizados.
METODOLOGÍA
Para llevar esta investigación a la práctica se utilizan los frameworks WEKA y WIRESHARK, para entornos de aprendizaje y de flujos de datos respectivamente. Ambos implementan los algoritmos, metodologías y métricas antes mencionadas, se facilita así la productividad de los experimentos.
Para la realización del proyecto se utilizó la siguiente metodología
1.- Utilización de WIRESHARK para la obtención de el archivo PCAP con los datos de la red utilizada
Dentro de la primera etapa, se seleccionó la interfaz de captura WIFI para seguir con el siguiente paso, configurar los elementos de entrada y salida para finalmente comenzar la captura de datos de la red.
seguidamente guardar los archivos como formato ya configurado a PCAP, para luego convertirlo a archivo CVS, que será analizado por el software WEKA.
2.- Uso de WEKA como clasificador de red
Una vez abierta la aplicación de WEKA se procedió a seleccionar el archivo CVS, obtenido en WIRESHARK, para después visualizar algunos aspectos como lo son: Máximo, Mínimo y mediana de los datos.
3.- Clasificación del trafico de red utilizando los diferentes tipos de aprendizaje
Como se menciona Wepa es una plataforma de software puede resolver una amplia variedad de funciones de aprendizaje automático, como los que se mencionan a continuación
Aprendizaje supervisado. El algoritmo se entrena con datos históricos y así aprende a asignar la etiqueta de salida adecuada a un nuevo valor.
Aprendizaje no supervisado. No se disponen de datos para el entrenamiento. Sólo se conocen los datos de entrada, pero no existen datos de salida.
Aprendizaje de refuerzo. El algoritmo aprende observando el mundo que le rodea.
4.- Ejecutar WEKA para realizar la clasificación de los datos de red
Una vez abierta WEKA se lleva a cabo la clasificación con 10-fold-cross validation, a lo cual una vez configurada iniciaremos el proceso de clasificación de datos.
5.- Lectura de los resultados obtenidos del archivo de datos de la red
Los resultados de las pruebas demuestran un rendimiento aceptable para intrusiones, con una correcta clasificación de instancias de un 81.8% de precisión, de un total de numero de instancias de 165.
CONCLUSIONES
Presentamos algunos tipos de clasificación de tráfico de red que permiten la recogida de datos de tráfico. Obtuvimos resultados iniciales que indican que los algoritmos de aprendizaje supervisado se pueden utilizar y con los datos que son recopilados son de altos niveles de precisión. En un trabajo futuro se puede explorar el estudio de métodos no supervisados o métodos semisupervisados para la clasificación del tráfico. La única finalidad de la clasificación del trafico de red utilizando Machine Learning es, dividir el tráfico de la red en diferentes categorías, cada una de las cuáles requiere un tratramiento diferente, seleccionando los parámetros de red que optimicen el clasificador en cuanto a precisión y tiempo de cómputo
Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional
Asesor:M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional. Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional. Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales. Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional. Asesor: M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El autismo es un trastorno del neurodesarrollo caracterizado por ser un trastorno para toda la vida y presentar alteraciones de la interacción social, comunicación verbal, no verbal, el comportamiento restringido y repetitivo; generalmente los signos se observan durante los dos o tres primeros años de vida, actualmente se conoce como Trastorno del Espectro Autista (TEA).
La medición de los lapsos de atención en niños con Trastorno del Espectro Austista(TEA), ha ido tomando un papel muy importante, ya que en ellos el nivel de atención suele ser muy bajo debido a que se encuentran lidiando con una gran cantidad de estímulos del entorno. Lo que les genera estrés y potencia que se alteren, por lo que su nivel de atención es variante.
Con la detección de estos lapsos de atención (sostenida, dividida y alternante, en las modalidades visual y auditiva) se pretende coadyuvar en el aprendizaje de personas con TEA al interactuar con medios de aprendizaje tales como aplicaciones de software y otros tipos de actividades didácticas, con lo cual se puede mejorar el diseño de escenarios de aprendizaje y por lo tanto, la calidad de vida.
METODOLOGÍA
La base de datos se obtuvo a partir del registro de señales electroencefalográficas de un paciente con Trastorno del Espectro Autista que fueron adquiridas por medio del uso del dispositivo inalámbrico EPOC+ de 14 canales. Se realizaron tomas de muestras para la identificación de los lapsos de atención en el paciente al desarrollar distintas actividades de aprendizaje. El EPOC+ se utiliza en conjunto con el software EmotivPro para recopilar, analizar y almacenar métricas de datos cerebrales.
Los registros de las señales se utilizaron para la creación de archivos .mat correspondientes a cada uno de los 14 electrodos del dispositivo gracias a la herramienta Importa Data de MATLAB para su posterior procesamiento. Como primer punto, se realizó el escalamiento de la señal considerando la resolución de 0.51 uV proporcionada por el fabricante. Posteriormente, se eliminó la línea isoeléctrica de las señales empleando el comando detrend que nos permite restar la media de los datos.
Una vez obtenida la base de datos, se utilizó el software libre EEGLab proporcionado por UCSD, el cual se anexa a la plataforma de simulación MATLAB para el procesamiento de señales electroencefalográficas, en donde, primeramente se registraron las posiciones de los electrodos del dispositivo, para posteriormente hacer el análisis completo de las señales. Se realiza a continuación la identificación y clasificación de los artefactos presentes en la señal EEG para su posterior eliminación. Esto se puede hacer gracias al módulo de Análisis de Componentes Individuales (ICA, por sus siglas en inglés) de EEGLab.
Una vez eliminados los artefactos, se analizaron las señales para obtener la Densidad Espectral de Potencia por medio de un programa en MATLAB con la finalidad de analizar y detectar la mayor actividad eléctrica presentes en ciertas bandas de frecuencia (bandas Beta) y que es coincidente con los lapsos de mayor atención para cada una de las actividades realizadas.
CONCLUSIONES
El procesamiento de señales EEG puede determinar el nivel de atención que se presenta al desarrollar una actividad de aprendizaje con una persona con TEA, además obtener una medición cuantitativa de cada sesión y, de esta manera, saber el impacto de la actividad. Asimismo, también se puede saber si le es clara la instrucción, esto es muy importante sobre todo en las personas con TEA no verbales. De esta forma, se pueden diseñar o adaptar escenarios de aprendizaje personalizados, mejorando su bienestar y calidad de vida, para en un futuro lograr una inclusión laboral en su vida adulta.
Gutierrez Ramirez Jaaziel, Universidad de Guadalajara
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE
DISEÑO DE UNA CASA ECOLÓGICA AUTOSUSTENTABLE
Gutierrez Ramirez Jaaziel, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
Hoy en día el mundo enfrenta una crisis ambiental que afecta todos los ámbitos de la vida cotidiana, que parte principalmente de la sobrepoblación y el uso desmedido de los recursos naturales para el beneficio del ser humano.
Algunas consecuencias de esto son: Aumento en el consumo energético, deforestación y tala de árboles, menor calidad de vida, contaminación, etc.
Aunque se ha comprobado que las empresas grandes a nivel internacional son las más contaminantes, nosotros debemos también de comenzar a generar un cambio con proyectos un poco más chicos, como en este caso una casa ecológica autosustentable.
Debido a la pandemia mundial causada por el virus de COVID-19 se aumento el uso de nuestras viviendas generando un aumento de recursos básicos como agua y energía lo que también afecta el medio ambiente.
Por esta razón debemos pensar en la importancia de cuidar el medio ambiente comenzando con nuestras casas donde apliquemos energías renovables, ecotecnias, materiales que no generen un impacto ambiental, captación de agua pluvial, tratamiento de aguas grises y todo lo necesario para reducir este problema.
METODOLOGÍA
Por causa de la pandemia por el virus COVID-19 todo el trabajo de investigación se realizó en línea.
Se utilizaron varios sitios web siendo los principales “Google Classroom” donde nuestro investigador nos asignó los trabajos a realizar, subir nuestra investigación y compartir nuestros conocimientos adquiridos por sesión, otra fue “aprende.org” de la Fundación Carlos Slim para investigación técnica, entre otras páginas y videos para la retroalimentación.
Se utilizó como apoyo el Reglamento de Construcciones del Distrito Federal para el diseño de la Casa Ecológica Autosustentable.
Primero elegimos un terreno para la construcción de nuestra casa CEA en San Felipe del Progreso, Estado de México.
Comenzamos sacando el asolamiento y recorrido del sol con un programa llamado “Autodesk Revit” para tomar en cuenta esto al momento del diseño arquitectónico.
Para sacar el clima del lugar utilizamos una herramienta llamada “BcChart”. Donde automáticamente solo poniendo la localización del lugar (su latitud) nos arrojaba los datos climáticos, la carta bioclimática de Olgyay y las estrategias bioclimáticas necesarias para tener confort.
En base a eso se comenzó a diseñar los espacios del hogar basándonos en un perfil de usuario de una familia de 5 personas 3 estudiantes y 2 padres con sus respectivas necesidades.
Donde conforme a las estrategias bioclimáticas nos pidió en su mayoría captación solar pasiva se optó por muros trombe, ventanales de doble acristalamiento, adobe y teja.
Para conocer las velocidades del viento, utilizamos la página “Global Wind Atlas, 2021” donde nuestro objetivo era utilizar el viento para generar energía eólica, pero desafortunadamente la localización no nos daba el viento necesario para esto.
Lo cual se opto por utilizar la energía solar donde se consulto la pagina oficial de la nasa “POWER Data Access Viewer (NASA)” para conocer el total de horas de sol y así poder hacer los cálculos necesarios para nuestro sistema, donde se vio una conferencia donde se explicaba a detalle cómo sacar estos cálculos para ver los paneles necesarios, cuantas baterías y que tipo de inversor utilizar.
Se plateaba la instalación de un baño seco para la vivienda, pero se propuso usar las nuevas tecnologías como los inodoros ahorradores y aireadores para reducir el consumo de agua en la vivienda.
También se planteo la recolección de agua pluvial para eficientizar su consumo donde se calculan los mm anuales de lluvia por el coeficiente de recolección en la azotea por los m2 de área de captación para saber cuánto se recolecta al año.
Para satisfacer las necesidades de agua caliente de la CEA, se utilizará un colector solar. Este dispositivo es capaz de transferir el calor de la irradiación solar al agua fría doméstica para elevar su temperatura de manera limpia y sin necesidad de uso de combustibles.
Para finalizar se propuso realizar un biofiltro, El biofiltro es un sistema que imita a los humedales (pantanos) naturales, donde las aguas residuales se depuran por procesos naturales, este se divide en 3 partes; Pretratamiento, tratamiento primario y tratamiento secundario.
Pretratamiento y tratamiento primario: se propone una cisterna, para la mayor cantidad de retención de sólidos se añadirá dos tipos de mallado, dicha cisterna también será capaz de separar grasas y aceites a través del método de decantación.
Tratamiento secundario: En el tratamiento secundario, se utilizará un biofiltro tipo horizontal rellena de grava o piedras volcánicas en los extremos y tierra o piedra fina en el centro, lugar donde se encontrarán las plantas. Las secciones de los extremos permitirán retención de sólidos de manera física.
CONCLUSIONES
Aunque la vivienda ha evolucionado mucho para la comodidad de las personas se ha pensado poco en el impacto ambiental que estas generan.
Hacer una casa ecológica autosustentable ayuda disminuir el impacto ambiental y sirve para el ahorro de energías y economía, usando energías renovables y amigables con el medio ambiente.
En este verano de investigación pude aprender algunos tipos de energía renovables y como aplicarlos a la casa, así mismo como el clima es un factor importante al momento de diseñar para no tener que depender de energías no sustentables para llegar al confort.
Si cada persona en el planeta comienza a hacer conciencia sobre el impacto ambiental que generamos y se pone como meta que sus casas sean autosustentables podríamos hacer una diferencia.
Gutiérrez Sánchez Angélica, Instituto Politécnico Nacional
Asesor:Dr. Dainet Berman Mendoza, Universidad de Sonora
SÍNTESIS DE NANOPARTICULAS:APLICACIÓN EN RECUBRIMIENTOS PARA CELDAS SOLARES
SÍNTESIS DE NANOPARTICULAS:APLICACIÓN EN RECUBRIMIENTOS PARA CELDAS SOLARES
Gutiérrez Sánchez Angélica, Instituto Politécnico Nacional. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
El uso de recubrimientos de nanopartículas en celdas solares aumenta su eficiencia de conversión energética, sin embargo, son pocas las personas que tienen el conocimiento de la existencia de dichos recubrimientos y los procesos que implican para su obtención, es por ello que es importante dar a conocerlos ya que la energía fotovoltaica es una de las mejores alternativas para eliminar los combustibles fósiles que contaminan al medio ambiente
METODOLOGÍA
En esta investigación se analizaron los distintos métodos o técnicas de síntesis de nanopartículas, así como la aplicación de algunos de estos para la fabricación de recubrimientos en celdas solares obteniendo una mayor eficiencia de conversión energética además de un mejor aprovechamiento por el ser humano; de igual manera se menciona las características principales de las celdas fotovoltaicas y su funcionamiento
CONCLUSIONES
Al mencionar los aspectos fundamentales de los métodos de síntesis de nanopartículas se pudo comprobar la importancia que tienen en la fabricación de recubrimientos para celdas fotovoltaicas
Se logró comprobar que con la aplicación de los recubrimientos a base de nanopartículas en celdas fotovoltaicas aumenta la eficiencia de conversión energética
En base a la investigación realizada acerca de los métodos de síntesis de nanopartículas, se puede afirmar que estos se aplican a la fabricación de recubrimientos para celdas solares y a su vez mejoran la eficiencia de conversión energética de estos dispositivos.
Gutiérrez Valdez Steven, Instituto Politécnico Nacional
Asesor:M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
DISPOSITIVO MICROSIMULADOR PROTÉSICO
DISPOSITIVO MICROSIMULADOR PROTÉSICO
Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional. Gutiérrez Valdez Steven, Instituto Politécnico Nacional. Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En la década de los años 70, los materiales utilizados para manufacturar prótesis eran de naturaleza industrial, los cuales no estaban hechos para ese propósito en particular y presentaban desperfectos causando reacciones adversas en los pacientes; posteriormente se empezaron a diseñar, fabricar y procesar materiales con la finalidad de tener una aplicación en el campo médico y se les dio el nombre de biomateriales (Duffo, 2011).
El desarrollo, implementación o mejoras en un biomaterial exige rigurosos protocolos de investigación para definir sus propiedades necesarias con la finalidad de que sea adecuado en la sustitución de tejidos y que sean fiables para ser implantados en el cuerpo de un individuo. Estos deben tener un carácter inerte o bioactivo, y sus productos de degradación no deben originar toxicidad o reacciones adversas en el cuerpo del paciente. En cualquier caso, todo biomaterial debe tener características biocompatibles tanto mecánica y médicamente.
La tribología es el estudio de la fricción, desgaste y lubricación durante la interacción de las superficies en movimiento (Jin & Fisher, 2014). Cuando una prótesis se encuentra dentro del cuerpo es sometida a esfuerzos mecánicos, rozamientos y además sus componentes están inmersos en fluidos corporales que pueden generar desgate de los materiales, ante esas situaciones los estudios tribológicos son de utilidad. Los materiales son sometidos a estas pruebas y a través de los resultados se estiman sus características físicas.
METODOLOGÍA
Los sistemas de simulación de prótesis son ampliamente utilizados para analizar el comportamiento de las prótesis en un ambiente controlado y evaluar el comportamiento de los biomateriales por medio de ensayos tribológicos. El presente trabajo desarrolla una aplicación móvil la cual es capaz de monitorizar la temperatura del ambiente y controlar el movimiento angular del servomotor encargado de emular el movimiento al que estaría sometido el biomaterial.
Con la herramienta open-source software llamada MIT App Inventor, la cual permite el desarrollo de aplicaciones la cual es capaz de monitorizar la temperatura del sistema controlado a través de un sensor de temperatura LM35 que emite una señal analógica de voltaje que es proporcional a la temperatura del ambiente, en este sensor 10mV equivale a 1oC, su rango de funcionamiento abarca un rango que va desde los -55oC a 150ºC.
El motor utilizado es del tipo servomotor, el cual está compuesto por juegos de engranajes, alimentado por corriente continua, para potenciar el torque del motor y permitir mantener una posición fija. La característica que más destaca de los servomotores es su capacidad de controlar la posición, moviéndose cierta cantidad de grados en un eje. Para controlar la posición del motor se utiliza un PMW por sus siglas en inglés (Pulse Width Modulation), el cual consiste en enviar pulsos eléctricos de ancho variable, la posición se determina basado en la duración del pulso que hará moverse al juego de engranes y llevara el motor al ángulo deseado.
La programación del sistema se realizo utilizando un Arduino UNO y el envío de datos de temperatura y posición del motor se hace con un módulo Bluetooth HC-05 para que sea un sistema inalámbrico cuyo control se realiza a través de la aplicación.
CONCLUSIONES
Finalmente, explicado lo anterior se busca que el motor del sistema sea controlado por medio de la temperatura, es decir el movimiento se suspenderá al alcanzar temperatura fuera del rango 36ºC a 39.5ºC ya que se pretende simular las condiciones del medio fisiológico. Como entregables se generaron un manual de usuario el cual explica de manera detallada como manejar la aplicación y el manual de desarrollador el cual despliega el completo funcionamiento de la programación de la aplicación.
Referencias
Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Morán, D., Navarro, N., García, N., & Caballero, R. (2011). Articulo Protcad. v. https://sudocument.ulpgc.es/bitstream/10553/6318/1/0514198_00025_0003.pdf
Román García, J. L., & Pérez Rojo, B. (2010). Biomateriales. Aplicación a cirugía ortopédica y traumatológica. Univerisad Carlos III de Madrid, 1-2.Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Jin, Z., & Fisher, J. (2014). Tribology in joint replacement. In Joint Replacement Technology. https://doi.org/10.1533/9780857098474.1.31
Wisniew, T., Mroz A. (2016) Stand for Trobological Testing of hip endoporostheses. Tribologia, 167.
Gutiérrez Zermeño Marianna, Universidad de Guadalajara
Asesor:Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
CLASIFICACIóN DE MAMOGRAFíAS BASADO EN MODELOS DE DEEP LEARNING
Alvarado Martínez Israel, Instituto Politécnico Nacional. Caicedo Caicedo Brayan Steven, Universidad Autónoma de Occidente. Gutiérrez Zermeño Marianna, Universidad de Guadalajara. Asesor: Dr. Jose Angel Gonzalez Fraga, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El cáncer de mama es una de las tipologías de cáncer más comunes en la mujer. Consiste en la degeneración de un grupo de células sanas ubicadas en la glándula mamaria, lo que ocasiona la proliferación acelerada, desordenada y no controlada de ellas, dando origen a la conformación de un tumor con la capacidad de diseminarse a otros órganos
En México, el cáncer de mama representa una de las primeras causas de muerte en las mujeres. De acuerdo con el Instituto Nacional de Geografía y Estadística (INEGI), en 2019, por cada 100 mil mujeres de 20 años o más, se reportaron 35.24 casos nuevos de cáncer de mama, con una tasa de mortalidad de 17.19 defunciones a nivel nacional.
En Colombia, el cáncer de mama según el Globocan realizado en el año 2020 por la Organización Mundial de la Salud (OMS), cuenta con 15.509 casos nuevos relacionados a esta enfermedad. Cabe mencionar que es el primer cáncer con más tasa con respecto al total de casos de cáncer (representa el 13.7%) para ambos sexos.
La detección temprana del cáncer de mama es fundamental, debido a que puede mejorar la calidad del diagnóstico, la planificación del tratamiento y reduce las tasas de muerte entre las mujeres.
La mamografía de rayos X (XRM) es uno de los métodos más utilizados para el diagnóstico temprano de cáncer de mama. Sin embargo, existe una gran complejidad en la interpretación humana de estos estudios, debido a que es subjetiva y cualitativa. Además, depende en gran medida de la experiencia del radiólogo, inclusive existiendo una alta variabilidad entre radiólogos experimentados y por consecuencia un alto riesgo de un diagnóstico erróneo.
Para abordar estas limitaciones y mejorar el rendimiento en el análisis de mamografías, durante el verano de investigación se aplicaron técnicas de Deep Learning para desarrollar un modelo que apoye en la detección y diagnóstico de lesiones de manera automática.
METODOLOGÍA
Conjunto de datos
Para el desarrollo del método propuesto, se utilizaron imágenes de mamografías digitales del conjunto de datos disponibles públicamente de la Sociedad de Análisis de Imágenes Mamográficas (MIAS), la cual consta de 322 imágenes de mama derecha e izquierda (161 pares) con un tamaño de 1024 x 1024 píxeles. Las imágenes se agrupan principalmente en dos categorías, de las cuales 207 imágenes pertenecen a la clase normal y 115 imágenes muestran algún tipo de anomalía (64 imágenes benignas y 51 imágenes malignas). Por lo tanto, se aborda el problema de clasificación de las categorías: normal, benigno y maligno. Además, previo a la implementación de los modelos, fue necesario la realización de un cambio de formato a PNG y un redimensionamiento a 256 x 256 píxeles.
Se dividieron aleatoriamente las imágenes de ambos conjuntos de datos en tres partes, 75% como conjunto de entrenamiento, 15% como conjunto de validación y 15% como conjunto de prueba.
Diseño de red
En esta sección, se proponen dos modelos de Deep Learning y se emplea como modelo comparativo la arquitectura VGG16 para la evaluación del rendimiento de ambos métodos propuestos.
Modelo comparativo: VGG16
Debido a la facilidad de implementación de la red neuronal preentrenada VGG16, se empleó como modelo comparativo en este proyecto. Su arquitectura consta de 13 capas convolucionales y 3 capas densas y realiza la clasificación del conjunto de datos únicamente en benigno y maligno. Para poder evaluar de una manera homogénea el rendimiento de esta red respecto a los modelos propuestos, se añadió la categoría normal a la clasificación del conjunto de datos.
Modelo 1: CNN, Red Neuronal Convolucional
A la entrada del modelo hay una sección para la lectura de las imágenes y se aplicó la división que se especificó anteriormente, también se especificaron las etiquetas para cada imagen y con eso ya se tiene lista la información para el modelo. La red neuronal convolucional consta de tres capas, una capa de convolución con un kernel de tamaño 3, una capa de aplanado y una capa densa con tres neuronas de salida.
Modelo 2: Self-Attention
Para el entrenamiento de esta estructura de red neuronal por medio de mecanismos de atención, se definió el conjunto de datos de entrada usando la base de datos MIAS, se realizó un redimensionamiento a un cuarto del tamaño original. Siguiendo con la distribución 75% para el conjunto de entrenamiento y 15% para validación. Para realizar la estructura se tomó el mecanismo general de Scaled Dot Product Attention.
CONCLUSIONES
El modelo comparativo VGG16 permitió clasificar el conjunto de datos en las tres categorías propuestas. Debido al costo computacional se utilizaron un total de 300 épocas de entrenamiento, obteniendo un valor de precisión del 67.28% y una pérdida del 79.06%.
Por su parte, para el Modelo 1 se realizaron distintas pruebas de entrenamiento en las que se variaba la cantidad de épocas. Dentro de estas pruebas se encontró que la mejor combinación que hay es de 32 épocas con un tamaño de lote de 32, y con eso se obtuvo una precisión del 87.5% y una pérdida del 49.39% para el conjunto de prueba.
Finalmente, para el Modelo 2 de entrenamiento, se utilizaron 150 épocas de entrenamiento se logró conseguir una precisión de 98.2% y una pérdida de 22.3%.
Durante la estancia de verano se exploraron diferentes conjuntos de datos de imágenes de mamografía digital, así como modelos de Deep Learning, lo cual nos permitió adquirir los conocimientos teóricos y ponerlos en práctica para la realización de dos modelos que permitieran clasificar las mamografías según su estado patológico. Ambos modelos propuestos presentan una alta tasa de precisión y una baja tasa de pérdida, logrando tener un rendimiento superior al del modelo comparativo.
Guzmán Aguirre José Carlos, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
DIGITALIZACIóN INDUSTRIAL EN PYMES
DIGITALIZACIóN INDUSTRIAL EN PYMES
Guzmán Aguirre José Carlos, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
El mundo industrial se enfrenta a cambios constantes, siendo estos cada vez más frecuentes debido a la tecnología. Cambios que tomaban 5 años en reflejarse ahora ocurren en meses o semanas lo que ha generado una gran demanda de adaptación a pequeñas y grandes empresas para continuar en el mercado.
Teniendo en consideración el aspecto económico, cada cambio implica una inversión, la cual permite a los jugadores, en este caso las empresas, continuar apostando para seguir en la partida.
La pandemia fue la oportunidad perfecta para detener a las grandes empresas y permitir a todos los demás poder demostrar su capacidad de adaptación. Podríamos decir que la pandemia dio la oportunidad a las PyMes de regresar a la línea de salida y comenzar una nueva carrera en esta nueva época.
METODOLOGÍA
Mediante la investigación de diversas empresas se observó el cambio que se tuvo a consecuencia de la pandemia. El uso de las tecnologías se volvió vital para la supervivencia de grandes empresas. Al mismo tiempo, se demostró que las pequeñas y medianas empresas, mediante su ingenio pudieron sobrevivir gracias a las tecnologías que se desarrollaron; y a las tecnologías con las que ya se contaban, pero no se utilizaban por la resistencia al cambio. Se investigaron los casos de grandes empresas conocidas a lo largo del mundo con el objetivo de identificar los pasos que se enfrentan al momento de una transformación digital y a los cuales las PyMes deben tener en cuenta para idealizar un plan de acción en el momento de entrar en esta transformación.
Se realizaron entrevistas virtuales con los creadores de algunas pequeñas y medianas empresas para tener una visión más clara de cómo era ser emprendedor en épocas prepandemias, encontrar comportamientos en el mercado del pasado y compararlos con el presente. Los dueños de las empresas compartieron su experiencia durante este tiempo de pandemia, su metodología para seguir a flote en el mercado y las estrategias que utilizaron.
Se analizaron las diferentes herramientas tecnológicas que las PyMes podían aplicar en sus procesos, enfocándose principalmente en aquellas que no representaban una inversión pero que podían fungir como nuevos métodos de venta. Además de que se les propusieron modelos de negocio aplicables en las empresas para evitar los desperdicios de producción y gastos innecesarios. Al mismo tiempo, se estudió la manera en que estas empresas utilizaban las herramientas de transformación digital, se realizaba un monitoreo constante para la obtención de datos con el objetivo de crear una retroalimentación para la optimización del uso de estas.
También se hizo un estudio a los colaboradores de las diferentes empresas que participaron en esta investigación para el estudio de su comportamiento en relación a la temporada que se está viviendo. De esta forma se investigó si este comportamiento afectó positiva o negativamente a las PyMes.
CONCLUSIONES
Se demostró las empresas que tenían una estructura organizacional sólida, las cuales pudieron mantenerse a flote, frente a una situación sin precedentes, como es el paro total de la producción y venta de productos y servicios.
Se obtuvo una optimización de los diferentes departamentos de las empresas que colaboraron con esta investigación como el departamento de calidad, ventas, logística, producción y finanzas. Además de la puesta en marcha de un nuevo sistema organizacional el cual se creó a lo largo de esta investigación.
Se desarrolló el ingenio de las pequeñas y medianas empresas para crear métodos de venta y una nueva cultura organizacional. Además del desarrollo de la flexibilidad organizacional que solo las grandes empresas podían utilizar, esto a través de la utilización de diversas herramientas de la digitalización.
Guzmán Aguirre José Roberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica
EVALUACIóN DE CAPACIDADES TECNOLóGICAS DE EMPRESAS DE ALIMENTOS EN BARRANQUILLA, COLOMBIA: DISEñO DE UN INSTRUMENTO DE RECOLECCIóN DE DATOS
EVALUACIóN DE CAPACIDADES TECNOLóGICAS DE EMPRESAS DE ALIMENTOS EN BARRANQUILLA, COLOMBIA: DISEñO DE UN INSTRUMENTO DE RECOLECCIóN DE DATOS
Guzmán Aguirre José Roberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Angel Alfonso Rodriguez Petit, Corporación Politécnico de la Costa Atlántica
PLANTEAMIENTO DEL PROBLEMA
La Industria 4.0 representa el nuevo reto ante la necesidad empresarial de innovación y competitividad. La industria en general cada día innova vía la digitalización, la sustitución o incorporación a sus productos de componentes inteligentes, ello implica que integrarse a esta nueva industria no es una elección, es imprescindible, de lo contrario su mercado se limita cada día más por encontrarse en etapa de declive a un paso de perecer.
La industria de alimentos no es ajena a esta realidad y requieren incorporar estas tecnologías para mejorar la calidad de sus procesos y productos, disminuir tiempo de elaboración/entrega a clientes y redefinición de productos. Sin embargo, definir elementos que orienten una ruta de éxito en la adopción de soluciones tecnológicas 4.0 es determinante para garantizar la sostenibilidad de los modelos productivos empresariales y la competitividad. La presente investigación tiene como objeto indagar en la relación entre capacidades empresariales y tecnológicas, y como estas pueden establecer grados de madurez frente al salto hacia herramientas de industria 4.0.
Determinar si las empresas muestran capacidades o madurez para migrar procesos y utilizar las ventajas de las herramientas de industria 4.0, requiere de un diagnóstico que defina de manera exploratoria la relación de estas y otras diferentes capacidades presentes en la empresa.
La presente investigación se justifica desde una perspectiva metodológica ya establece elementos a considerar para establecer un plan eficiente de migración hacia nuevos esquemas tecnológicos, disminuyendo la incertidumbre y aumento las perspectivas de éxito. Por otro lado, establece elementos de importancia teórica ya se espera determinar asociación entre capacidades de la empresa que puede constituir un aporte significativo al estudio al estudio la gerencia y al uso de la inteligencia de negocios.
Finalmente, la investigación generará aportes en al ámbito socio-productivo facilitando elementos de transformación hacia la era digital del sector industrial de alimentos, elevando sus niveles de innovación y competitividad, impulsando su crecimiento y participación en la economía local e internacional y consolidando a Barranquilla como ciudad inteligente.
METODOLOGÍA
La metodología propuesta se enfoca en el diagnóstico de las capacidades tecnológicas presentes en las empresas desde 6 dimensiones (inversión, producción, vinculación, fabricación y adaptación de maquinaria y equipo) y su relación con la incorporación de tecnologías emergentes o disruptivas de industria 4.0.
De acuerdo a las dimensiones planteadas, y luego de una depuración, se construirá y validará un instrumento tipo encuesta compuesto por información básica de la empresa y por una lista de verificación de características vinculadas a cada una de las dimensiones consideradas que permitirá en primera instancia mediante estadística descriptiva hacer una aproximación exploratoria de las capacidades de las empresas estudiadas del sector de la industria de alimentos y luego mediante herramientas de estadísticas como el análisis de componentes principales y la regresión corroborar la hipótesis relación significativa entre capacidades empresariales y tecnología 4.0
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos de cómo se realiza un instrumento de recolección de datos además de que como producto final se elaboró el instrumento tipo encuesta compuesto por más de 60 ítems, utilizando el método de panel de experto con instrumento de evaluación para la validación de este.
Hamburger Navarro Natalia, Universidad de la Costa
Asesor:Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala
ANÁLISIS Y ELECCIÓN DEL USO DEL EQUIPO DE PROTECCIÓN PERSONAL BAJO LA NOM-017-STPS-2008, ANTE LA PANDEMIA DE COVID
ANÁLISIS Y ELECCIÓN DEL USO DEL EQUIPO DE PROTECCIÓN PERSONAL BAJO LA NOM-017-STPS-2008, ANTE LA PANDEMIA DE COVID
Hamburger Navarro Natalia, Universidad de la Costa. Iriarte Correa Joel Alberto, Universidad Vizcaya de las Américas. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
La seguridad y salud en el trabajo en este artículo tiene la intención de fomentar la disminución de riesgos que permitan evitar los accidentes y enfermedades laborales que se puedan presentar. Existen distintas medidas de prevención y control que deben acogerse con respecto el análisis de eficacia; en efecto, nuestra investigación se centra en los equipos de protección Personal (EPP) teniendo como característica primordial el uso correcto de accesorios, dispositivos y vestimentas por parte de los trabajadores y de esta manera lograr la protección de daños a su integridad física o su salud teniendo estos como resultados los riesgos en la zona de trabajo.
La empresa CONSTRUCTORA JIMÉNEZ S.A.S cuenta con 35 años de experiencia, actualmente trabajando en el proyecto de construcción APARTASUITS con un total de 90 trabajadores, en el cual se implementará la NOM-017-STPS-2008 ante la pandemia de COVID-19 teniendo en cuenta los puestos de trabajo y así definir el uso adecuado del equipo de protección personal, siendo de gran importancia el tipo de actividad que desarrolla el trabajador.
Es de gran utilidad proteger constantemente a los trabajadores que de tal forma ellos se sientan seguros de poder ejecutar sus responsabilidades, con base a esto el contratista deberá proveer equipos de protección personal que estén cumpliendo con las normas legales vigentes. Es ineludible brindar un seguimiento(capacitaciones) a los empleados sobre el peligro expuesto en cada área de trabajo.
METODOLOGÍA
Precisando las diferentes medidas de prevención y control, es vital entender que el uso del equipo de protección personal sea la última medida a llegar, ya que se debe efectuar primordialmente la eliminación, sustitución y el control de ingeniería; siendo esta la mejor labor frente a las decisiones ya sean tipo defensoras y correctivas que afronten la ocurrencia de accidentes laborales.
En el proyecto de construcción se tiene la presencia de un total de 90 trabajadores; entre ellos interventoría externa, CISO (oficial de seguridad de la información), coordinador de alturas, ingenieros civiles, practicantes y obreros. Las responsabilidades y actividades para desarrollar son diferentes, sin embargo, cada uno debe cumplir con su equipo de protección personal y de esta forma el CISO brinda de forma diaria capacitaciones a los trabajadores para prevenir accidentes, controlando y gestionando cada una de las zonas laborales. De acuerdo con las necesidades como compañía les exigen a los empleados del proyecto de construcción contar con un curso de altura, el cual se debe renovar a un total de año laboral con la misma empresa.
Ante la pandemia de COVID-19 cuentan con distintos protocolos de bioseguridad y así evitar el aumento del contagio de los empleados: enlace de bioseguridad al llegar a la construcción, toma de temperatura, uso obligatorio de tapabocas (la empresa suministra al personal en las dos jornadas), uso de alcohol-gel antibacterial, lavado de manos constante y cada tres meses realizar prueba COVID-19 a todos los empleados.
CONCLUSIONES
Revisando cada unas de las obligaciones del patrón y los trabajadores con respecto a la NOM-017-STPS-2008 Equipo de protección personal-Selección, son establecidas y ejecutadas de la forma correcta. Las instrucciones dadas sobre el uso adecuado del EPP ayudan a los trabajadores a obtener seguridad en sus funciones, seguir con el cumplimiento de la Norma y así evitar accidentes laborales.
El equipo de protección personal de los empleados cumple con sus características físicas y es de uso personal, cuentan con las determinadas indicaciones de cuidado y uso. Suministran toda la dotación necesaria a sus trabajadores y de ser necesario realizar cambios por deterioro o tiempo de vida útil.
Se relacionaron en una tabla 1 los puestos de trabajo con sus diferentes regiones anatómicas y los equipos de protección personal, en una tabla 2 se ingresaron los datos correspondientes de los EPP con relación a las regiones anatómicas con claves enunciadas en tabla 1.
En conclusión, se logró el cumplimiento de los lineamientos y las direcciones de la NOM-017-STPS-2008 Equipo de protección personal-Selección, a cada empelado se le manifestó información clara y concisa de la seguridad que se debe tener en cada área laboral, obteniendo día a día un ambiente de trabajo adecuado. Las instalaciones de la construcción son de buen agrado y cumple con cada una de las normativas solicitadas, brindándoles a sus empleados protecciones de los agentes del medio ambiente de trabajo, impidiendo perjuicios en su integridad sean física y salud. Durante la pandemia del COVID-19 bajo los respectivos cuidados que han tenido no se notificado alto foco de contagio.
Se observó que cumplen con la implementación y ejecución de la NOM-026-STPS-1998, Colores y señales de seguridad e higiene- Identificación de riesgos por fluidos conducidos en tuberías. De esta manera se motiva a la empresa en su crecimiento profesional, el resultado de sus proyectos como locales, viviendas y oficinas sigan siendo eficaces a la hora de ejecutarse, sin dejar a un lado que tras 35 años de experiencia no tienen queja alguna de sus empleados y clientes. Se reconoce la alta proyección en los procesos de los diferentes planes y con el equipo humano de alta calidad que forma parte de su compañía.
Haro Guttierrez Adriana, Universidad de Guadalajara
Asesor:Mg. Rolando Arturo Cubillos González, Universidad Católica de Colombia
ANáLISIS DE PROTOTIPO DE VIVIENDA SOCIAL PARA EL MUNICIPIO DE GUADALAJARA
ANáLISIS DE PROTOTIPO DE VIVIENDA SOCIAL PARA EL MUNICIPIO DE GUADALAJARA
Haro Guttierrez Adriana, Universidad de Guadalajara. Montenegro Huerta Ana Paula, Universidad de Guadalajara. Asesor: Mg. Rolando Arturo Cubillos González, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El crecimiento urbano en Latinoamérica implica un aumento en el cambio climático (Jordán, Riffo, & Prado, 2017). Efectivamente, el crecimiento poblacional de la región de América Latina implica una alta demanda de vivienda social. Por tanto, responder a la necesidad de una vivienda social resiliente es de vital importancia para enfrentar el cambio climático en Latinoamérica.
Además:
Un mal diseño de la edificación, ocasiona que no se responda a las condiciones ambientales y de disponibilidad de recursos que demandan las construcciones
(Cubillos-González & Rodríguez-Álvarez, 2013).
Entonces se hace necesario proponer el diseño de viviendas sociales que permita respuestas de resiliencia frente al cambio climático e implemente estrategias sostenibles a las necesidades de las ciudades latinoamericanas.
En este sentido, uno de los caso de interés es la ciudad de Guadalajara. Ya que en los últimos años, la ciudad a desarrollado un gran interés por mitigar los efectos del cambio climático en la ciudad.
Ya que, según el ayuntamiento de guadalajara (2017) el sector residencial de la ciudad es uno de los emisores principales de Gases efecto Invernadero (GEI).
METODOLOGÍA
La metodología está compuesta de dos fases. A continuación se explican las mismas:
1.Identificación de tipología de vivienda social
Esta fase tiene dos actividades que permiten el análisis de la información obtenida a partir de las fuentes que componen el marco teórico.
1.1.Selección de casos de estudio.
A partir de la revisión literaria se identificaron fuentes primarias del Laboratorio de Vivienda Infonavit (México).
1.2 Análisis de casos de estudio.
Se identificó que este laboratorio tiene 32 prototipos de los cuales se seleccionaron 5 de ellos por sus características arquitectónicas. Luego, se realizó un análisis tipológico de estos 5 casos identificando sus ventajas y desventajas.
2. Diseño de prototipos de vivienda social.
A partir del análisis tipológico de los casos de estudio se desarrollaron nuevos prototipos de vivienda social.
2.1 Definición de alternativas de diseño.
Dentro del diseño se propusieron varias alternativas de las cuales se eligieron las más adecuadas al contexto de Guadalajara, Jalisco.
2.2 Propuesta final de prototipo básico
Una vez elegida la alternativa más adecuada, se desarrolló una propuesta básica de prototipo de vivienda social que cumplía con los objetivos propuestos por el trabajo de investigación.
CONCLUSIONES
El diseño de vivienda social requiere de adicionar el análisis del ciclo de vida del usuario para mejorar la calidad de la vivienda.
Un factor importante a la hora de diseñar vivienda social es satisfacer la necesidad de flexibilidad del usuario.
La definición de las circulaciones en el diseño de la vivienda social mejora las relaciones espaciales de las mismas.
El diseño de vivienda social debe incluir espacios de almacenamiento dentro de la misma para que mejore la calidad del habitar.
El análisis de la iluminación natural es de vital importancia para el diseño de prototipos de vivienda social.
Heredia Piñón Luis Enrique, Instituto Tecnológico de Morelia
Asesor:Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío
INGENIERíA INVERSA PARA LA SIMULACIóN DE DEFORMACIONES EN ELEMENTOS MECáNICOS.
INGENIERíA INVERSA PARA LA SIMULACIóN DE DEFORMACIONES EN ELEMENTOS MECáNICOS.
Heredia Piñón Luis Enrique, Instituto Tecnológico de Morelia. Asesor: Dr. Jorge Ramón Parra Michel, Universidad de La Salle Bajío
PLANTEAMIENTO DEL PROBLEMA
Un problema común que se presenta a un ingeniero es desconocer el funcionamiento de un elemento o proceso, ya que las geometrías de los objetos reales pueden ser muy complejas, o estar conformadas por una gran cantidad de piezas que requieren su propio análisis.
Además, los instrumentos de medición convencionales no siempre pueden medir ciertas formas de objetos, y el diseño con los comandos básicos programas CAD tienen cierto límite cuando se intenta recrear un objeto real.
La Ingeniería Inversa es un proceso muy útil en la industria, ya que permite conocer el funcionamiento de un elemento o proceso, con la posibilidad modificarlo para su mejora. Esta técnica hace uso de herramientas tales como la fotogrametría, escaneo 3D, diseño asistido por computadora y programas de simulación.
METODOLOGÍA
Se utilizó un objeto del hogar cómo elemento de análisis.
La primera etapa del proceso fue obtener una nube de puntos del objeto en cuestión, a partir de la fotogrametría, con la toma de varias fotografías con distintos ángulos y alturas, para extraer la mayor cantidad de puntos con el objetivo de aumentar la precisión y el detalle del modelo.
Después, con el uso de un software especializado en el mallado y la nube de puntos se generó una malla 2D con la información superficial del objeto.
Para convertir la malla 2D en un sólido se manipuló en distintos programas CAD, primero para eliminar facetas basura y reparar imperfecciones en la malla para facilitar el proceso de generación de caras, y disminuir posibles errores al momento generar el modelo 3D, de igual manera para aumentar la calidad.
Una vez obtenido el modelo 3D, se procedió a obtener la malla de elementos finitos con la cuál fué posible realizar diversas simulaciones.
CONCLUSIONES
Los resultados obtenidos fueron los siguientes:
El modelo 3D tiene una gran similitud comparado con el objeto real, debido a que la técnica de fotogrametría empleada es superior a las habituales, ya que se basa en tecnología reciente con el uso de aparatos electrónicos y softwares. además de ser menos afectada por posibles errores humanos, gracias a esto que se logró observar mayor detalle en la superficie, y precisión de la geometría. Resultados que habrían sido imposibles de obtener con técnicas clásicas de medición y diseño.
En cuanto a la simulación, se obtuvo información útil del comportamiento real del elemento sometido a diferentes condiciones de operación, porque tanto gráficamente como numéricamente se pueden observar zonas que son más afectadas claramente por la misma geometría del elemento. Lo mencionado anteriormente sirve de aprendizaje para mejorar diseños y permite tener un mayor conocimiento en el área.
Con esto se comprueba la utilidad y ventajas de la técnica de Ingeniería Inversa como herramienta que puede aplicarse en distintas áreas de la Ingeniería, como en el análisis estructural, térmico y vibratorio, incluso para aplicaciones de la biomédica, tales como el desarrollo de prótesissis.
Hernández Alvarado Carolina, Universidad Veracruzana
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
DESARROLLO DE PROPUESTA SUSTENTABLE Y SOSTENIBLE PARA LA SALUD IMPLEMENTANDO UN DISEñO ESTRATéGICO PARA LA MITIGACIóN DE LAS VARIANTES CLIMáTICAS
DESARROLLO DE PROPUESTA SUSTENTABLE Y SOSTENIBLE PARA LA SALUD IMPLEMENTANDO UN DISEñO ESTRATéGICO PARA LA MITIGACIóN DE LAS VARIANTES CLIMáTICAS
Hernández Alvarado Carolina, Universidad Veracruzana. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Se requiere la construcción de un hospital que atienda la demanda a la salud de los habitantes del Hato de la Higuera, Veracruz, evitando que sus pobladores, así como de las comunidades aledañas, tengan que trasladarse a la Ciudad de Veracruz para tener el servicio a la salud, es así que como estudiante de arquitectura considero que la realización de un proyecto adecuado permitirá garantizar una vida sana y promover el bienestar de todos en todas las edades, análisis logrado basado en la investigación de las diversas problemáticas existentes dentro de la comunidad. Como resultado final se propone un hospital regional de segundo nivel, que permite la implementación de especialidades básicas dentro de esta comunidad, y responde a las variantes climáticas mediante su diseño sostenible.
METODOLOGÍA
ELECCIÓN DEL SITIO Y EMPLAZAMIENTO
Comunidad Hato de la Higuera
La localidad de Hato de la Higuera está situada en el Municipio de Puente Nacional, Estado de Veracruz de Ignacio de la Llave. Cuenta con 830 habitantes y se encuentra en el sexto lugar de los pueblos más poblados del municipio. (PueblosMexico.com, n.d.)
Hato de la Higuera está a 455 metros de altitud. Cuenta con 5 localidades aledañas (Teopanapa, Mata de Zarza, Los Pescados, La Ternera y Pachuquilla) a las cuales se les evitará trasladarse a la cuidad de Veracruz para tener acceso al sector de la salud. (INEGI, n.d.)
DISEÑO ARQUITECTÓNICO
El concepto que rige la forma de la propuesta arquitectónica parte de la analogía de un águila sobrevolando un bosque de acero. Representando al águila en las cubiertas del proyecto y se hace la analogía el bosque en la forma de las columnas.
PROGRAMA ARQUITECTÓNICO
Acceso
Estacionamiento
Acceso principal
vestíbulo
Sala de espera
Farmacia
Recepción
Servicios generales
Lavandería
Cuarto de residuos
Cuarto séptico
Alimentos
Cuarto de máquinas
Consultorio
Medicina general
Medicina preventiva
Pediatría
Ginecología
Administrativo
Oficinas
Dirección
Cirugía
Oficina admisión quirúrgica
Vestidores
Tococirugía
Expulsivo
Quirófano
Hospitalización
Pabellón de camillas
Cuartos privados
Rehabilitación física
Laboratorio
Zona radiografía
Zona tomografía
Banco de sangre
Zona de análisis
Urgencias
Triaje
Sala de curación
Sala de choque
Enfermería
PROPUESTA ESTRUCTURAL
Se propone un sistema estructural completamente de acero con perfiles tubulares de distintos diámetros. La cimentación se basa en zapatas corridas que se unen con trabes de liga a unos dados de cimentación, empatándolas con placas de acero y anclajes a las columnas principales.
La columna principal que evoca la forma de un árbol está compuesta por un perfil tubular cilíndrico de 14 de diámetro y sus ramas con perfiles tubulares de 8 todo soldado y con un acabado galvanizado por inmersión en caliente para la corrosión. Estas columnas se conectan y cargan vigas Joyce tipo armadura que sostienen el sistema de entrepiso en el primer nivel y un sistema de tridilosa para la cubierta. El entrepiso es un sistema de losacero que se coloca sobre las armaduras reforzadas con montenes. La cubierta principal se desplanta gracias a unas armaduras curvas que van desde el primer nivel hasta la tercera planta y las cubiertas secundarias se apoyan sobre tridilosas en la segunda planta.
CONCLUSIONES
El mayor exponente para la creación de este proyecto es la representación misma que la naturaleza nos brinda.
El diseño obtenido a través de la analogía de un águila permite que la forma topológica que tiene en sus cubiertas pueda capturar los vientos favorables y contrarrestar los vientos fuertes, además la cubierta principal la cual hace la analogía de la cabeza del águila, aparte de ser utilizada para la mitigación de la incidencia solar, es utilizada como un sistema que nos permite la captación de aguas pluviales la cual será procesada y utilizada en el hospital.
El proyecto propuesto del hospital regional generará bienestar proveyendo salud a los habitantes de Hato de la Higuera, Veracruz; además es una edificación digna proyectada para mitigar la incidencia solar y captar las aguas pluviales para aprovechamiento en la propia construcción.
REFERENCIAS
INEGI. (n.d.). Espacio y datos de México. https://www.inegi.org.mx/app/mapa/espacioydatos/default.aspx?ag=301340014
PueblosMexico.com. (n.d.). Hato de la Higuera (Veracruz de Ignacio de la Llave). https://mexico.pueblosamerica.com/i/hato-de-la-higuera/
Hernández Álvarez Juan, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PROGRAMACIÓN ORIENTADA A LA CIENCIA DE LOS DATOS Y MACHINE
LEARNING CON INTELIGENCIA ARTIFICIAL EN PYTHON.
PROGRAMACIÓN ORIENTADA A LA CIENCIA DE LOS DATOS Y MACHINE
LEARNING CON INTELIGENCIA ARTIFICIAL EN PYTHON.
Hernández Álvarez Juan, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
En la actualidad existe un problema global con la escases de agua, la cual muy pocas organizaciones están realizando estudios y conciencia de ello, para esto, nosotros nos propusimos realizar un programa que recabe datos de paginas oficiales y genere
estadísticas por medio de una Inteligencia Artificial creada en Python con Machine Learning y Pattern recognition, y poder publicar los resultados con los cuales podamos generar un sentido de conciencia a la hora que las personas utilicen el agua con mas responsabilidad.
METODOLOGÍA
METODOLOGIA
La metodología empleada fue básicamente una metodología cuantitativa, para ello se utilizó la librería de pandas y numpy para poder recabar la información necesaria de las bases de datos y con la librería de Matplotlib podríamos generar graficas más entendibles sobre el consumo actual de agua. Se nos proporciono de igual manera los conocimientos necesarios para desarrollar diferentes proyectos en un futuro.
CONCLUSIONES
CONCLUSIONES
De la presente investigación se ha logrado recopilar un conjunto de conocimientos, técnicas de programación avanzada, siguiendo una metodología de estudio cuantitativo, en la cual se utilizaron diversas herramientas de investigación, que mediante el análisis de la información obtenida, llegue a la conclusión que gracias a las herramientas que posee un lenguaje como el de Python se pueden realizar grandiosas cosas para el beneficio de todos. Cabe resaltar que gracias al Verano de la Investigación Científica he reforzado mi formación académica al permitir conocer desde otra óptica las ramas de mi carrera.
Hernández Arévalo Salma, Instituto Tecnológico de Matamoros
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN TAMAULIPAS, MéXICO.
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN TAMAULIPAS, MéXICO.
Hernández Arévalo Salma, Instituto Tecnológico de Matamoros. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En 2011 se da a conocer la Cuarta Revolución Industrial en la Feria de Hannover que es la Feria Industrial más grande del mundo, surgiendo un nuevo paradigma económico (Deutschland, 2014). El concepto forma parte de una estrategia de alta tecnología del gobierno alemán que describen la producción industrial en general donde, los elementos del sistema productivo están interconectados entré sí digitalmente.
De acuerdo con el Clúster Industrial de México, durante 2020, las regiones con mayor crecimiento en digitalización de la industria en México fueron:
El corredor del Bajío y Guadalajara.
En el Norte: Monterrey, Tijuana, Ciudad Juárez y Hermosillo.
En el centro el Estado de México
La principal debilidad es la falta de recurso humano técnicamente habilitado en industria 4.0, considerando aspectos de teoría, práctica, contexto y normatividad. México es de las 12 economías más importantes del mundo en lo que a la industria manufacturera respecta, por su valor de producción y diversidad, con un sector industrial considerado robusto. Sin embargo, el sector corre el riesgo de rezagarse debido a la carencia de talento calificado y se ubica en el lugar 46 al considerar a los países más preparados para la industria 4.0. En nuestro país apenas 5% de las empresas conocen y aplican la industria 4.0 (Campa, 2019).
METODOLOGÍA
Este protocolo aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) de Tamaulipas, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
En el transcurso de la estancia de verano se realizó un estudio documental, del cual se adquirieron conocimientos básicos sobre los pilares y tecnologías de la cuarta revolución industrial. Dentro del desarrollo de ese estudio se conocieron las necesidades en cuanto a educación por las que carece México, en temas relacionados a la industria 4.0.
Se investigaron distintos programas educativos tanto internacionales como nacionales para conocer el contexto educativo de las nuevas tecnologías que aplica la cuarta revolución industrial. Se observó que la oferta educativa nacional, en relación a industria 4.0, se enfoca en dos principales áreas las cuales son manufactura avanzada y tecnologías de la información.
Posteriormente se realizó un estudio de campo mediante la aplicación de un instrumento diagnóstico para conocer las necesidades de la industria 4.0 en la región. Para esta fase se estableció recopilar un mínimo de 20 participantes como muestra significativa, donde se consiguió un total de 24 participantes del estado de Tamaulipas, los cuales tienen un perfil docente o profesional afín con la industria 4.0, donde el género predominante fue el masculino con un 92%.
De acuerdo a los resultados, las carreras que predominan en profesionistas y docentes relacionados con industria 4.0 son la ingeniería electrónica y telecomunicaciones (25%) y la ingeniería industrial con sus distintas especialidades (25%). En base a estos resultados se puede concluir que estas carreras son las que cuentan con más asignaturas relacionadas con los pilares de la industria 4.0.
El área de énfasis en industria 4.0 que destaca en Tamaulipas es la automatización y robótica (8 informantes). Relacionado a los factores encuestados, se destaca la falta de información y difusión de políticas públicas regionales, puesto que un 33% de los informantes desconoce al respecto.
Actualmente el contexto regional para la formación de recursos humanos en la industria 4.0 carece de políticas que apoyen y difundan el desarrollo del talento humano en la formación continua, puesto que no en todas las instituciones se cuenta con instalaciones y equipo a la vanguardia para el desarrollo de estas tecnologías. Además, se destaca la desinformación acerca de los beneficios que trae consigo la digitalización de los procesos, como lo es el desarrollo sostenible y la desmaterialización.
Hernández Avelar Jesús, Instituto Tecnológico de Pachuca
Asesor:Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
METODOLOGíAS PARA LA IMPLEMENTACIóN DEL ENFOQUE DE INDUSTRIA 4.0: UNA REVISIóN DE LITERATURA
METODOLOGíAS PARA LA IMPLEMENTACIóN DEL ENFOQUE DE INDUSTRIA 4.0: UNA REVISIóN DE LITERATURA
Hernández Avelar Jesús, Instituto Tecnológico de Pachuca. Asesor: Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
La principal problemática es la identificación metodológica de la implementación con enfoque 4.0 en la industria para esto el artículo contextualiza los antecedentes históricos y las metodologías expuestas por los diferentes autores dentro del marco de la industria 4.0 como método de implementación en las industrias.
El punto de partida es el análisis la evolución de las revoluciones industriales predecesoras para poder comprender la industria 4.0, seguido del análisis de la Perspectiva del gobierno mexicano hacia la organización de la Industria 4.0 y lo que pasa realmente en México con la cuarta revolución.
Después se tiene el análisis de las Reglas de Operación del Programa para la Productividad y Competitividad Industrial para el ejercicio fiscal 2020 en México tomando como referencia el Diario Oficial de la Federación. Siguiendo con la parte del desarrollo se tienen las metodologías encontradas y las variables de las mismas.
Lo expuesto permite dar una mirada a los avances en términos de metodología aplicada para la introducción del enfoque lo que contribuye una propuesta metodológica que basada en la opinión de los autores que ya han experimentado provee un valor para aquellas empresas que deciden emprender este camino.
METODOLOGÍA
La metodología que se utilizo es una revisión sistemática de literatura en donde la primera etapa fue realizar una pregunta de investigación la cual fue la siguiente: ¿Cuáles son las metodologías de implementación del enfoque de la industria 4.0 en México y el mundo?
En la segunda etapa se hizo una búsqueda en la base de datos SCOPUS y GOOGLE SCHOOLAR donde se encontró artículos e información de libros con relación al tema de investigación.
En la tercera etapa se realizó una tabla en hoja de cálculo donde se dividieron en diferentes columnas las cuales son:
- País
- Año
- Autor
- Titulo
- Abstract
- Resumen
- Conclusiones
- Fuente-URL
- Base de datos utilizada
- Revista de publicación
El objetivo de esto es recabar información y tenerla en primera instancia para el uso de la misma.
En la cuarta etapa se tiene la primera selección de artículos, en la cual es seleccionar los artículos que se podrían ocuparan en el artículo como referencia del tema principal.
En la quinta etapa se tiene la selección final de los artículos y libros que se ocuparan, en esta etapa se realizó una tabla en la hoja de cálculo, teniendo en cuenta los temas de la tercera etapa en cada columna para poder organizar la información
En la sexta etapa se realizó un diagrama (mapa conceptual) en el cual se plasmó la secuencia y los temas que integraran la revisión de literatura
En la séptima y última etapa se realizó la redacción del informe de la investigación teniendo en cuenta los documentos encontrados en las bases de datos.
CONCLUSIONES
Se realizó una metodología propuesta con enfoque a la implementación de la industria 4.0, tomando como referencia lo que señala cada autor.
Para esta metodología se tomó en cuenta 5 etapas. Las etapas son las siguientes:
1- Situación actual de la empresa
En esta etapa como inicio se hará un análisis de la situación actual de la empresa, para poder conocer los problemas que existen dentro de ella, lo cual nos posibilitará definir las probables alternativas y por consecuencia implementar las soluciones necesarias.
2- Estrategia
En esta etapa se establece una estrategia para enfocarse al cumplimiento de una meta para poder estar dentro de los sistemas industrializados a nivel mundial. Lo cual la estrategia que elijan debe tener un enfoque hacia la industria 4.0, que esto los llevara a desarrollar tecnologías aplicadas.
3- Tecnologías 4.0
En esta etapa es donde se propondrán las soluciones tecnológicas que se requieren para la mejora de la empresa, teniendo en cuenta la estrategia que se tenga es la tecnología que se integrara a la empresa, precisando en una visión estratégica e innovadora para llegar a conseguir lo que se requiere.
4- Innovación y Desarrollo
En esta etapa la innovación juega un papel muy importante ya que el desarrollo interno debe de obtener una ventaja competitiva, las mejoras deben estar en los productos y procesos, este será el diferenciador con otras empresas. Con este valor agregado en el desarrollo y la innovación será el punto clave de un cambio radical en cada una de las empresas.
5- Concientización del personal
En este último punto la concientización hacia el personal es muy importante, darle al personal aprendizajes referidos a la industria 4.0, modificará las actitudes y percepciones tanto organizaciones como individuales con el fin de integrar al personal una misma idea, con respecto a la estrategia establecida, esto tendrá como resultado una armonía en los procesos.
Se han propuesto diversas metodologías para la aplicación del enfoque 4.0 en la industria todas pasan por etapas que van desde el análisis de la empresa y la estrategia hasta el avance digital, teniendo como referencia la alineación empresarial.
Las revoluciones industriales marcaron y marcaran una etapa en la humanidad, la mejora de productos y de procesos será diferenciador esencial para cada empresa, esto representa una transformación significativa de la producción través de la unificación de tecnologías y el internet.
La industria 4.0 integra las nuevas tecnologías en los procesos y sistemas teniendo avances significativos dentro de la industrialización a nivel mundial. El estudio de cada metodología publicada permite hacer una generalización y ver una similitud de pasos lo cual da a entender que la forma en que se integra el enfoque 4.0 en parte es el mismo solo con una interpretación diferente.
Aun cuando la literatura reporta diferentes metodologías cada empresa debe hacer su análisis particular y seguir el camino propio que dan sus condiciones y su perspectiva en el modelo de negocios que lleva.
Hernandez Bautista Armando, Universidad Politécnica de Tecámac
Asesor:Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac
GENERACIóN DE GRáFICOS DE ESTANCIAS Y ESTADíAS PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC.
GENERACIóN DE GRáFICOS DE ESTANCIAS Y ESTADíAS PARA LA UNIVERSIDAD POLITéCNICA DE TECáMAC.
Cristobal de la Cruz Estefanía, Universidad Politécnica de Tecámac. Hernandez Bautista Armando, Universidad Politécnica de Tecámac. Asesor: Mtra. Refugio Antonio Bernal, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
En la Universidad Politécnica de Tecámac se ha implementado el sistema único de información escolar en donde se lleva un control de los estudiantes, pero no cuenta con un módulo para estancias y estadías donde se generen datos estadísticos, por lo que no se cuenta con la información automatizada de este proceso como la evaluación que la empresa realiza a los estudiantes, los cursos, el perfil de proyecto, la encuesta de satisfacción que los estudiantes realizan, etc.
La información de estancias y estadías de ha obtenido a través de archivos de Excel, y formularios que se exportan a Excel, en todos los archivos los datos se encuentran separados por períodos, cuando se desea realizar por ciclo escolar o por año, la información se trabaja con tablas dinámicas y después se unen los datos, haciendo muy tardado el proceso para obtener indicadores.
La información debe unificarse en un archivo que contenga todos los periodos y así obtener fácilmente las gráficas esperadas en este sistema.
METODOLOGÍA
En este proyecto se usó la metodología en cascada, en el análisis se realizó la revisión archivos en Excel de todos los periodos desde el año 2018 hasta el año 2020, se unificaron en cuanto a los campos que son necesarios para la obtención de las gráficas, se tomó como referencia de unificación un archivo del período Septiembre-Diciembre-2020 para que todos los demás tuvieran la misma información.
Al tener todos los documentos unificados con ayuda de la ingeniería inversa, se realizó el diseño de la base de datos para este sistema, contemplando los campos que son necesarios, para luego hacer la implementación en el gestor de base de datos SQL Server.
En el diseño se creó el proyecto en el entorno de desarrollo Visual Studio para la elaboración de las vistas que permitirán hacer la importación de los archivos desde Excel a la base de datos en SQL Server para la importación de la base de datos con la ayuda de Entity Framework para la creación de los modelos en el proyecto y para realizar la conexión y el manejo de los datos en la Base de Datos diseñada en este proyecto.
En el desarrollo del proyecto se realizó la programación para la realización de las gráficas que mostrarán la representación visual de los datos que se encuentran en la base de datos como las gráficas de los alumnos que iniciaron y concluyeron las estancias por etapa, por periodo generando indicadores de efectividad; gráficas de las encuesta de satisfacción de los estudiantes generando los indicadores de satisfacción; gráficas de los datos capturados por los empresarios como de integridad y ética de los estudiantes, y gráficas del perfil de los proyectos.
Se realizaron las pruebas y se revisaron las gráficas con los datos de la base de datos.
CONCLUSIONES
Durante esta estancia de verano se lograron generar los gráficos por ciclo escolar, carrera, períodos y etapas de estudiantes que iniciaron y concluyeron las Estancias y Estadías en diferentes periodos en la Universidad politécnica de Tecámac, usando la Base de Datos generada para este sistema.
Se espera que este proyecto contribuya a las Estancias y Estadías de la Universidad como aportación de este XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, para que facilite la implementación en el sistema que actualmente se maneja en esta casa de estudios.
Hernández Bautista Bernardo, Universidad Politécnica de Atlacomulco
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
DISEñO DE UN ROBOT MóVIL DE LIMPIEZA PARA PANELES SOLARES
DISEñO DE UN ROBOT MóVIL DE LIMPIEZA PARA PANELES SOLARES
Hernández Bautista Bernardo, Universidad Politécnica de Atlacomulco. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La producción de energía limpia es una estrategia para superar el desafío del calentamiento global, en donde los sistemas de energía solar han sido uno de los principales métodos para contrarrestar el alto consumo de combustibles fósiles; sin embargo, se presenta una desventaja significativa que requiere una frecuente limpieza de los paneles. Un desafío al implementar los sistemas de energía solar a la intemperie son el polvo y la suciedad sobre la superficie de los paneles.
Se han realizado estudios donde se comprueba que hay una reduccion significativamente respecto a la eficiencia del los paneles solares y, por lo tanto, aumenta el costo de la electricidad producida, haciendo que los sistemas de energía solar no sean lo suficientemente competitivos. La acumulación de polvo en la superficie de los paneles perturba la captación de luz entrante y según el estudio Guo et-al, este reduce su eficiencia entre un 12 % y 24 %. Además, el polvo mezclado con la humedad puede formar microestructuras que pueden llegar a ser difíciles de eliminar después de un lapso de tiempo si no son tratadas. Por lo que durante el verano de investigación se diseñó y configuro un modelo óptimo considerable para ser construido con bajos recursos y cumplir con la tarea básica de limpiar la superficie de los paneles solares.
METODOLOGÍA
Para el desarrollo del prototipo se utilizó el método CAD con el software de SOLIDWORK con una licencia proporcionado por la Universidad Politécnica de Atlacomulco, para el estudio de la técnica se tomaron en consideraciones artículos establecidos por diferentes universidades, investigadores y empresas, esto con el fin de atender a los métodos actuales más utilizados, sus ventajas y desventajas, así mismo se crearon diferentes bosquejos que ayudaran a determinar el modelo optimo a diseñar durante un periodo de 2 semanas.
Una vez concluida el tiempo de administración, el bosquejo del prototipo se comenzó a diseñar dentro del software, para ello se inició con el diseño de la base con el cual se analizarían los puntos fuertes de donde colocar cada componente eléctrico y mecánico. Posteriormente se modifican y eliminan algunas partes para garantizar una manufactura sencilla y modular durante un periodo de 2 semanas.
Transcurrido ese tiempo se procede a diseñar y montar diferentes módulos incluyendo la parte de locomoción que ayuden al robot móvil limpiador un fácil desplazamiento sobre la superficie de los paneles solares. Dichos módulos, eléctricos y mecánicos se mantienen en conste modificación durante 2 semanas de manera que garanticen una función viable y eficaz para el prototipo.
Una vez que se tenga el prototipo diseñado y cumpla los parámetros requeridos, se procede a plasmar toda la información en un paper. En dicho documento se localizan las dimensiones, módulos y configuraciones con lo cual el prototipo cuenta hasta el momento.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimiento de investigación, técnicas y administración de información justificada con fuentes confiables, así como algunas consideraciones que se deben tomar en cuenta siempre en cualquier diseño, para nuestro prototipo mencionando aún se está trabajando en la simulación, esto para garantizar que los módulos que lo componen sean efectivos y garanticen una eficiencia aceptable, cumplido lo anterior posteriormente sería su construcción para identificar con datos más relevantes su funcionamiento. .
Hernandez Borrego Mariana, Instituto Tecnológico de Matamoros
Asesor:Dr. Diego G. Espinosa A., Centro de Ingeniería y Desarrollo Industrial (CONACYT)
APLICACIONES BIOLóGICAS DE RECUBRIMIENTOS BASE NITRUROS METáLICOS
APLICACIONES BIOLóGICAS DE RECUBRIMIENTOS BASE NITRUROS METáLICOS
Hernandez Borrego Mariana, Instituto Tecnológico de Matamoros. Asesor: Dr. Diego G. Espinosa A., Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El avance en los recubrimientos por medio de la técnica de PVD y sus aplicaciones es cada vez mas exitoso si se tiene en cuenta su biocompatibilidad, esto esta ligado al mejoramiento de sus propiedades superficiales, dado que la superficie estará en contacto directo con el sistema vivo en el caso de que el material sea implantado.
METODOLOGÍA
En este trabajo se identificó el estado del arte en relación con aplicaciones biológicas de recubrimientos de Nitruros metálicos depositados por PVD con la finalidad de funcionalizar la superficie de dispositivos médicos fabricados por Manufactura aditiva. Se usaron fuentes bibliográficas sobre biocompatibilidad de recubrimientos superficiales, teniendo como referencia las pruebas que para tal efecto se usan: adhesión celular, viabilidad celular, biomineralización y corrosión; así como sus métodos fundamentales.
CONCLUSIONES
Se encontró que los recubrimientos de TiN (Ag) muestran una mayor actividad electroquímica que el TiN y que pueden tener un efecto bactericida en las prótesis y en herramientas quirúrgicas. Puede decirse que el titanio junto con sus aleaciones son una excelente alternativa para implantes o dispositivos médicos dado que garantiza una mejor rigidez y biocompatibilidad que otras aleaciones existentes.
Hernandez Cardenas Alberto, Instituto Politécnico Nacional
Asesor:Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
CREACIóN DE UNA HERRAMIENTA EN INTELIGENCIA ARTIFICIAL BASADA EN SOFTWARE PARA LA REDUCCIóN DE DESIGUALDADES EN PERSONAS SORDAS
CREACIóN DE UNA HERRAMIENTA EN INTELIGENCIA ARTIFICIAL BASADA EN SOFTWARE PARA LA REDUCCIóN DE DESIGUALDADES EN PERSONAS SORDAS
Hernandez Cardenas Alberto, Instituto Politécnico Nacional. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
PLANTEAMIENTO DEL PROBLEMA
Realizar un prototipo de software de aplicación con una finalidad de traductor de voz a lengua de señas mexicanas para comunicarse con personas sordas.
Desarrollar un programa para que personas con discapacidad sorda puedan comunicarse con personas oyentes y mantener una conversación cómoda. Para comunicarse las dos personas, el oyente debe de hablar y por medio del programa detecta las palabras, mostrando un video en lengua de señas mexicanas de la palabra dicha, así la persona sorda pueda visualizar y entender lo que la otra persona habló.
El programa se realizará con el lenguaje de programación Python y con un editor de texto llamado Visual Studio Code el cual nos brinda ayuda para la creación de código y depuración rápido y sencilla.
METODOLOGÍA
Se realizo una programación el lenguaje Python, porque es multiparadigma lo que se puede realizar distintos programas y hacerlos funcional, nos ahorra muchas líneas de programación y, por último, nos ahorra tiempo y recursos, adecuando para la estancia corta del Programa Delfín. Además, existen bibliotecas proporcionadas por Python, por lo que se usaron diferentes librerías para mejorar el programa. En mi opinión, Python es simple y sencillo de aprender, también existe mucha información y videos acerca de la programación de Python lo que me ayuda a comprender más este lenguaje.
También se utilizó el editor de código fuente Visual Studio Code, ya que Es compatible con varios lenguajes de programación y un conjunto de características que pueden o no estar disponibles para un lenguaje dado[1].
Por último, se usó la interfaz gráfica de Tkinter porque es compatible con Python y es el que viene por defecto en Windows. Igualmente es sencillo de programar y aprender a usarlo, Tkinter es liviano y relativamente sencillo de usar en comparación con otros marcos. Esto lo convierte en una opción atractiva para crear aplicaciones GUI en Python, especialmente para aplicaciones donde no es necesario un brillo moderno, y la principal prioridad es crear algo que sea funcional y multiplataforma rápidamente.
Se aplicaron condiciones las cuales identificamos como IF. En esta condicional se tiene el siguiente enunciado: Sí en la palabra aparece un HOLA, reproducir el video llamado "HOLA"; sí aparece un ESTÁS, reproducir el video llamado "ESTÁS". Así consecutivamente para todas las palabras.
[1] «Visual Studio Code,» Wikipedia, 9 Julio 2021. [En línea]. Available: https://es.wikipedia.org/wiki/Visual_Studio_Code. [Último acceso: 26 Julio 2021].
CONCLUSIONES
Ser una persona, con una discapacidad auditiva, crea barreras de comunicación con la mayor parte de nuestro entorno, como lo pueden ser conversaciones, ir al cine, escuchar música, entre otras; resulta difícil participar en la sociedad como un persona común. El software que se desarrolló en esta estancia es de mucha importancia para mujeres y hombres sordos, ya que podemos ser inclusivos y cooperar en la comunicación con estas personas.
No tener conocimientos sobre el lenguaje de señas también dificulta la compresión, teniendo en cuenta que necesitan de servicios públicos; la aplicación funciona, tanto para la persona sorda, como la persona oyente ya que aprende a hablar en lengua de señas. Aunque es una pequeña aportación para destruir las barreras de comunicación, es funcional y participativo querer comunicarse, comprender, y sentir a personas que no se pueden comunicar fácilmente.
El software tiene disponibilidad de ampliarse, mejorar su programación, generar una interfaz gráfica más llamativa y atractiva. Una idea para mejorar el sistema es, implementar una sección de escribir donde la persona sorda podrá responder a través de la escritura.
Hernández Escobar María Concepción, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
Hernández Escobar María Concepción, Instituto Tecnológico Superior de Guanajuato. Martínez Guido David Tadeo, Instituto Tecnológico Superior de Guanajuato. Montiel Torres Kevin Yair, Instituto Tecnológico Superior de Guanajuato. Ortiz Gonzalez Roberto Bernardo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
El avance de los países desarrollados se ha basado en el consumo masivo de los combustibles fósiles. Para los países en vías de desarrollo, las necesidades energéticas son aún más vitales si pretenden equipararse con países que disponen de unas infraestructuras y niveles de industrialización ya consolidados.
Los graves efectos medioambientales en el clima regional y global provocados por el actual sistema energético están haciendo que la sociedad esté tomando conciencia acerca de la necesidad de considerar cambios en dicho sistema.
Estos cambios se dirigen hacia el desarrollo de sistemas más eficientes, hacia el fomento de una cultura de consumo más razonable, a la implantación de tecnologías energéticas que utilicen fuentes de energías renovables, etc., con el fin de lograr un modelo energético sostenible.
Esto, unido a la importancia de la energía solar como fuente de energía renovable, hace que las centrales termosolares, como sistemas generadores de energía eléctrica, adquieran gran relevancia de cara a asegurar las necesidades energéticas de una sociedad respetuosa con el medio ambiente
En México sólo existe un campo termosolar en funcionamiento. Realizada por Abengoa, la central Agua Prieta se encuentra en el estado de Sonora, próxima a la frontera con Estados Unidos. Este proyecto, licitado por la Comisión Federal de Electricidad, contó con el apoyo financiero del Banco Mundial y se integra a su vez en un ciclo combinado, formando una central híbrida o ISCC (Integrated Solar Combined Cycle).
METODOLOGÍA
La presente investigación busca impulsar el uso de la energía solar para procesos de calentamiento de agua a media y alta temperatura dentro del estado de Guanajuato y ser parte del crecimiento sustentable del país, con tecnologías apropiadas para cada aplicación, técnica y económicamente sean factibles por su operatividad y rentabilidad económica, para ir supliendo de manera parcial o total a la tecnología convencional existente.
Alcances y limitantes
Si bien la energía contamina, no es esto lo que realmente causa las grandes emisiones de carbono, si no la manera en que se obtiene la misma. Es por esto, que cada vez es más grande el esfuerzo por que las energías renovables representen un gran volumen del consumo de energía en el país.
Aunque no es la única energía renovable obtenida del sol, si es de las más importantes, seguida por la energía fotovoltaica y la solar pasiva.
La energía termo solar, es una de las energías renovables más importantes de México, puesto que aporta un 45% en cuanto a capacidad instalada para la obtención de energía en el país.
El uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar hasta un 50% en consumo eléctrico de fuentes no renovables.
La energía termo solar puede obtenerse de tres formas, mediante una central de torre, central de disco parabólico y una central de cilindro parabólico
Por otra parte, algunas limitantes de esta tecnología, lo es el tiempo de instalación de una central termo solar, ya que puede llevar algunos meses, además de requerir un lugar extenso para su instalación y con terrenos firmes. Añadido a esto, un factor limitante no muy importante es el cambio climático de la zona.
A continuación, se muestra cada una de las fases a realizar dentro de la investigación.
Primeramente, investigamos los procesos de calentamiento de fluidos mediante sistemas solares de media y alta temperatura se distinguen tres tipos de centrales termosolares atendiendo a las características del campo solar, es decir, al sistema utilizado para convertir la radiación solar en energía térmica.
Como segundo paso elaboramos las ventajas y desventajas que conlleva implementar la energía termosolar como se muestra a continuación.
Una vez analizado los pros y contras de la energía termosolar así como los diferentes tipos (Centrales de Colectores Cilindro Parabólicos CCP, Centrales de receptor central o torre y Centrales de disco parabólico) llegamos a la conclusión de que nuestra mejor opción es la elaboración de un prototipado de CCP.
Derivado de los pasos anteriores elaboramos el diseño de nuestra Central de Colector Cilíndrica Parabólica (CCP) mediante el programa de diseño asistido por computadora SolidWorks como se puede observar en la imagen 1.
Para continuar con el proceso de análisis, se llevó a cabo un análisis AMEF, del proceso y diseño de nuestro sistema, para evaluar de manera más practica los posibles errores o fallas que pudiese tener. Dichos AMEF´S se muestran en la tabla 1 AMEF de Diseño y en la tabla 2 AMEF de Proceso.
CONCLUSIONES
Este sistema de energía termo Solar tiene un gran aprovechamiento del recurso natural que es el sol ya que el sistema de movimiento que tiene hace que el reflector parabólico capte desde los primeros rayos de sol hasta los últimos, el uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar en consumo eléctrico de fuentes no renovables.
Hernandez Espinoza Valentin, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
APLICACIóN MóVIL DESARROLLADA EN ANDROID PARA GEO-LOCALIZAR LA UBICACIóN DE LOS USUARIOS EN TIEMPO REAL, POR SEGURIDAD.
APLICACIóN MóVIL DESARROLLADA EN ANDROID PARA GEO-LOCALIZAR LA UBICACIóN DE LOS USUARIOS EN TIEMPO REAL, POR SEGURIDAD.
Hernandez Espinoza Valentin, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad la inseguridad es un tema que aqueja y atemoriza a la población global, se trata de actos delictivos que van en contra de la ley, actos como robos, extorsiones, secuestro de personas. En este último donde se priva de la libertad a civiles en algunos casos para obtener una suma monetaria proveniente de la familia del civil a cambio de su libertad.
En México según la ONG, afirmó que en marzo de 2021 la cifra de víctimas de secuestro en México aumentó un 40% mensual, donde fueron registrados 154 casos frente a los 110 de febrero de 2021. Además se destacó que los estados con mayor incidencia en este delito fueron el Estado de México, Veracruz y Baja California. Cabe resaltar que este delito se da principalmente en ciudades donde la concentración de habitantes es mayor.
Entonces en el caso de ser víctima de un secuestro donde el o los agresores lo privan de su libertad contra su voluntad, quedando así descomunicado. Por lo que durante el verano de investigación se busca desarrollar y mejorar una aplicación para Android que permita saber con exactitud las coordenadas de la mencionada victima por medio del GPS del Smartphone, partiendo primeramente de aprender a desarrollar en Android Studio para móviles así como otras herramientas que serán de utilidad.
METODOLOGÍA
Primeramente es necesario conocer la metodología en la que se desarrollo el software es Scrum, es una metodología ágil y flexible para desarrollo de software, dentro de los principales objetivos esta aprovechar el tiempo y en los casos empresariales maximizar el retorno de la inversión para la empresa. En esta se busca construir el visto bueno por el cliente así como las funcionalidades que pide e incluso superar las expectativas. A grandes rasgos a lo que refiere esta es dividir todo el proyecto en funciones en específico para ir desarrollando esas tareas en específico y finalmente acoplar en un todo. Los beneficios de esta son:
Cumplimiento de expectativas
Mayor calidad de Software
Mayor productividad
Organización, predicción y aprovechamiento de tiempos.
Flexibilidad a cambios (softeng, s.f.)
Tal como lo menciona Scrum, al dividir el proyecto en pequeños fragmentos, en este caso Backend y Fronted .
FrontEnd
El frontend es la parte que el usuario puede ver siendo la iterfaz, color,etc.
Primeramente se realiza el diseño de la aplicación, este diseño también llamado Mockup que son bosquejos graficos de como se observara la parte visual del aplicativo, para ello se utilizo la herramienta Adobe XD siendo una herramienta bastante practica y funcional para crear Mockups dinámicos y atractivos. Cabe destacar que para ayudar a la selección de colores existen herramientas web como color.adobe.com y para descargar iconos flaticon.es.
3.2 BackEnd
El backend engloba el desarrollo de toda la parte que no es visible por el usuario final sino es la funcionalidad de la aplicación como el codificar, bases de datos, etc.
La programación se realizó en Java pudiendo ser también en Kotlin otra opción. Asimismo se hizo uso de la api que brinda Google específicamente GoogleMaps siendo una de sus funciones localizar coordenadas en el mapa.
Se hizo uso de Firebase para la autenticación de cada usuario, además almacenar los datos de cada usuario en su servicio de base de datos en tiempo real.
Definición de Variables
Variable Independiente
Aplicación Móvil desarrollada en Android: Es una aplicación para dispositivos móviles que funcionen con el sistema operativo Android, desarrollado en Android Studio con Java como lenguaje de programación.
Variable Dependiente
geo-localizar la ubicación de los usuarios en tiempo real, por seguridad: Es el proceso en el cual se ubica al usuario por medio del GPS del dispositivo móvil y al mismo tiempo el aplicativo desarrollado.
CONCLUSIONES
Personalmente durante esta estancia de verano se logró alimentar de conocimientos tecnológicos en específico de programación para móviles en la plataforma Android, aprendiendo también algunas otras herramientas de diseño, colores, desarrollo que todo desarrollador siga buenas practicas debe conocer. Dichos conocimientos son aplicados al desarrollar esta aplicación móvil, que a grandes rasgos: permite ubicar a los usuarios en tiempo real haciendo énfasis en el tema de la seguridad y la integridad personal, de este modo contribuye de alguna manera al bienestar y seguridad social. Desafortunadamente en la actualidad se cometen una gran cantidad de actos delictivos como secuestros sin embargo herramientas como esta aplicación puede incluso salvar vidas. Aunque no se logró en su totalidad terminar la aplicación ya que hay diversos ajustes que aún se le pueden ir agregando tanto en el diseño como en las funcionalidades.
Hernandez Galvan Ana Socorro, Universidad de Guadalajara
Asesor:Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
García Carbajal Yasmín, Instituto Tecnológico de Morelia. Hernandez Galvan Ana Socorro, Universidad de Guadalajara. Asesor: Ing. Jose Miguel Rodriguez Gonzalez, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El agua es esencial para el ser humano, que la utiliza para actividades básicas, recreativas o de servicios.
Se sabe que es un recurso que con el paso del tiempo su escases aumenta y por lo tanto también su demanda. La presa Miguel Alemán en Valle de Bravo ubicada en el Estado de México recientemente se ha visto afectada por cambios ysequía que comúnmente se considera son debido al consumo humano y el cambio climático, aunque no se tienen confirmadas dichas causas. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso.
Si bien existen forma de medir la calidad del agua mediante análisis en laboratorio de muestras extraídas, esto requiere de un exceso de tiempo, gastos económicos y desperdicio de mano de obra. Lo que nos lleva a la propuesta de realizar un dispositivo para la medición de calidad del agua en tiempo real que permita tener una base de datos, además de que sea autosuficinte energéticamente.
METODOLOGÍA
Hacer la investigación documental en artículos, revistas, compañías y patentes registradasque conduzca a la selección dela metodología ideal de diseño para el dispositivo.
Realizar la selección de los elementos que conformaran al dispositivo, sensores, elementos de comunicación, ordenador o placa y plataforma de desarrollo de software.
Para cumplir con lo aterior, se realizaron sesiones virtules con compañeros y asesores para correciones y apoyo acerca de la investigación, asi como para la unificación y seguimiento del proyecto.
En particular, la investigación se centró en selección de los dispositivos que formarán la comunicación de los datos y la arquitectura de la red que se tendrá acorde a la problematica, lo cual es la distancia de alcance. Se busca una solución que permita una comunicación de larga distancia, aproximadamente 15 km de boya a boya, con un dispositivo que no necesite demasiada energia electrica ni mantenimiento, o que este sea remoto.
CONCLUSIONES
La estancia logró despertar el interés en una nueva área de investigación, las comunicaciones inalambricas y los diferentes protocolos que se utilizan para las misma. A través de la recolección de información y busqueda de proyectos similares se logró plantear la iniciativa de un proyecto con gran impacto tanto ambiental como tecnológico.
Se realizaron principalmente actividades de investigación en colaboración con otros estudiantes dentro de la estancia de verano, con el apoyo de los mismos se complemento el marco teorico de lo que sería el prototipo inicial para la boya.
Hernández García Uri, Instituto Politécnico Nacional
Asesor:Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
ADMINISTRACIóN Y OPTIMIZACIóN DE PROCESOS EN EMPRESA DE SERVICIO DE MONTACARGAS
ADMINISTRACIóN Y OPTIMIZACIóN DE PROCESOS EN EMPRESA DE SERVICIO DE MONTACARGAS
Hernández García Uri, Instituto Politécnico Nacional. Asesor: Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la actualidad estamos en un proceso de globalización y evolución tecnología que cambia rápidamente, las empresas se deben adaptar a los nuevos cambios para mantenerse en el mercado sin perder su rentabilidad al mismo tiempo. Sumado a una pandemia que limita a las empresas a realizar una planeación e implementación de proyectos que les permitan ocupar una posición superior entre sus competidores. Para ello, las empresas han prestado su atención a realizar estudios preliminares para asegurar de manera eficiente y económica proyectos de cualquier tamaño que demuestren una buena toma de decisiones.
En los últimos años, la simulación es más común en los proyectos debido a que se puede aplicar en todas las operaciones de sistemas de producción y servicios, también representa un bajo coste y se obtienen resultados rápidos, lo que permite un mejor estudio y análisis para la toma de decisiones. Desde que se empieza a implementar un modelo de simulación en una empresa incrementa el desempeño y la visión de la empresa, debido a que se comprende de una manera clara el funcionamiento de la organización como un sistema. Sin embargo, el implementarlo es una cuestión no exenta de dificultad.
En México las pequeñas y medianas empresas son la columna vertebral de la economía. De acuerdo con cifras del INEGI en 2020 se estima que, de los 4.9 millones de establecimientos micro, pequeños y medianos sobrevivieron 3.9 millones (79.19%), poco más de un millón (20.81%) cerraron sus puertas definitivamente y nacieron 619 mil 443 establecimientos que representan 12.75% de la población de negocios del país. Y que estas contribuyen con más de 50% del producto interno bruto y generan 70% del empleo formal.
Por tanto, la elección de implementar un modelo de simulación para desarrollar el trabajo de investigación es el interés de ayudar a la toma de decisiones en pequeños comercios o empresas para seguir adelante, debido a que el uso de herramientas de simulación permite mejorar su efectividad competitiva en el mercado, minimizar costes y contribuir al desarrollo de la sociedad.
METODOLOGÍA
Se selecciono la empresa MOSERIN S. de R.L. DE C.V. que se especializa en maquinaria de manejo de carga con una experiencia de más de 20 años de servicio en el sector, donde se definió el problema a estudiar, en este caso fue la deficiente gestión de las actividades diarias del taller por parte del departamento de servicio de la empresa, por lo que se busca disminuir los tiempos de respuesta y de operación para tener procesos de logística más eficientes.
Durante una semana se detalló el modelo de simulación a partir de primero observar cómo trabajaba el departamento de servicio para después definir las características de los elementos del sistema a estudiar y sus interacciones. Posteriormente se establecieron objetivos que se alcanzarían al finalizar la investigación, que fue disminuir el tiempo de atención del coordinador de servicio y que la comunicación fuera más eficiente para evitar que se tenga que repetir.
El modelo que se simulo fue la oficina del departamento de servicio donde frecuentemente el personal de la empresa entraba a solicitar información acerca de las actividades que le correspondían hacer en el transcurso del día. Una vez establecido el modelo de simulación en Excel se comenzó a recolectar y analizar los tiempos de entrada, espera y de salida durante la jornada laboral de 9 horas de cuatro entidades del taller que son atendidos por el coordinador de servicio: el asesor de servicio, los mecánicos, el jefe de taller y el jefe de almacén.
Una vez concluida la recolección de datos la siguiente etapa fue la construcción del modelo, se usó el software ProModel partiendo del modelo conceptual y de los datos recolectados. Primero se programaron dos locaciones, la fila donde las entidades esperaban a ser atendidas y la oficina donde el coordinador de servicio los atendía. Posteriormente se programaron las 4 entidades mencionadas con anterioridad a las que se les establecieron sus procesos a cada una usando la distribución de probabilidad que nos dio StatFit al introducir los tiempos que fueron atendidos y finalmente se construyeron los arribos programando la frecuencia con la que entraban las entidades a la fila, usando de nueva cuenta la herramienta StatFit.
La siguiente etapa de la investigación fue comprobar que el modelo se comporte de la manera esperada y que existe la correspondencia adecuada entre el sistema real y el modelo, por lo que se simulo una cantidad de 30 veces el sistema para validar el modelo de simulación, permitiendo concluir que los valores simulados coincidían con los datos tomados.
Una vez que se aceptó el modelo se propusieron tres modelos, simulando primero cuando se tenía un solo tablero Kanban en la oficina de servicio, una segunda simulación con un tablero Kanban en la oficina del jefe de almacén y después los dos al mismo tiempo. No se tomó en cuenta un tablero en el taller debido a que es un área muy dinámica y el tablero se descuidaría.
Se analizaron los resultados de los tres casos con la finalidad de detectar problemas y recomendar mejoras o soluciones Donde el caso con los dos tableros arrojaba mejores resultados que cumplían con el objetivo establecido, razón por la que se presentó los resultados al director de la empresa para implementar y colocar los tableros en las dos oficinas.
CONCLUSIONES
Durante el trabajo de investigación se logró cumplir con los objetivos planteados al aprender a usar un software de simulación y al mismo tiempo desarrollar un modelo de simulación que permitiera una toma de decisiones en una empresa, por la duración del verano de investigación solo se analizó un área de la empresa que fue el departamento de servicio, se espera que la propuesta tenga una mejora continua que permita a la empresa mejorar sus procesos y logística para brindar un mejor servicio a sus clientes.
Hernández Lam Sergio Daniel, Instituto Tecnológico Superior de Pánuco
Asesor:Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez
METODOLOGíA LEAN SIX SIGMA COMO UN PROCESO DE MEJORA.
METODOLOGíA LEAN SIX SIGMA COMO UN PROCESO DE MEJORA.
Hernández Lam Sergio Daniel, Instituto Tecnológico Superior de Pánuco. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Actualmente las empresas se ven en la necesidad de desarrollar estrategias que las hagan más competentes para así poder obtener clientes potenciales que tengan el deseo de adquirir sus productos. Uno de los factores que influyen para mejorar los procesos es, la calidad. Por esta razón, muchas organizaciones empresariales se han preocupado de mejorar sus estándares, dando lugar a una serie de normas o certificados como las ISO, que dan una seguridad y respaldo de que sus procesos implementados son seguros, productivos, así como eficientes.
Al tener este requisito, se necesita de metodologías que ayuden a encontrar los defectos o errores posibles que existe en los procesos. Un ejemplo es la metodología Lean Six Sigma, es un método que nos permite y ayuda esencialmente a seguir cumpliendo los estándares de calidad. Su objetivo es tener un uso intensivo de herramientas y metodologías estadísticas para eliminar la variabilidad de los procesos donde se pueda producir los resultados esperados, con un mínimo costo además de cumplir con una satisfacción del cliente.
METODOLOGÍA
Lean Six sigma, es un sistema que está enfocado al cliente y cambia el modo de operar por parte de la dirección. Tiene su origen en el año 1987 por Bill Smith ingeniero de Motorola. Se define como una herramienta de calidad aplicado a la empresa, cuyo objetivo es medir la eficiencia operativa de la empresa y buscar soluciones asi como alternativas para mejorarla. Actúa como una filosofía de actuación, para ocupar niveles de liderazgo en el sector, con el fin de ofrecer un mejor producto o servicio, más rápido y al costo más bajo, centrando su foco en la eliminación de defectos y satisfacción del cliente. Se compone de cinco fases que son: Definir, Medir, Análisar, Mejorar y Controlar.
(Para comprender estas fases de la metodología, se presenta un caso de aplicación en una dinámica sencilla. El objetivo es comprender y dar una finalidad de aplicar las técnicas de Six sigma y de manufactura esbelta.)
• Definición. Se elaboraron 40 aviones con la especificación que el ancho de las alas no sobrepase los 62 mm y no sea menor de 58 mm, teniendo una medida nominal de 60 mm. Las medidas rondaban entre 52 mm a 75 mm, se llevó a cabo la recolección de datos en el programa Minitab 19. Al aplicar los métodos estadísticos como el gráfico de probabilidad, se obtuvo un valor de P de 0.610, con una media de 59.55, una desviación estándar de 6.10, lo cual determina que los datos siguen una adecuada distribución normal y el análisis de capacidad del proceso de las dimensiones de alas, se obtuvo el valor del CPK de 0.08 con un PPM total de 750000,00 lo que significa que se encuentran ciertos defectos que están fuera de la zona de tolerancia. Se realizo el diagrama Ishikawa y la matriz de causa y efecto. Después con el diagrama de Pareto los errores más importantes son las tijeras sin filo, las hojas mal cortadas, falta de vista, Regla con números Borrosos, Falta de mesas.
•Medición: se realizó la elaboración de 30 aviones a los cuales se les realizo la medición del ancho de las alas con distintas herramientas de medición, como lo fue una regla y un vernier. El primer paso de medición fue elaborar una base para que los aviones no tengan movimiento en el momento de medir las alas, haciendo más fácil tomar las medidas, también se cambió el modo de trabajo, esto para generar mayor confiabilidad
•Análisis: mediante el estudio de las mediciones resultantes por los diferentes métodos estadísticos y herramientas de medición se establecieron la medida estándar para cumplir con las medidad exactas del ancho de las alas de los aviones Para poder saber la medida exacta se realizó el despeje de (X)
Ancho de alas (y) = - 2.809 + 0.5904 ancho de la hoja (x)
60 +2.809= 0.5904
62.809/ 0.5904= 106.38
Se puede interpretar que las medidas exactas de las hojas para realizar el avión se necesitan aproximadamente de 106 a 107mm.
•Mejora: Los instrumentales que ayudaran a mejor este proceso son: un poka-yoke, un diagrama de proceso para la elaboración de aviones y una hoja de actividades para los operadores. Además, se realizó un reacomodo del área de producción, teniendo en cuenta los errores de doblado, las hojas mal cortadas, falta de iluminación y materiales, con el objetivo de mejorar la productividad de los operadores, destacando la calidad de los productos.
•Control: El objetivo principal es hacer que el proceso sea estable y capaz. Se logró controlar la entrada y salida tanto de materia prima como de determinación de productos que cumplieran con los estándares de calidad y especificaciones. Al utilizar las técnicas para mejorar la calidad, se observó que el ancho de las alas de los aviones si tenía las especificaciones que se pedían, por lo cual al ingresar los resultados al minitab, se obtuvo un CPK de 2.04 y PPM totales de 0.00, esto quiere decir que si existió un gran cambio en la producción.
CONCLUSIONES
A lo largo de la estancia en el programa delfín, se adquirió un conocimiento crítico, capaz de formular una definición clara de la línea de investigación presentada en este resumen. Por cual, se puede determinar que el éxito de una buena implementación de Six Sigma depende no solo de comprender los métodos estadísticos, si no también tener el compromiso y la voluntad de mejorar los procesos que tienen las empresas. La alta dirección son los responsables de liderar este cambio cultural, así como también salvaguardar las diferentes áreas que dependen de dar una excelente calidad, así como también ser responsables con los empleados que son el recurso humano principal de toda la empresa y la materia prima que es el pilar de todo el proceso de producción, que van acompañados de la motivación y la responsabilidad. Aunque se presente amenazas como resistencia al cambio, se debe de optar por buscar el bien común, ya que esto genera una competitividad para la empresa con productos de buena calidad que satisfagan las necesidades del cliente con el objetivo de aumentar las utilidades.
Hernández Landin Homero de Jesús, Instituto Tecnológico de Matamoros
Asesor:Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas
TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL EN LA INDUSTRIA MAQUILADORA DE MATAMOROS, TAMAULIPAS
TRANSVERSALIDAD AMBIENTAL E INSTRUMENTOS DE POLíTICA AMBIENTAL EN LA INDUSTRIA MAQUILADORA DE MATAMOROS, TAMAULIPAS
Hernández Landin Homero de Jesús, Instituto Tecnológico de Matamoros. Asesor: Dr. Rodolfo Garza Flores, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La industria maquiladora de exportación en Tamaulipas inició sus actividades en 1965, año en que se instaura el programa de dicha industria en el país. Todo esto con el objetivo de crear empleos a lo largo de la frontera norte de México ante la terminación del programa de trabajadores agrícolas que emigraban temporalmente a Estados Unidos. Matamoros ha seguido creciendo, pero a una tasa menor del que históricamente lo había realizado. El control sindical ha influido en este hecho, pues Matamoros cuenta con los salarios y las prestaciones más altas del país. Sin embargo, este aspecto que se pudiera presentar como negativo ha propiciado las tasas más bajas de huelgas estalladas, de rotación y ausentismo en el país. Por lo tanto, la mano de obra es muy estable y calificada y los niveles de productividad muy aceptables e incluso en algunos casos superiores a los de Estados Unidos. Se observa que en Matamoros desciende el número promedio de trabajadores por establecimiento, en tanto que en Reynosa y Nuevo Laredo aumenta. Este aspecto viene a explicarse por el traslado de empresas de gran tamaño de Matamoros a los otros dos municipios y a la proliferación de empresas medianas y pequeñas en esta ciudad.
Matamoros que nos permite observar una expansión muy importante pues en una visita de campo que se efectuó en el mes de mayo del presente año se encontró que 33 empresas ocupan a menos de cien trabajadores y que en total suman 1,567, lo que da un promedio por empresa de menos de 48 trabajadores. Dicha situación contrasta con la que existía en 1988 donde solamente eran 24 y constituían el 22%; en tanto que actualmente representan, en términos reales, el 43%. Es decir, casi la mitad de las empresas de la industria maquiladora de exportación en Matamoros.
El proceso que se percibe en el caso de la frontera tamaulipeca es precisamente de varios fenómenos:
1. Las empresas, sean grandes, medianas o pequeñas han abandonado los procesos mecánicos por otros electrónicos y computarizados, aunque persiste una heterogeneidad tecnológica y de procesos de trabajo.2. La instalación de empresas se ha caracterizado por la utilización de tecnología moderna, transformando radicalmente el proceso de trabajo. Importancia de un sistema de gestión ambiental. Primero que nada, debemos definir exactamente que es un sistema de gestión ambiental y cuál es su función dentro de las empresas. un sistema de gestión ambiental (sga) es un marco formal para mejorar el desempeño ambiental y desarrollar su trabajo de forma más eficiente en líneas generales. un sistema de gestión ambiental es una poderosa herramienta para reducir los residuos y mejorar la eficiencia, sin sacrificar los beneficios. El cumplimiento de la legislación medioambiental y el cumplimiento de las demandas del lobby verde representan hoy grandes desafíos para las organizaciones. Con la implementación de un SGA su organización puede convertir ese desafío en una oportunidad. La certificación en ISO 14001 o las normas relacionadas le ayuda a lograr ahorros reales de costos. Un SGA eficaz está basado en un ciclo de mejora continua, en el que las operaciones diarias de su negocio impulsan un mayor aumento de la eficiencia.
METODOLOGÍA
Acopio y Análisis de Información Bibliográfica Especializada, Plan Estatal de Desarrollo de Tamaulipas, Plan Municipal de Desarrollo de Matamoros, Antecedentes de la Industria Maquiladora en Tamaulipas.
Entrevista con Personal de Maquiladoras.
Identificación y Caracterización de Esquemas de Transversalidad en la Planeación Ambiental de Maquiladoras.
Análisis y determinación de los Instrumentos de Política Ambiental acorde al ámbito sectorial de la Industria Maquiladora.
Caracterización del Sistema de calidad Ambiental en el su cumplimiento para la Industria Maquiladora.
Evaluación del sistema de Calidad en su Cumplimiento y Normatividad para un Estudio de caso.
CONCLUSIONES
La Conclusion que me permito presentar al momento de concluir mi participación en el XXVI Verano de la Investigación Científica y Tecnológica del Pacífico de este trabajo de Investigación desarrollado en siete semanas, proyectado a tres fases siendo la Primera identificación , la segunda caracterización y la tercera evaluación, encontrándonos en la caracterización de la industria Maquiladora en la Ciudad de Matamoros, Tamaulipas a través de la conceptualización de la Transversalidad Ambiental en los diversos ámbitos de competencia en materia regulatoria ambiental, federal, estatal y municipal, así como una vinculación de los ejes transversales en la Planeación de Desarrollo para los tres ámbitos de gobierno, de igual manera identificar y discernir los Instrumentos de Política Ambiental para el estudio de caso en la Industria Maquiladora de Matamoros, Tamaulipas, como lo es el uso del suelo, el impacto ambiental, Administración Ambiental vinculada a la Normas de Calidad ISO 14001,por lo que finalmente esto obliga a otras empresas a implantar un modelo de Gestión Ambiental basado en esta Normativa. Por lo que consideramos que nuestro Trabajo de Investigación se encuentra en un sesenta y cinco por ciento de avance ya que la tercera fase será determínate en el proceso de Evaluación y la Semaforización en su cumplimiento, destacando la debilidad en el posible no cumplimiento como una oportunidad en el sistema de Gestión de la Calidad para la Industria Maquiladora en matamoros Tamaulipas. Es importante destacar que, dada mi formación como Ingeniero Industrial, me encuentro motivado a llevar a buen término mi investigación, agradeciendo el apoyo- orientación y tiempo, de mi asesor el Dr. Garza Flores. como ofrecimiento aún al concluir esta estancia de verano de investigación 2021.
Hernández López Alex Jahel, Instituto Politécnico Nacional
Asesor:Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
Garcia Castro Obed, Universidad Mexiquense del Bicentenario. Hernández López Alex Jahel, Instituto Politécnico Nacional. Valdivia Zaragoza Violeta Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Gracias al auge que ha tenido el uso del internet en estos últimos años, ha surgido la necesidad de crear herramientas que permitan poder examinar toda la información que se genera, conforme pasan los años dichas herramientas se han ido modificado adaptándose a las nuevas necesidades, es por ello que en esta investigación se intenta hacer un análisis minucioso sobre las características de la analítica de datos en el ámbito empresarial en donde se pretende conocer las ventajas, desventajas, técnicas, etc. Desde el punto de vista de varios autores.
METODOLOGÍA
El método utilizado a lo largo de esta investigación corresponde a un estudio interrogativo, retrospectivo, observacional y secundario, en el cual varios estudios atienden a la misma pregunta Existen dos formas de revisión sistemática: la cuantitativa y la cualitativa.
La diferencia radica en el uso de en el uso de análisis estadísticos que dan lugar a la integración y análisis cuantitativo de los resultados en los diversos estudios. Además de ser una manera de evaluar e interpretar toda investigación disponible respecto a un interrogante
CONCLUSIONES
A partir de la utilización del método de revisión sistemática, se puede concluir que la analítica de datos, es una herramienta de gran utilidad en el ámbito laboral ya que ofrece grandes beneficios a aquellas empresas que buscan hacer crecer sus negocios. Mediante un análisis minucioso y detallado de su información se pueden obtener datos relevantes no solo para identificar la oferta y demanda que se tiene en el mercado, sino también para predecir futuras situaciones que pueden impactar de manera positiva o negativa a la empresa.
Algo muy importante, es el hecho de que una empresa que no se actualiza es una empresa que va encaminada al fracaso o a la quiebra. Es por eso que la analítica de datos, ha venido a revolucionar la forma de manejar la información. Parte de esta innovación que ofrece, está el hecho de poder sacar el máximo beneficio a los datos esto a su vez permite crear una ventaja competitiva sobre otros.
Hernandez Lucas Lissete, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Inés Fernando Vega López, Universidad Autónoma de Sinaloa
SISTEMA AUTOMATIZADO PARA LA DESCARGA DE GENES DE VIRULENCIA EN SUBCONJUNTOS DE CEPAS DE ESCHERICHIA COLI.
SISTEMA AUTOMATIZADO PARA LA DESCARGA DE GENES DE VIRULENCIA EN SUBCONJUNTOS DE CEPAS DE ESCHERICHIA COLI.
Hernandez Lucas Lissete, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Inés Fernando Vega López, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Escherichia coli es uno de los agentes infecciosos más comunes y de mayor importancia, con una alta prevalencia en México debido a su carácter patógeno para causar infecciones comunitarias y asociadas a la atención sanitaria (HAI), como, por ejemplo, la diarrea. En la actualidad, las infecciones por E. coli resistentes a los antibióticos representan la mitad de la población mundial estimada y su aumento se ha establecido como una consecuencia de la aparición y diseminación de multirresistentes (MDR) brotes o cepas. Es importante tener en consideración que sin la ayuda de las técnicas bioinformáticas no sería posible la determinación de los genes y de esta manera poder identificar si estos genes pueden desencadenar una infección en el ser humano, así como determinar si una bacteria contiene algún gen que la haga resistente a fármacos.
METODOLOGÍA
Para la elaboración del software se utilizó la metodología Scrum, Scrum es una metodología ágil y flexible para gestionar el desarrollo de software, Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación, permite en cualquier momento realinear el software con los objetivos preestablecidos, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema.
A continuación, se describen cada una de las fases que se fueron desarrollando para la creación del software.
1. Planificación del sprint.
Se realizo la primera reunión del equipo se definió aspectos como la funcionalidad, objetivos, riesgos del sprint, plazos de entrega, entre otros. Posteriormente se realizó una junta entre el alumno y el investigador del proyecto para explicar cómo se desarrollará cada punto del intervalo. Aquí se evaluaron cambios, toma de decisiones, mejoras y más factores.
2. Etapa de desarrollo.
Se desarrollo el programa de acuerdo a las funcionalidades establecidas y objetivos principales. Además, se aseguró el cumplimiento de los plazos establecidos para su término.
3. Revisión del sprint.
Se analiza y evaluar los resultados, y saber qué aspectos necesitan ser cambiados. En esta fase se fomenta la colaboración y retroalimentación entre todos. Se incluyen los siguientes puntos:
• Colaboración entre alumno e investigador.
• Se admiten análisis externos como forma de complementación.
• El equipo de trabajo responde qué es lo que se ha desarrollado y qué carencias han tenido.
• En base a ello, se puede regresar a la etapa de planificación para evaluar cómo mejorar el siguiente sprint.
• Se analizan las capacidades del equipo, la línea de tiempo, entre otros detalles, para saber qué potenciar.
4. Retroalimentación.
Los resultados son entregados al investigador para que determine si el software es completamente funcional y cumple lo establecido en cuanto a funcionalidad y objetivos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre Escherichia coli el cual es un agente infeccioso más común en la actualidad, de la misma manera se implementaron técnicas bioinformáticas las cuales permiten la investigación, desarrollo y aplicación de herramientas computacionales y de esta manera poder expandir el uso de datos biológicos, médicos y de salud, incluyendo todos aquellos que nos permitan adquirir, almacenar, organizar, archivas y analizar dichos datos, para este caso se implantó un sistema que nos ayuda a la obtención de genes que ocurren en cada genoma y comprender de que manera realizan su función en los organismos.
Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Dr. Omar Antonio Vega, Universidad de Manizales
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit. Asesor: Dr. Omar Antonio Vega, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Dentro de un mundo globalizado como el actual donde cada vez se observan mayores avances tecnológicos y por tanto una evolución cultural que conlleva también a la de pensamiento, es necesario incentivar la participación de las nuevas generaciones haciendo que se fortalezcan sus habilidades y sean actores activos en la sociedad. El modo de hacerlo está al alcance y es la educación donde el uso de los recursos TIC resulta indispensable para alcanzar dichas competencias tecnológicas ya que el acercamiento a dispositivos digitales permite crear múltiples actividades que incentivan la transformación social.
La presente investigación indaga la manera cómo se hace uso de los diversos medios tecnológicos y de comunicación dentro de las aulas antes de la pandemia y desde los hogares durante la pandemia.
METODOLOGÍA
El tipo de investigación usada es la investigación acción participativa de tipo cualitativa y cuantitativa, que busca obtener resultados fiables y útiles para el análisis de situaciones colectivas, basando la investigación en la participación de los propios colectivos a investigar
Está fundamentado en la crítica social que promueve la auto- reflexión, considera que el conocimiento se da por el interés que parte de las necesidades de los grupos y se consigue mediante la capacitación de los sujetos para la participación y transformación social.
Se realizó una serie de preguntas que estaban contenidas en el cuestionario aplicado y que estas se dividían en dos apartados:
Utilización de las TIC antes de la pandemia por Covid-19
Utilización de las TIC durante la pandemia.
ANÁLISIS DE LOS DATOS: se interpretó la información de las preguntas contenidas en la encuesta con ayuda de graficas explicativas y comparativas así como de un documento en Excel como apoyo para interpretar los resultados de manera más clara y precisa.
Los docentes no pueden estar lejos de los avances tecnológicos, al contrario deben aprovecharlos para el aprendizaje de los alumnos ya que esta herramienta despierta gran interés en ellos y al darle un buen uso genera un aprendizaje significativo, por ende los docentes pueden utilizarla para favorecer el desarrollo de los alumnos.
RESULTADOS
Una vez obtenido los resultados del instrumento de investigaciòn se obtuvieron los siguientes Resultados:
La muestra está constituida por 24 docentes, con una edad promedio de 37,4 años, donde el más joven tiene 24 años de edad y 56 el mayor, con 35 años como la edad más común y una desviación estándar de 0,707.
En cuanto al género, hay una distribución de 50% para mujeres y el otro 50% para hombres, en tanto el 70,8% tiene una formación de pregrado (licenciado), 20,8% de maestría y el 8,3% restante ostenta el título de doctor.
Todos los docentes, con excepción de uno, laboran en instituciones del orden público, que se ofrecen educación primaria en el 45,8%, secundaria 37,5% y 16,7 educación media o bachillerato.
Las edades registradas en este estudio fueron en una variante de los 24 hasta los 56 años. Esto ayuda a comprender que docentes de edades variables llegaron a participar y se tomaron en cuenta para la investigación. Así mismo se obtuvo el dato que el genero en este caso fue igualitario ya que de 24 muestras 12 eran hombres y 12 mujeres, esto refiere que tanto hombres y mujeres aportaron sus ideas e ideales al estudio científico.
En esta investigación, de los 24 profesores encuestados 18 de ellos cuentan con un grado de licenciatura, 4 cuentan con maestría y 2 con doctorado.
CONCLUSIONES
Al tener en cuenta las competencias TIC para el desarrollo profesional docente se analizaron las encuestas teniendo en cuenta las competencias que deben desarrollar los docentes dentro del aula así como de su uso ahora en pandemia desde sus hogares. Ya que el propósito de la integración de TIC en la educación es mejorar los procesos de enseñanza y aprendizaje, dando un uso pertinente y responsable permitiendo así dinamizar tales procesos.
Según las respuestas dadas por los docentes en las encuestas se resalta que algunos tienen dudas del manejo de las TIC, debido a que varias de las preguntas enfocadas al conocimiento que ellos poseen de las TIC se evidencian respuestas donde nos dan a conocer que su conocimiento es mediano.
Durante el desarrollo de la presente investigación se resaltan importantes hallazgos que contribuyen al conocimiento de la realidad en cuanto al manejo de las TIC de las instituciones mexicanas públicas y privadas donde se logró identificar cuál es la apropiación y aplicación de las TIC por parte de los docentes.
Respecto al proceso enseñanza- aprendizaje, se observa que los docentes de las instituciones han asimilado el uso de TIC, tanto en su cotidianidad como en su labor profesional, es fundamental que los docentes estén actualizados y logren dinamizar el proceso de enseñanza
De lo anterior se concluye que es necesario incentivar el uso de los recursos tecnológicos y la mejor manera de hacerlo es fortaleciendo el conocimiento de estos, donde la capacitación juega un papel relevante de esta manera los docentes sienten la confianza del uso de las TIC y pueden transmitir esta motivación a los estudiantes quienes poseen la facilidad del manejo. De esta manera se conjugan saberes, formando una fusión interesante que permite aprovechar al máximo las bondades de los recursos TIC.
Hernández Merlos Josué Alejandro, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Dra. Katherinne Salas Navarro, Universidad de la Costa
PROPUESTA DE MEJORA PARA UN SISTEMA PRODUCTIVO MEDIANTE EL USO DE HERRAMIENTAS DE TOMA DE DECISIONES PARA UNA CADENA DE SUMINISTRO DE LA INDUSTRIA MUEBLERA DE CIUDAD HIDALGO MICHOACáN.
PROPUESTA DE MEJORA PARA UN SISTEMA PRODUCTIVO MEDIANTE EL USO DE HERRAMIENTAS DE TOMA DE DECISIONES PARA UNA CADENA DE SUMINISTRO DE LA INDUSTRIA MUEBLERA DE CIUDAD HIDALGO MICHOACáN.
Hernández Merlos Josué Alejandro, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dra. Katherinne Salas Navarro, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
Una cadena de suministro se conforma de todos aquellos elementos que de manera directa o indirecta satisfacen las necesidades de los clientes, incluyendo a los proveedores, almacenes, líneas de producción, canales de distribución, mayoristas, minoristas y cliente final.
En estudios previos se ha encontrado que uno de los problemas primordiales a los que se enfrentan los fabricantes de muebles de la zona de Ciudad Hidalgo es que les es difícil cumplir con los tiempos establecidos para entregar los productos a sus clientes. Lo anterior debido a diversas causas, tales como proveedores que no surten a tiempo los materiales, cuellos de botella en las líneas de producción o canales de distribución inadecuados.
En esta investigación, se realizó un estudio de campo para efectuar un diagnóstico en el que se muestra de qué manera la empresa Nieto de la industria mueblera ubicada en el municipio opera su cadena de suministro a la vez que se proponen estrategias para aumentar su eficiencia.
METODOLOGÍA
METODOLOGÍA
Se utilizó la herramienta de simulación de PROMODEL donde se ingresaron los datos de los tiempos que tarda el proceso de la elaboración de muebles, al iniciar el proyecto se realizó un estudio de tiempos ya que era necesario para poder realizar un modelo en la aplicación.
Se tomaron los tiempos de cada una de las áreas por donde pasaba la materia prima, desde el área de maquila hasta el área final de almacén, para este proyecto se tomaron los tiempos que tardan en la elaboración de 50 muebles que en este caso son roperos grandes.
Se tomó los tiempos un en cada una de las áreas en total en cada una de ellas en un total de 10 tiempos en cada área. Lo anterior se realizó de esa manera para poder ingresarlos a STAF-FIT donde arroja los estándares a utilizar.
El proceso de la toma de tiempos de cada una de las áreas tomo más tiempo del esperado ya que debido a la escases de madera que se presentó en la zona por el desabasto, fue hasta que se regenero la venta de madera que se continuo con el proceso de la toma de tiempos.
Después de la toma de tiempos se prosiguió a ingresar los datos obtenidos a la aplicación de PROMODEL ingresando las locaciones de la mueblería, ya elaborado el modelo se prosiguió a ingresar la información donde se conocen los tiempos y las cantidades que se requiere para elaborar 50 roperos.
Al terminar el modelo de simulación se conocieron los resultados que la propia aplicación arroja al finalizar una corrida del modelo.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y de igual manera se reforzaron conocimientos adquiridos que se obtuvieron en lo que va de la carrera, las cadenas de suministro son muy importantes ya que conforma de todos aquellos elementos que de manera directa o indirecta satisfacen las necesidades de los clientes, incluyendo a los proveedores, almacenes, líneas de producción, canales de distribución, mayoristas, minoristas y cliente final.
Hernández Morales Nayeli Guadalupe, Instituto Tecnológico de Comitán
Asesor:Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez
DESARROLLO DE MATERIAL DIDáCTICO Y MEDICIóN DE FUERZA AGARRE Y TORQUE EJERCIDAS POR UNA MUESTRA DE HABITANTES DE LA CIUDAD DE COMITáN DE DOMíNGUEZ, CHIAPAS
DESARROLLO DE MATERIAL DIDáCTICO Y MEDICIóN DE FUERZA AGARRE Y TORQUE EJERCIDAS POR UNA MUESTRA DE HABITANTES DE LA CIUDAD DE COMITáN DE DOMíNGUEZ, CHIAPAS
Hernández Morales Nayeli Guadalupe, Instituto Tecnológico de Comitán. Mandujano Pérez Humberto Primitivo, Instituto Tecnológico de Comitán. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La escasez de datos de fuerza de agarre y de torque en la zona sur de la República Mexicana, centrándose en el estado Chiapas es inexiste debido a que la falta de interés de realizar estos tipos de estudio en el estado a significado un atraso de conocimientos en el área de ergonomía y también con relación al área de diseño, debido a que diversos diseñadores no cuentan con una fuente de información para apoyarse para realizar ciertas investigaciones de diseño donde requieren datos referenciales de fuerza para desarrollar de manera óptima para probar sus prototipos.
Por otro lado, en las aulas, cuando se enseña la materia de ergonomía existe una baja o nula aplicación práctica de dichos temas. Existen diferentes causas, por ejemplo, el tema no se encuentra contemplado en el plan de estudios, los tiempos programados para contenidos teóricos y prácticos son cortos, que el docente tiene bajo o alto conocimiento, cargos administrativos, y/o no se explica bien o que simplemente los alumnos pierden el interés de los temas por la falta de estructura de procedimientos o se le es difícil comprender los existentes.
A experiencia propia, la mayor problemática que se presenta en este tipo de deficiencias académicas es la falta de procedimientos para manipular los equipos de medición, por lo que durante el verano de investigación se recopilará y se estructurará información para detallar paso a paso los procedimientos para analizar tareas mediante la técnica de video análisis propuesta por Gómez-Bull, K. G., Hernández-Arellano, J. L., & Ibarra-Mejía, G. (2015).
Los objetivos del estudio son desarrollar material didáctico para uso en aulas y medir las fuerzas de agarre y torque en una muestra de habitantes de la ciudad de Comitán de Domínguez en el estado de Chiapas.
METODOLOGÍA
Revisión bibliográfica
Se realizó una revisión bibliográfica de los procedimientos en cuestión, en el cual se analizó y comparo para poder explicar paso a paso dicho procedimiento de medición.
Desarrollo de manuales
Una vez, identificado los procedimientos, se estructuró dicho manual con cuatro prácticas: fuerza de agarre en tres técnicas, pinzamiento y torque a nivel de la muñeca utilizando ambas manos sin apoyo fijo y la técnica de video análisis de tareas. Las practicas tiene la siguiente estructura: título, introducción, propósito, objetivos, tiempo estimado para realizar la práctica, conceptos a dominar para desarrollar la práctica, materiales, procedimiento y por último la sección actividades y preguntas.
Selección de la muestra
Se consideraron los siguientes criterios para selección de la muestra a conveniencia:
No haber presentado lesiones en miembros superiores en el último año
Tener entre de 18 y 60 años
Radicar en la ciudad de Comitán de Domínguez
No presentar síntomas de COVI-19
Adicionalmente, se consideraron las siguientes medidas sanitarias:
Uso de gel antibacterial y cubrebocas en todo momento durante la participación
Limpieza de los equipos después de ser usados por cada participante
Mantener sana distancia
Medición de fuerzas
Se realizan mediciones a través de uso metodología para la medición de agarre y torque haciendo uso del protocolo de Caldwell, así también se hace uso de un protocolo de sanidad para desinfectar los instrumentos al momento de ser utilizados para medir.
CONCLUSIONES
Al cierre de la estancia de verano, se logró realizar la medición de fuerzas de agarre y torque a un total de 22 participantes (12 mujeres y 10 hombres) con una edad promedio de 36 años. Los promedios obtenidos de fuerza de agarre para cada mano para hombres y mujeres fueron mano derecha 25.27 Kg, mano izquierda 24.69 Kg. Los promedios obtenidos de fuerza de torque para cada mano para hombres y mujeres fueron mano derecha 3.35 Nm, mano izquierda 3.2 Nm. Los promedios generales para hombres y mujeres fueron. Fuerza de agarre hombres: 28.9 Kg, mujeres, 19.3 Kg. Fuerza de torque 4 Nm, mujeres, 2.6 Nm.
Durante la estancia de verano se logró adquirir conocimientos teóricos, es decir, se elaboró un manual pequeño para prácticas de ergonomía con los temas fuerza de agarre, pinzamiento y torque, además de la técnica de video análisis de tareas, en el cual, se establecieron procedimientos más claros para que tanto los alumnos como docentes puedan ejecutarlos con pocos conocimientos previos, facilitando su comprensión.
Ahora bien, en los conocimientos prácticos, se ejecutó y midió fuerza de agarre con una sola técnica y torque con el equipo de medición correspondiente en una muestra poblacional en Comitán de Domínguez, sin embargo, al ser un extenso trabajo aún se encuentra en la fase la recolección y no se pueden mostrar los datos obtenidos. Se espera poder generar una base de datos de las fuerzas analizadas.
Hernández Moreno José Emmanuel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dr. José Alfonso Gómez Sánchez, Instituto Tecnológico Superior de Las Choapas
REALIDAD AUMENTADA PARA LA PRáCTICA DE EJERCICIOS FíSICOS.
REALIDAD AUMENTADA PARA LA PRáCTICA DE EJERCICIOS FíSICOS.
Hernández Moreno José Emmanuel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. José Alfonso Gómez Sánchez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Riesgos al no realizar calentamiento antes de practicar algún deporte
A nivel global, las lesiones en deportistas se observan a diario como consecuencia del calentamiento, es decir, estirando los músculos antes de jugar o hacer ejercicio, ya que cada vez son más las personas que realizan algún deporte, ya sea de forma competitiva o como ocio. Deportistas profesionales, en su gran mayoría hacen esto acompañados de un entrenador experto, desgraciadamente la gran mayoría opta por hacer ejercicio por su cuenta.
Se puede llamar calentamiento al conjunto de ejercicios previos que se realizan para preparar músculos y articulaciones, desde forma general hasta una forma específica, que se realiza antes, durante y posteriormente de la práctica de algún deporte con un fin en especifico, preparar el cuerpo para un mayor rendimiento.
El calentamiento de los músculos antes de iniciar cualquier práctica deportiva es fundamental para que los músculos, tendones y ligamentos se calienten y ganen elasticidad. Entre los riesgos de no realizar calentamiento previo destacan las lesiones, sobre todo en las articulaciones más sensibles a ellas como los pies y el tobillo.
Las lesiones más concurrentes que suelen suceder son las siguientes:
Calambre
Contractura
Distensión o hiperextensión
Rotura fibrilar o muscular
Torcedura de tobillo
Esguince
Fascitis plantar
METODOLOGÍA
Para la elaboración del proyecto se utilizó la metodología RUP (Proceso Unificado de Desarrollo), ya que junto con el Lenguaje Unificado de Modelado (UML), constituye la metodología estándar más utilizada para el análisis, diseño, implementación y documentación de sistemas orientados a objetos.
A continuación, se describe cómo se aplican varias fases de la metodología RUP en la realización de este proyecto, es importante mencionar que en cada una de las fases se utilizan diversas disciplinas de ingeniería de software.
Fase de Iniciación
Obtención de Requerimientos
Durante esta fase se realizó la obtención de requerimientos utilizando las técnicas de entrevista y observación, se tomaron como base el tema de lesiones deportivas, en dos de los deportes de mayor impacto como son futbol y taekwondo.
Es de importancia mencionar que se tiene un apoyo de maestros e instructores de ambas disciplinas, para el problema que se aborda y de eta manera evitar lesiones en un futuro.
Fase de Elaboración
Análisis y diseño
De acuerdo al documento de Especificación de Requisitos de Software, se realizó la arquitectura de la aplicación móvil de realidad aumentada.
Posteriormente se realizó el diseño de interfaces de la aplicación de realidad aumentada basándose en la normativa de diseño Material Unity para dispositivos que cuenten con el sistema operativo Android.
Implementación
Se inició con el desarrollo del código de la aplicación móvil de realidad aumentada, para esto se hizo uso de la plataforma de desarrollo Unity ya que tiene soporte de compilación con diferentes tipos de sistemas operativos, el uso de Unity contribuye al desarrollo de la aplicación móvil ya que se desarrolló para dispositivos móviles con sistema operativo Android e IOS.
También se hizo uso de Vuforia ya que Vuforia permite a los desarrolladores de Unity crear experiencias AR atractivas y llegar al mayor público posible.
Fase de Construcción
Implementación (Desarrollo de la aplicación móvil de realidad aumentada)
Continuando con el desarrollo del código, se realizó la aplicación móvil de RA en dónde se tiene un menú principal con 2 secciones:
Sección 1 Ejercicios de calentamiento Futbol.
Sección 2 Ejercicios de calentamiento Taekwondo.
En ambas se utilizaron targets para activar la RA, en donde se tiene acceso a visualizar movimientos en donde se aprecia la correcta ejecución de los mismos.
Se incorporaron diversos canvas para colocar botones y textos los cuales permitían una mejor experiencia y un fácil manejo en la aplicación para su utilización en cada escena.
La programación del cambio de escenas y movimientos de objetos se realizó en el lenguaje de programación C#, utilizando el IDE Visual Studio 2019.
Pruebas funcionales y no funcionales
Se realizaron las pruebas funcionales y no funcionales de la aplicación móvil de RA, estas pruebas se realizaron desde una laptop, utilizando distintas cámaras para la apreciación de 3D.
Fase de Transición
Implantación
La aplicación se instaló en un dispositivo móvil, su funcionamiento fue el adecuado.
CONCLUSIONES
Durante este verano se lograron adquirir bastos conocimientos, tanto teóricos como prácticos, sobre el uso de software de Unity, introducción, implementación y ejecución de aplicaciones basadas en el entorno de realidad aumentada, utilizando el complemento vuforia para el manejo de bases de datos para targets, siendo utilizados como lanzadores para la aplicación.
El trabajo presentado es un proyecto con una visión global, ya que está destinado a atletas novicios que deseen realizar algún deporte y en un futuro pueda estar complementado con todas las disciplinas existentes, basado en la ejecución de actividades de calentamiento de músculos y articulaciones.
En un futuro se debe realizar un experimento de evaluación de acuerdo a lo siguiente:
Determinar una muestra de la población para la realización de los ejercicios.
Se utilizará la aplicación por deportistas por un periodo de tiempo.
Los factores a evaluar serán la consistencia de la realización de los ejercicios de calentamiento, la facilidad e intención de uso.
Se aplicará una encuesta de satisfacción y se observará el uso de no lesiones.
Se espera que tras el uso continuo de la aplicación las personas encuentren resultados favorables para ayudar a evitar o disminuir lesiones por no realizar calentamiento deportivo adecuado.
Hernández Orozco Yuli, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey
REPRESENTACIóN GRáFICA AUTOMáTICA DE DATOS EXTRAíDOS DE DIFERENTES REPOSITORIOS DE ARTíCULOS DE DIVULGACIóN CIENTíFICA
REPRESENTACIóN GRáFICA AUTOMáTICA DE DATOS EXTRAíDOS DE DIFERENTES REPOSITORIOS DE ARTíCULOS DE DIVULGACIóN CIENTíFICA
Hernández Orozco Yuli, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Reyes Cruz Amairani, Instituto Politécnico Nacional. Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
A través de los años, la investigación científica ha estado en constante crecimiento, pero para llevar a cabo una investigación de esa índole, los investigadores necesitaron adquirir el conocimiento científico base. Para generar conocimiento científico se requiere de un dominio profundo en diversas áreas de estudio, por lo que un investigador debe involucrarse en la lectura y producción de artículos de carácter científico; sin embargo, áreas de investigación de alto impacto, suelen contener un gran número de productos científicos, lo que conlleva un problema para el investigador, ya que necesitaría invertir una gran cantidad de tiempo y esfuerzo para leer cada uno de los artículos, sin tener la certeza de que el documento es relevante y que pueda ser de apoyo para una investigación futura.
Con el fin de apoyar a nuevos investigadores y democratizar el conocimiento científico, el propósito de este estudio es analizar nuevos métodos para la representación gráfica automática de conocimiento usando técnicas de ciencia de datos a un conjunto de metadatos extraídos de diferentes repositorios de información disponible de forma pública.
METODOLOGÍA
Primeramente, se realizó una investigación de los diferentes temas y herramientas digitales que serían utilizados para el desarrollo de este proyecto, tales como: Jupyter, Python, Pandas, APIs, etc.. Una vez adentrados en el campo, se realizó una segunda investigación donde, por medio de la Internet, se consultaron una gran cantidad de Applications Programming Interfaces (APIs) enfocadas a la recopilación de datos en el campo de la investigación científica, de las cuales se seleccionaron las siguientes 10:
Microsoft Academic Knowledge API
CrossRef
InCites API
Scopus APIs
Web of Science API Lite
Web of Science Expanded API
A partir de esta selección se revisó individualmente cada API y posteriormente se compararon entre sí a partir de los atributos que retorna cada uno, donde finalmente se seleccionó la API Microsoft Academic Knowledge API (MAK API).
Para realizar el siguiente proceso, la extracción de datos, se realizó la suscripción a la MAK API por medio de la plataforma Microsoft Research APIs y utilizando el método REST Evaluate que proporciona esta herramienta, se envió a través de Internet una solicitud de consulta GET a la API, que a su vez proporcionó un mensaje de respuesta con la información consultada en formato JSON y cuyos campos incluían elementos bibliográficos comunes e información adicional como Identificadores de Objetos Digitales (DOI) y conteo de citas.
Una vez retornado el mensaje de respuesta, se desarrolló un script de Python para almacenar esta información en un DataFrame, haciendo uso de la librería Pandas, y guardarlo en formato pickle, para usarlo en el proceso de visualización de datos. El script incluye todos los parámetros necesarios para ejecutar la solicitud de consulta e incorpora un bucle while que genera una lista para almacenar temporalmente cada uno de los artículos devueltos y sus respectivos atributos, además de un bucle for que inserta el contenido de la lista en un DataFrame.
Como uno de los objetivos del trabajo es mostrar gráficamente el comportamiento de datos por medio de gráficas, se tomó una muestra de 100 artículos publicados en revistas nacionales, internacionales o en conferencias, los cuales fueron previamente estructurados y almacenados utilizando el primer script, para utilizarlos en un segundo script de Python enfocado a la creación de gráficos dinámicos, mediante la librería de Plotly, que permitan realizar interpretaciones posteriores. El script consta de cuatro funciones principales que realizan la suma total de citas de cada revista o conferencia involucrada en la publicación de los artículos almacenados, y que convierten el DataFrame en gráficas de barras y pastel, para finalmente almacenar los gráficos en formato HTML para su uso posterior.
CONCLUSIONES
A partir de todo el proceso anterior se obtuvieron tres gráficos, las primeras dos, una de pastel y otra de barras, muestran la cantidad de artículos publicados en el área de Action Recognition por cada editor presente en la muestra, en ellos se observó que el IEEE, fue el editor que más artículos ha publicado dentro de esta área de estudio, obteniendo un 61.5% del total de la muestra; por otro lado la última gráfica de barras, representa el conteo de total de citas de los artículos publicados por cada revista y conferencia presente en la muestra, en ella se observa que la conferencia Computer Vision and Pattern Recognition cuenta con los artículos más citados, obteniendo un 23.7% del total de la muestra.
La lectura es esencial para realizar una investigación, pues todas las informaciones conviven y se enriquecen mutuamente cuando se trata de fundamentar un estudio, sin embargo, se convierte en un reto constante seleccionar lo que es relevante y acompañar los recientes desarrollos en un tema en particular, por ello a través de la investigación, se buscó ofrecer una herramienta visual que apoye a los investigadores a realizar elecciones más informadas; además, durante el proceso, se adquirieron conocimientos relacionados con la ciencia de datos, el lenguaje de programación de Python y el manejo de varias herramientas digitales las cuales fueron puestos en práctica para realizar este trabajo.
Hernández Ramírez Francisco Julián, Instituto Tecnológico de Toluca
Asesor:Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
PLAN ESTRATéGICO PARA LA PREVENCIóN DE RIESGOS EN EL MONTAJE DE UNA CARPA CIRCENSE
PLAN ESTRATéGICO PARA LA PREVENCIóN DE RIESGOS EN EL MONTAJE DE UNA CARPA CIRCENSE
Hernández Ramírez Francisco Julián, Instituto Tecnológico de Toluca. Asesor: Mg. Carlos Humberto Gualdron Garcia, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El circo, desde la perspectiva del espectador, es un lugar mágico, lleno de luces, música y artistas que realizan actos increíbles bajo una carpa multicolor, donde se encuentran diferentes emociones; sin embargo, no podemos dejar pasar por alto la prevención de riesgos laborales, debido a la complejidad de los actos y el entorno donde se desarrollan.
En México, el circo ha permanecido a través de los años, en los cuales se han registrado diversos accidentes que han ido desde pequeñas lesiones hasta aquellos que desencadenan en grandes pérdidas, incluso la muerte, siendo uno de los mayores riesgos la estructura principal, que es una estructura de lona, la cual se encuentra tensada y anclada al suelo para darle mayor estabilidad.
En el país, se cuentan con medidas poco claras para estos recintos, inclusive se cuenta con poca o nula información referente a la seguridad y salud ocupacional que aplique al circo mexicano, esto debido a que el circo contemporáneo, donde se ha comenzado a buscar la sofisticación de los espectáculos circenses, no lleva gran tiempo en el mundo en comparación con el teatro, recinto en el cual se encuentran ya registros en materia de seguridad y salud ocupacional.
El campo en materia de seguridad y salud laboral no está investigado en el ámbito circense, pero, se comienza a implementar a nivel mundial con circos grandes, un gran ejemplo es el Cirque Du Soleil, que ha comenzado a aplicar esta materia en la realización de sus espectáculos, manteniendo un ambiente sano y seguro en sus shows, enfocándolo como una herramienta de calidad agregada.
METODOLOGÍA
El presente proyecto es de tipo cualitativo, el cual presenta de una manera accesible las teorías, métodos y nuevos enfoques, exponiendo con rigor los pasos a seguir en el diseño y desarrollo de una estrategia metodológica (Flick, U., 2012).
Se analizó y sintetizó información referente a los fundamentos teóricos presentes en libros, revistas, tesis y todo documento referente a la Seguridad y Salud en el Trabajo al igual que a lo referente con los espectáculos circenses (circos), esto con la finalidad de tener una visión más amplia de la problemática a tratar, incluyendo las posibles soluciones, delimitando la investigación al diseño del Plan Estratégico para la Prevención de riesgos, excluyendo de la misma su implementación.
En virtud de que la investigación es desarrollada en México, se analizaron y seleccionaron normatividades y legislaciones mexicanas, aplicables en materia de Seguridad y Salud en el Trabajo, mediante el apoyo y conocimientos de un experto en la materia.
Es necesario indicar que la presente investigación es de tipo no experimental, realizada mediante la observación del fenómeno en su contexto natural (Hernández, R. et al., 2014), esta observación es participativa ya que se ha tenido la oportunidad de la involucración directa con la actividad a estudiar para obtener una investigación veraz y real, pese a esto, para no perder objetividad en la investigación, se ha realizado también la observación no participativa donde se han realizado encuestas y entrevistas no estructuradas, que llevan una previa planificación de las preguntas a realizarse, pero logrando adaptarlas a las situaciones y características particulares de los sujetos que forman parte del estudio.
CONCLUSIONES
La estancia de verano del Programa Delfín fue de gran ayuda, en esta estancia se logró reforzar los conocimientos previos y adquirir nuevos, poniendo en práctica diferentes métodos de investigación, pese a ello, al ser un trabajo en el cual se cuenta con poca información se volvió extensa la investigación, resultando en que el proyecto se encuentre en la fase de propuesta del Plan Estratégico para la Prevención de Riesgos en el Montaje de una Carpa Circense. Se espera que al finalizar el proyecto, dicho plan pueda ser aplicable a los circos mexicanos y forme parte de las bases para su aplicación en circos latinoamericanos.
Hernández Ramírez Mario Gabriel, Instituto Politécnico Nacional
Asesor:Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
MONITOREO DE LÍNEA DE PRODUCCIÓN CON UN SISTEMA SCADA Y HMI CON LABVIEW
MONITOREO DE LÍNEA DE PRODUCCIÓN CON UN SISTEMA SCADA Y HMI CON LABVIEW
Hernández Ramírez Mario Gabriel, Instituto Politécnico Nacional. Ortega Alvarez Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las industrias necesitan nueva tecnología capaz de cubrir los requerimientos necesarios para competir, no solo automatización de sus sistemas, además, tecnología de la industria 4.0, que digitalice todos sus procesos productivos. Esta industria 4.0 ha estado creciendo en los últimos años, y no todas las industrias se han visto inmersas en ella, sin embargo, una situación como la actual demuestra la importancia de involucrarse en la cuarta revolución industrial. Es decir, con una pandemia andando, la de COVID-19, es contraproducente laboral presencialmente en las plantas de producción, necesitando sistemas que permitan la supervisión y el control de manera remota en tiempo real, y hasta corrección de errores, todo desde un lugar seguro y apartado.
Por ello, se realiza este trabajo de investigación para la aplicación de un sistema SCADA, con el cual se adquieren, procesan y almacenan algunos datos recabados en una pequeña simulación o representación gráfica de un sistema de almacenaje, controlando y monitorizando sus variables, con una interfaz sencilla de manejar.
METODOLOGÍA
Se comenzó definiendo el proceso industrial a simular, monitorear y controlar en el software Factory IO: la clasificación de cajas de acuerdo con su peso y/o tamaño, el paletizado y almacenaje de estas. Después de ello, se realizó el diseño de la planta industrial con las herramientas del software: bandas y rodillos transportadores, una báscula transportadora, clasificador de ruedas, paletizadoras con elevador, plataformas giratorias, sensores, racks de almacenamiento, entre algunos otros.
Se evaluaron diferentes formas de programación, de diferentes softwares que nos proporcionaban facilidad y un buen funcionamiento. Se seleccionó una programación a través de diagramas de escalera, en el PLC Siemens con ayuda del entorno TIA Portal. Se utilizó un modelo S7-1200 con módulos I/O agregados para manejar todas las señales de entrada y salida de la línea de producción.
Después de comunicar el PLC con la planta industrial, se realizó el diseño de la interfaz de monitoreo en el software de LabVIEW, que permite controlar el arranque y paro de la planta y la visualización remota del estado de los procesos según el tipo de producto, y permitiendo el acceso sólo a personal autorizado a la base de datos que se genera. Para conectar las señales que controla el PLC con la interfaz, se utilizó un servidor OPC. Y finalmente se programó el sistema de rastreo de las piezas para guardar esta información en la base de datos.
CONCLUSIONES
En una situación actual, con una pandemia de por medio, un sistema SCADA resulta una opción sumamente viable para continuar laborando y generando, pues como se ha analizado y corroborado, el ser humano puede interactuar con los procesos sin necesidad de correr riesgos en la planta, ni por la misma, ni por riesgo de contagio de enfermedad. Así, resulta fácil el control y monitoreo del proceso y sus datos generados, pues la ilustración gráfica de los procesos y la interfaz de usuario permite una cómoda inspección.
Hernandez Rauda Yosselyn Michel, Universidad Autónoma de Guerrero
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
REALCALINIZACIÓN ELECTROQUÍMICA DE ESTRUCTURAS DE CONCRETO REFORZADO
REALCALINIZACIÓN ELECTROQUÍMICA DE ESTRUCTURAS DE CONCRETO REFORZADO
Hernandez Rauda Yosselyn Michel, Universidad Autónoma de Guerrero. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Se le denomina concreto reforzado al material compuesto por la mezcla del concreto con un interior armado de varillas de acero que le proporcionan al concreto una alta resistencia a los esfuerzos de tensión. La corrosión es un fenómeno natural que se define como el deterioro de un material a consecuencia de un ataque electroquímico por su entorno. En el concreto reforzado la corrosión puede darse por procesos de: Carbonatación, así como penetración de sulfatos y cloruros
La corrosión que se presenta en el acero de refuerzo requiere de una reacción de oxidación, una reacción de reducción y la circulación de iones a través de un electrolito que en este caso será presentado por el concreto; por lo que la corrosión por Carbonatación solo se presenta en concreto humedecido, mientras que la corrosión por penetración de sulfatos y cloruros se da en estructuras de concreto reforzado que se encuentran en contacto permanente o intermitente con agua de mar. Las consecuencias que tienen ambos procesos de corrosión en el concreto reforzado son la expansión del acero de refuerzo lo que provoca la fisuración del concreto y con esto la disminución de sus propiedades mecánicas de carga. Este proceso de fisuración pone en peligro las estructuras cercanas a las costas o expuestas a climas cálidos húmedos.
METODOLOGÍA
La corrosión en las estructuras de concreto reforzado no expuesto a condiciones de humedad generalmente se evita por la alta alcalinidad proporcionada por la solución de poros del concreto (pH>12.5) formando una capa pasiva en la superficie del acero. Esta capa se ve destruida por el proceso de carbonatación que es la reacción de los productos de hidratación disueltos en el agua de los poros del concreto con el dióxido de carbono (CO2) proveniente del ambiente que tiene como resultado la reducción del pH de la solución de los poros del concreto de 12.5 a menos de 9 (pH), esta reducción deja expuestas a la corrosión las varillas del concreto reforzado.
Para revertir este proceso natural de carbonatación se pueden llevar a cabo distintos procesos convencionales y no convencionales como disminuir la porosidad y permeabilidad del concreto con el manejo de las relaciones agua/cemento (bajas) y aplicación de las técnicas electroquímicas (TE) para el mantenimiento de concretos carbonatados.
El tema de estudio de esta investigación es la técnica de Realcalinización que consiste en generar un elemento anódico (armadura de aporte en la superficie del concreto) y uno catódico (armaduras existentes) para aplicarle una corriente que se desplaza de un polo a otro a través del concreto. El paso de la corriente a través del concreto entre el dispositivo y las armaduras provoca lo que se conoce como electromigración, que se define como el desplazamiento de material provocado por el movimiento gradual de los iones en un conductor. En este caso el concreto es el conductor, ya que la corriente se desplaza del ánodo al cátodo por esta masa.
Las condiciones en las que tienen que estar las superficies de concreto para su aplicación; deben estar expuestas y libres de revestimientos, materiales extraños o zonas sueltas que limiten el paso de corriente o produzcan su corte, esto se comprueba mediante el uso del ohmiómetro y en caso de no tener continuidad de corriente se aplican puentes eléctricos generalmente con la adición de piezas metálicas unidas con soldadura, también es necesario conocer las propiedades químicas del cemento utilizado en la mezcla del concreto
Después de acondicionar la estructura para llevar a cabo el proceso de realcalinización se crea exteriormente una red anódica mediante un mallado metálico generalmente de acero o titanio alrededor de la estructura, para mantener el medio húmedo, y como soporte del mallado se debe aplicar sobre la superficie del concreto (electrolito) una pasta de papel impregnado en carbonato de sodio que debe mantenerse húmeda durante el tratamiento, finalmente se aplica la corriente en intensidades que oscilan entre los 1 y 2 A/m2 en superficies inferiores a 100 m2 y en periodos de 3 a 15 días.
Algunos de los efectos secundarios de la mala ejecución de este procedimiento generan un incremento en el contenido de iones alcalinos en el concreto, esta producción de iones - OH podría causar una aceleración del mecanismo de reacción álcali-sílice del agregado (RAS). Si el hidrógeno es absorbido en la superficie del acero, podría presentarse el fenómeno de fragilización, conduciendo una reducción en la tenacidad a la ruptura del acero. Por otro lado, si el hidrógeno es producido en su forma gaseosa existiría un incremento local en las presiones internas que podrían inducir el desarrollo de fisuras en la matriz cementante.
Sin embargo, se ha logrado demostrar que la producción de hidrógeno no tendría efectos nocivos sobre la estructura mientras la intensidad de corriente aplicada permanezca próxima a 1 A/m2 de acero, o cuando sean utilizados aceros de baja resistencia. Sin embargo, este proceso de realcalinización puede presentar limitantes en estructuras de concreto pretensado.
CONCLUSIONES
Debido a las condiciones sanitarias que se presentan actualmente a nivel mundial no se pudieron realizar de manera presencial las pruebas en especímenes de concreto por lo que el proceso de investigación se realizó analizando y comparando resultados antes obtenidos de forma experimental y conclusiones bibliográficas.
Durante este verano de investigación logré adquirir los conocimientos teóricos del proceso de Realcalinización como una manera de darle mantenimiento a las estructuras que presentan corrosión, adquirí conocimientos teóricos de los temas fundamentales enfocados a la preservación, mantenimiento y protección de estructuras expuestas al fenómeno de la corrosión.
Referencias
Josefa De Los Angeles Paat Estrella. (2021). Evaluación de efectos ocasionados por la Realcalinización Electroquímica aplicada a diferentes intensidades de corriente sobre estructuras de concreto reforzadas y carbonatadas. Universidad Veracruzana.
Martínez N. (Agosto 2020) Realcalinización Electroquímíca del concreto de acero reforzado. Tecnológico de Estudios Superiores del Valle De Bravo.
Hernandez Reyes Daniela Estefania, Instituto Tecnológico de Tepic
Asesor:Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
DISEñO DE SISTEMAS DE CONTROL Y DISPOSITIVOS ELECTRóNICOS DEL BANCO DE PRUEBAS (BANPRO21)
DISEñO DE SISTEMAS DE CONTROL Y DISPOSITIVOS ELECTRóNICOS DEL BANCO DE PRUEBAS (BANPRO21)
Hernandez Reyes Daniela Estefania, Instituto Tecnológico de Tepic. Asesor: Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Las personas con amputación de miembro inferior presentan dificultades para asumir la carga en su extremidad inferior protetizada, ocasionadas por alteraciones en los tejidos blandos que quedan afectados por la amputación.
La principal dificultad de la protetización consiste en adaptar de forma relativamente confortable el encaje, de manera que permita amortiguar el peso corporal y pueda transmitir las fuerzas dinámicas que se producen durante la marcha. Por tanto, el objetivo de la protetización en los sujetos con amputación de la extremidad inferior tobillo-pie consiste en lograr una deambulación con la máxima estabilidad, el menor coste energético y la apariencia más normal posible.
Es por ello que el diseño de cualquier prótesis debe ser sometido a una serie de simulaciones generadas por un banco de pruebas, el cual se encargara de someter el pie protésico a una serie de ensayos que permitan simular las condiciones de la marcha humana y también evaluar su resistencia.
La electrónica y el control son una parte muy importante para el banco de pruebas puesto que con los dispositivos electrónicos adecuados y un sistema de control confiable logramos que se ejecuten de manera eficiente las pruebas para evaluar la prótesis del tobillo-pie en tiempo real y así determinar: si el diseño de dicha prótesis es el adecuado, su durabilidad, así como también fallas en el diseño o en sus elementos.
Es por ello que en el verano de investigación se realiza una propuesta de los dispositivos electrónicos y el sistema de control adecuado para que el diseño mecánico del banco de pruebas (BanPro21), el cual deberá funcionar de manera adecuada y cumplir con los requerimientos necesarios para realizar las pruebas a las que será sometida dicha prótesis tobillo-pie, establecidos en la norma ISO2275.
METODOLOGÍA
Para poder elegir el sistema de control y los dispositivos electrónicos necesarios para el banco de pruebas se tomó en cuenta cuatro aspectos fundamentales:
➢ El diseño mecánico del BanPro21.
➢ Requerimientos de funcionamiento.
➢ Norma ISO22675.
➢ Funcionamiento de la marcha humana.
Se consulto la Norma ISO 22675, Prosthetics - Testing of ankle-foot devices and foot units - Requirements and test methods. Esta norma internacional especifica principalmente un procedimiento de ensayo cíclico aplicable a los conjuntos de tobillo-pie y unidades de pie de las prótesis externas de miembros inferiores, se distingue por la posibilidad de simular de manera realista las condiciones de carga en toda la fase de apoyo del pie durante la marcha, desde el golpe con el talón hasta el levantamiento de los dedos del pie, que son importantes para la verificación de los requisitos de funcionamiento, tales como la resistencia, la durabilidad y la vida útil de la prótesis.
Después de consultar la norma ISO, con el diseño preliminar del banco de pruebas elaborado y con los requerimientos de funcionamiento establecidos, se realizó búsqueda de los diferentes dispositivos electrónicos necesarios para que el BanPro21 funcione correctamente.
Se seleccionaron los siguientes dispositivos electrónicos:
Sensor de fuerza (Celda de carga).
Actuador Lineal (Transferencia de carga).
Sensores adicionales
Sensor de Posición (Plataforma rotativa) (𝜽).
Posteriormente con los dispositivos electrónicos seleccionados se procede localizar en donde estarán montados dichos componentes y a su vez realizar algunas modificaciones en el diseño del BanPro21, en caso de ser necesario, para colocar dichos dispositivos.
Por último, se realiza la selección del:
➢ Sistema embebido.
➢ La interfaz gráfica.
El sistema embebido elegido fue una Raspberry PI 4, que se encargara de enlazar todos los dispositivos electrónicos para que funcionen conjuntamente y puedan realizar su función de acuerdo con los parámetros previamente establecidos.
La interfaz gráfica seleccionada fue el entorno de desarrollo Laboratory Virtual Instrument Engineering Workbench (LabVIEW), el cual nos permitirá establecer una comunicación con el sistema embebido, dicha interfaz ofrece controlar los parámetros de cada prueba a la que será sometida la prótesis del pie-tobillo y monitorear los resultados obtenidos, todos esto se llevará acabo con la programación adecuada realizada en el entorno de desarrollo.
CONCLUSIONES
El sistema de control será capaz de enlazar los dispositivos electrónicos para que trabajen conjuntamente y también le permitirá al operador humano obtener información sobre los estados del sistema físico y los algoritmos de control por medio de la interfaz gráfica. Sera medir fuerzas que oscilan entre 100 y 2500N, a su vez también podrá generar movimientos entre 20 grados negativos y 40° positivos, se podrán obtener graficas de la posición y la fuerza aplicada en el pie protésico en tiempo real al momento de realizar la prueba. También le permitirá al usuario modificar diferentes parámetros como: el tiempo de ciclo y controlar de manera manual el funcionamiento del actuador lineal y el servo motor.
Los dispositivos electrónicos elegidos tales como sensores y transductores serán capaces de proporcionarnos información real. La celda de carga nos proporciona mediciones acerca de la fuerza aplicada en el píe protésico obteniendo así medición de fuerza adecuada de hasta 4450N N en compresión. Posteriormente el encoder nos brinda información de la posición en la que se encuentra la plataforma rotativa que se encarga de simular los movimientos de dorsiflexión y platarflexion. Por ultimo los sensores de proximidad e inductividad nos brindad una información adicional, por ejemplo, los sensores de proximidad nos indican si la posición de la plataforma rotativa se encuentra dentro de los limites establecidos y el sensor de inductividad nos permite restablecer la posición de la plataforma rotativa cuando esta se encuentre en 20 grados negativos.
Concluyendo así, que todos los elementos propuestos para el BanPro21 en este proyecto de investigación cumplen con los requerimientos de funcionamiento.
Hernández Ríos Guadalupe Berenice, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
DISEÑO DE MÁQUINA BOLEADORA PARA LA INDUSTRIA PANIFICADORA
DISEÑO DE MÁQUINA BOLEADORA PARA LA INDUSTRIA PANIFICADORA
Hernández Ríos Guadalupe Berenice, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Ruiz Maritza, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Desde la antigüedad, el pan ha sido uno de los alimentos más comunes en los humanos. La forma en que este es realizado ha evolucionado junto con el hombre sin perder la importancia que tiene dentro de nuestra alimentación y cultura, de esta manera, como la mayoría de los alimentos se encuentra dentro de la industrialización.
La panificadora Don Ángel se encuentra ubicada en el municipio de Ocampo, Michoacán y actualmente realiza el proceso de boleado de la masa manualmente, donde diariamente se elaboran de 3,500 a 4,000 piezas en un tiempo aproximado de 150 minutos. Los problemas y/o desventajas que genera el boleado manual en la empresa repercuten en su tiempo de producción, ya que este se vuelve más tardado y requiere de un mayor esfuerzo.
Dentro del mercado existe una gran variedad de máquinas hechas especialmente para realizar el proceso de boleo de la masa, sustituyendo así el proceso manual mediante sus sistemas mecanizados.
Sin embargo, a pesar de sus múltiples beneficios el costo de esta maquinaría resulta elevado para la panificadora Don Ángel, por lo que, en este proyecto se pretende elaborar un diseño de máquina boleadora que sea más económico y sencillo pero a la vez funcional, que ayude al panadero a reducir el tiempo invertido en el proceso de boleo de la masa, logrando así una mayor productividad.
METODOLOGÍA
El objetivo general de este trabajo es diseñar una máquina boleadora para la industria panificadora mediante el análisis del proceso actual del pan para la maximización de la producción con reducción del tiempo en el área de producción.
Este proyecto de investigación es de tipo índole descriptiva-aplicada, ya que se propone revisar y describir el proceso actual para la elaboración del pan, lo que permite identificar el problema para diseñar la máquina boleadora para después aplicarla a la panificadora Don Ángel. El enfoque es de índole descriptivo, esto, debido a que se mostrarán y analizarán datos cualitativos para el diseño de la máquina boleadora para poder establecer los componentes y partes necesarias con la finalidad de maximizar la producción del pan con reducción de tiempo.
La información recolectada se analiza mediante diversas técnicas e instrumentos de origen cualitativo, que sirven de apoyo para obtener la información necesaria para el desarrollo óptimo del proyecto, algunos de estos instrumentos son: herramienta 5w+2h, diagrama de flujo del proceso, diagrama de flujo de procesos y observación.
Por lo que con esta información se logró visualizar de mejor manera los tiempos y el flujo de trabajo, permitiendo al investigador conocer el funcionamiento de la máquina boleadora para la industria, así como los diferentes modelos de máquinas boleadoras existentes.
CONCLUSIONES
Con la información obtenida se identificó que las opciones en el mercado son costosas y no se adaptan a las necesidades del panadero convencional, se busca elaborar un diseño sencillo y funcional, tomando en cuenta las necesidades y requerimientos específicos de la empresa Panificadora Don Ángel.
Este proyecto tendrá un impacto positivo para la empresa, debido a que reducirá notablemente el tiempo invertido en el proceso de boleo de la masa, logrando así una mayor productividad.
Hernández Rizo María del Rocío, Universidad de Guadalajara
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
Hernández Rizo María del Rocío, Universidad de Guadalajara. Socha Hurtado Daniel Felipe, Universidad Tecnológica de Pereira. Velazquez Sanchez Luis Aaron, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Potenciales evocados visuales de estado estacionario (SSVEP) son señales electroencefalográficas que se provocan a través de estímulos visuales. Estas señales son importantes en las Interfaces Cerebro-Computador (BCI). Una BCI es un sistema computacional que permite la comunicación sin medir actividad muscular y que consta de los siguientes elementos:
EEG no invasivo
Preprocesamiento
Machine Learning
Control de interfaces
Retroalimentación
Un SSVEP se obtiene al generar un estímulo y esto genera en el usuario un potencial evocado, en ese sentido, se genera un estímulo visual que se detecta en la corteza occipital y con esta información se puede llegar a diferentes aplicaciones en personas que tienen dificultad para moverse, un ejemplo de esto sería poder escribir sin necesidad de teclado a través de estímulos visuales.
Los evocados se pueden detectar de diferentes maneras:
PSDA Power Spectrum Density Analysis, FFT, trasformar del dominio del tiempo a la frecuencia.
Métodos de filtrado especial: CSP, MEC, CCA Análisis de correlación canónica.
METODOLOGÍA
Para la adquisición de datos participaron 5 sujetos de prueba que fueron durante 3 sesiones estuvieron recibiendo estímulos visuales a través de una pantalla de monitor. Los SSVEP se adquirieron a través de un EEG que constaba de 8 canales ubicados en la corteza occipital de acuerdo con el sistema internacional 10-20. Las señales EEG se adquirieron a una frecuencia de muestreo de 256 Hz.
Durante la adquisición de datos, el participante se sienta frente a una pantalla de monitor en la cual hay un cuadrado apagado, se ilumina el cuadrado durante 2 segundos, lo que corresponde a la presentación del objetivo, luego durante 1 segundo se apaga, lo que corresponde a la etapa de preparación, a continuación durante 15 segundos se prenderá a diferentes frecuencia, lo que corresponde a la etapa de estimulación, y finalmente tendrá 5 segundos, lo que corresponde al descanso, una vez que se termina el descanso se repite el mismo bloque (trial) pero a una frecuencia diferente.
Las frecuencias de estimulación son 11: 5 Hz, 5.4545 Hz, 6 Hz, 6.6667 Hz, 7.5 Hz, 8.5714 Hz, 10 Hz, 12 Hz, 15 Hz, 20 Hz y 30 Hz, también se considera un bloque en el que no hay estimulación. Las frecuencias de estimulación se presentan en un orden aleatorio.
Por convención se trabajó con el participante 1. Con los datos obtenidos se graficó la señal EEG, posteriormente se aisló la señal EEG adquirida por cada canal. A continuación, se identificó el inicio de la fase de estimulación de cada trial y su frecuencia que comprenden del segundo 3 al 18 y se realizó un análisis de frecuencia. Luego se identificó la potencia espectral en la frecuencia fundamental y su primer y segundo armónico.
Con esta información se usó la aplicación de Machine Learning llamada Clasification Learner de MATLAB para hacer un clasificador binario. Se hicieron diversos estudios para encontrar el mejor clasificador a una frecuencia de estimulación elegida, se comparó el mismo clasificador con las demás frecuencias. Se identificaron las frecuencias que mejor clasifica y las peores. Con la frecuencia que mejor clasifica se observa la precisión en la frecuencia fundamental y su primer y segundo armónico.
CONCLUSIONES
Para la clasificación de señales SSEVP es preferible solo usar la frecuencia fundamental ya que con los armónicos usualmente se ve reducida la precisión de los clasificadores.
Para el participante 1 las frecuencias de 6 Hz y 15 Hz se diferencian mucho de las demás y por eso presentan un 100% de acierto con el clasificador elegido.
Los clasificadores de clase KNN mostraron un gran desempeño en la clasificación de las señales SSVEP del participante 1.
Hernández Sánchez Saúl, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan José Cabello Eras, Universidad de la Costa
EVALUACIÓN DEL MARCO LEGAL Y LAS ACCIONES EN MATERIA DE EFICIENCIA ENERGÉTICA EN MÉXICO Y SU VÍNCULO CON LA INVESTIGACIÓN.
EVALUACIÓN DEL MARCO LEGAL Y LAS ACCIONES EN MATERIA DE EFICIENCIA ENERGÉTICA EN MÉXICO Y SU VÍNCULO CON LA INVESTIGACIÓN.
Hernández Sánchez Saúl, Benemérita Universidad Autónoma de Puebla. Luna Garcia Angelica, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
La Eficiencia Energética juega un papel importante en el camino hacia el Desarrollo Sostenible, según lo reconoce la Agenda 2030 para el Desarrollo Sostenible, en la que en el Objetivo de Desarrollo Sostenible 7 se aborda el acceso a la energía asequible, segura, sostenible y moderna, para lo cual la EE es uno de los factores claves y su promoción e implementación cobra suma importancia para aprovechar las oportunidades de ahorros energéticos y contribuir a reducir la demanda de energía contribuyendo a que el suministro de energía sea suficiente, disminuyendo las emisiones de Gases de Efecto Invernadero y reduciendo la demanda de inversiones para aumentar la oferta de energía. En este sentido, los aspectos de legislación en materia de Eficiencia Energética y su relación con los diferentes programas e iniciativas implementados en los sectores público y privado para la transición y adopción de la Eficiencia Energética en México, son aspectos clave para verificar el nivel de concordancia entre los resultados obtenidos y las acciones implementadas por cada país, en este sentido se vuelve objeto de estudio la legislación y la implementación de acciones en México para contribuir a alcanzar el Desarrollo Sostenible mejorando la Eficiencia Energética.
METODOLOGÍA
La metodología del trabajo de investigación consistió en una investigación documental en diferentes motores de búsqueda como lo son Scopus® y Google Académico®, introduciendo términos de búsqueda como:
(Energy efficiency or Efficient use of energy)
AND
(Government or secretariat)
AND
(Mexico or Mexican government)
AND
(Program* or initiative* or law* or legislation)
De los resultados arrojados por las diversas búsquedas, se procedió a hacer la selección de información que fuera de utilidad para el tema central de la investigación, según la siguiente metodología:
-Seleccionar las dos primeras páginas de resultados de la búsqueda: Por relevancia según el algoritmo del motor de búsqueda.
-Seleccionar artículos de acuerdo al título y resumen: Verificando concordancia y relevancia sobre su contenido de acuerdo al tema de investigación.
-Seleccionar la información relevante.
-Confirmar la información obtenida además de complementarla con la información presentada por las páginas web oficiales del gobierno mexicano.
Una vez recabada la información, se procedió a elaborar el análisis comparativo entre las diferentes referencias obtenidas y su contenido, descartando así la información que no cumpliera con los objetivos de la investigación y a su vez profundizando en aquella que sí aportaba con los objetivos establecidos.
CONCLUSIONES
La relación existente entre los diferentes programas de Eficiencia Energética y su proyección en el desarrollo y comportamiento del indicador de intensidad energética primaria en México ha dejo entre ver la implementación, crecimiento, desarrollo y evolución de las mejoras realizadas en materia de eficiencia energética durante mediados de la década de 1990 y hasta 2015, subdividiendo este periodo en tres etapas importantes: 1993 a 2001, 2001 a 2012 y 2012 a 2015.
El primer periodo fue en el cual se presentaron problemáticas que afectaron al incremento de la eficiencia energética, generando una tendencia al alza en el comportamiento de diversos indicadores, sin embargo, fue a mediados de la década de 1990 que se comenzaron a presentar signos de recuperación de la crisis a la cual México hacía frente.
La segunda etapa en la cual México atravesó dos crisis económicas que impactaron la productividad, generando un comportamiento irregular en diversos indicadores y destacándose por ser el periodo con los niveles productivos más bajos en las últimas tres décadas.
Por su parte, este último periodo ha presentado resultados favorables en materia de eficiencia energética, a pesar de las constantes fluctuaciones del precio de exportación de petróleo crudo, esta etapa se caracteriza por ser la más productiva de las últimas tres décadas.
Cabe mencionar que fue en el periodo comprendido entre 1995 a 2015 que diversos sectores económico productivos han evolucionado en cuanto la intensidad energética de cada uno de ellos, presentando reducciones de 45.9%, 15.6%, 10.9% y 5.6% para los sectores: Residencial, Industrial, Comercial y Servicios, así como Transporte, respectivamente; mientras que el sector Agropecuario presentó en el mismo periodo un aumento del 37.7%, de tal forma que en el mismo periodo, de 1995 a 2015, se registró un incremento de 1% anual en la intensidad eléctrica final, tomando en cuenta dicho incremento desde 1995 hasta 2015 se estima un incremento en el consumo de energía eléctrica de aproximadamente 90%.
Dejando entre ver, una vez más, la relación entre las intensidades de consumo de los diferentes sectores, el valor agregado de estos y el cambio evolutivo en cuanto la adopción e implementación de diversos programas e iniciativas de carácter público y privado de estos últimos años, factores que impactan de forma directa en el comportamiento del indicador de nivel de intensidad energética de la energía primaria, reflejo de la Eficiencia Energética en México.
Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Andrea Palomino Salcedo, Universidad del Valle
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Palomino Salcedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Los bancos de alimentos son una estrategia para minimizar el desperdicio de alimentos y aumentar la seguridad alimentaria en poblaciones vulnerables. Sin embargo, la decisión de destinar alimentos a quienes soliciten su apoyo es una situación problemática. Esta decisión debe considerar varios criterios que aseguren que los alimentos se dirijan a las organizaciones o poblaciones que más lo necesitan. (Henao, López, Chud-Pantoja & Osorio, 2020, párr. 1)
El desperdicio de alimentos ha aumentado en todo el mundo, siendo una cifra casi aterradora: en el año 2019, hubo 931 millones de toneladas de alimentos desperdiciados (Paúl, 2021). En Colombia, se desperdician alrededor de 9.76 millones de toneladas cada año (Anónimo, 2019).
También hay una gran población que no come adecuadamente y puede aprovechar estos alimentos. Si nos adentramos en algunos de los municipios de Colombia, en este caso, de Cali, las cifras que se desperdiciaron en el 2018 fueron de 319.305 toneladas de comida únicamente en los hogares caleños, y según las proyecciones realizadas, este año se generaría un total de 330.169 toneladas de comida en las basuras de las zonas residenciales (Anónimo, 2014).
Si bien fenómenos como la desnutrición crónica y la relación de esta con la mortalidad infantil están asociados a la inseguridad alimentaria, de acuerdo con la Unicef la desnutrición crónica, que se diagnostica cuando la talla y el peso no corresponden a la edad de la persona, está asociada a situaciones de pobreza, y tiene un enorme impacto en el desarrollo (Aguirre, 2014).
METODOLOGÍA
Para la elaboración de este proyecto se utilizará la metodología de acción (investigación) tecnológica, ya que logra determinar un saber hacer técnico que recibe el nombre de Know how, que en general está ligada a un campo de aplicación y se caracteriza por un lenguaje propio, especializado y utilitario (Anasagasti, 2011).
Básicamente podemos definir esta metodología de investigación-acción como una forma de indagación introspectiva colectiva emprendida por participantes en situaciones sociales con objeto de mejorar la racionalidad y la justicia de sus prácticas sociales o educativas, así como su comprensión de esas prácticas y de las situaciones en que éstas tienen lugar (Maciel, C., 2003).
Con respecto al ciclo de vida del software, se implementará una metodología ágil, la cual representa el enfoque de desarrollo ágil, que ha sido implementando en diferentes organizaciones para la gestión y administración, enfoque con el que se pretende aumentar las probabilidades de éxito en la puesta en marcha de los proyectos. Esta metodología se encuentra orientada al desarrollo de proyectos complejos donde no se cuenta de manera completa con toda la información necesaria al iniciar el proyecto y, por lo tanto, no es factible planificarlos en detalle. En esta metodología es importante la colaboración y participación (Calderón, O., 2020).
Para el desarrollo del software utilizaremos la Metodología ágil SCRUM, que corresponde a una metodología ágil y flexible para gestionar el desarrollo de un proyecto de software. Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación (Softeng, 2021).
Con la metodología SCRUM el cliente se entusiasma y se compromete con el proyecto dado que lo ve crecer iteración a iteración. Asimismo, le permite en cualquier momento realinear el software con los objetivos de negocio de su empresa, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema (Softeng, 2021).
SCRUM es un marco de trabajo iterativo e incremental para el desarrollo de proyectos y se estructura en ciclos de trabajo llamados Sprints. Éstos son iteraciones de 1 a 4 semanas, y se suceden una detrás de otra. Al comienzo de cada Sprint, el equipo multi-funcional selecciona los elementos (requisitos del cliente) de una lista priorizada. Se comprometen a terminar los elementos al final del Sprint. Durante el Sprint no se pueden cambiar los elementos elegidos. Al final del Sprint, el equipo lo revisa con los interesados en el proyecto, y les enseña lo que han construido. El equipo obtiene comentarios y observaciones que se puede incorporar al siguiente Sprint. SCRUM pone el énfasis en productos que funcionen al final del Sprint, es decir que estén realizados (P. Deemer, G. Benefield, C. Larman & B. Vodde., 2009).
CONCLUSIONES
Con el desarrollo de este proyecto de investigación se lograron conocer los procesos referentes a la gestión de la información ocurrida a partir de las donaciones, los procesos de gestión del producto dentro del banco de alimentos y la distribución de los alimentos para los bancos de alimentos del suroccidente de Colombia.
La información que se obtuvo mediante la entrevista con el director del banco de alimentos de Manizales fue de gran apoyo para conocer su funcionamiento, desde la preservación y distribución de los donativos hasta el proceso administrativo y de control que se lleva a cabo al revisarlos.
Se cumplieron con las expectativas para este proyecto, realizando así el análisis y diseño de un sistema para el apoyo a la cadena de abastecimiento en los bancos de alimentos del suroccidente colombiano. Además de llevar a cabo exitosamente la metodología de desarrollo ágil SCRUM y con la que se realizaron los objetivos planteados en esta investigación.
La experiencia de redactar y construir el proyecto fue muy gratificante, aprendimos las técnicas y los procedimientos necesarios para realizar una investigación formal, así como aplicamos los conocimientos que hemos adquirido a lo largo del tiempo durante nuestra formación académica.
Hernandez Serrano Valeria, Universidad Autónoma de Baja California
Asesor:Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PROCESAMIENTO DE SEñALES
PROCESAMIENTO DE SEñALES
Hernandez Serrano Valeria, Universidad Autónoma de Baja California. Velazquez Ceron Carlos Jesus, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PLANTEAMIENTO DEL PROBLEMA
El coronavirus SARS-Cov-2 es un virus que apareció en China. Después se extendió a todos los continentes del mundo provocando una pandemia. Actualmente Europa y América son los más afectados
Con la actual pandemia el cierre de escuelas se vio obligado para resguardar la salud de todos, poniendo a si a trabajar en modalidad virtual.
Tras un año y medio de pandemia la opción de reabrir las escuelas de forma escalonada ha parecido una propuesta cada vez más viable y día con día se buscan implementar nuevas metodologías y procesos para poder garantizar un regreso a clases seguro.
METODOLOGÍA
Antes de empezar con el proyecto tuvimos una pequeña conversación para saber y conocer mas sobre este con nuestro profesor.
Se tiene que elaborar un sistema mediante sensores que detectara tus signos vitales como la temperatura, ritmo cardiaco y oxigenación en la sangre y de esta manera saber si tu tienes lo necesario para poder ingresar a cierta institución, supermercado, hospital, etc. Si llegas a estar bien en cuanto a tus signos vitales encenderá un led verde accediendo tu entrada de lo contrario encenderá un led rojo denegando tu entrada
En la elaboración de nuestro proyecto usamos sensores como el MAX30102 de pulso cardiaco y con oxigenación sanguínea y el LM35 que es un sensor de temperatura la programación de estos es mediante arduino.
Comenzamos programando cada sensor con arduino para que así se cada uno pudiera hacer su función que era medir SPO2, pulso cardiaco y temperatura.
Después se juntaron todos los programas para así tener uno mismo y este mandara datos en una misma pantalla y al mismo tiempo arduino detectar si los datos proporcionados por los sensores eran buenos, si lo eran (37.5ºC,100 RC) encendía un led rojo negando la entrada.
CONCLUSIONES
Durante la estancia de verano se lograron adquirir y reforzar los conocimientos en programación y arduino, para poder ponerlos en práctica al momento de realizar un programa que en base a un cuestionario te indica si el usuario cuenta con acceso permitido o denegado para entrar a la institución.
Se espera que con este programa el riesgo de contraer la enfermedad COVID-19 dentro de la institución sea mínimo y de ser posible nulo en su totalidad debido al control de acceso de personas.
Hernández Soriano Roberto Samuel, Instituto Politécnico Nacional
Asesor:Dr. German Cuaya Simbro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
COMPUTACIóN INTELIGENTE
COMPUTACIóN INTELIGENTE
Hernández Soriano Roberto Samuel, Instituto Politécnico Nacional. Asesor: Dr. German Cuaya Simbro, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La era digital en la que vivimos nos presenta una gran variedad de situaciones y tecnologías que permiten automatizar, agilizar y mejorar los procesos cotidianos de la vida, y de las industrias.
En el sector tecnológico, hay dos grandes tendencias que han estado transformando la forma en la que se desarrollan los sistemas y en la que se desarrollan e integran las industrias, que son blockchain y la inteligencia artificial (IA, específicamente machine learning: ML). Dichas tecnologías desempeñan un papel fundamental para alcanzar objetivos imperativos en todos los niveles sociales; con un interés particular, el 9° objetivo de desarrollo sostenible (ODS) propuesto por la ONU: Industria, innovación e infraestructura.
Por lo anterior, es de interés estudiar y comprender los aspectos que estas tecnologías presentan, y la trascendencia que pueden tener en algunos sectores logísticos e industriales.
METODOLOGÍA
Primeramente, se tuvo un periodo de estudio teórico, para familiarizarse con los conceptos y las ideas propuestas por las tecnologías de inteligencia artificial y de blockchain.
Luego, en el ámbito de IA, se estudiaron primero los algoritmos de clasificación Random Forest, K-nearest neighbors y redes Bayesianas. Luego, se trabajó en la adecuación de un módulo de ML, el cual forma parte de un proyecto de investigación de en el que colaboran 2 instituciones de diferente país y que tiene por objetivo la construcción de un portal en donde puedan compartirse experiencias docentes con el uso de herramientas para la enseñanza. Así el sistema puede aprender y proporcionar sugerencias de uso de alguna herramienta tecnológica de acuerdo con las necesidades de un docente. Por ende, se definió una interfaz que permitiera la creación de modelos de IA basados en los algoritmos previamente estudiados, desplegar su rendimiento y proporcionar la posibilidad de utilizarlos con nuevos datos. Se continuó el desarrollo utilizando el framwork de Python: Flask, cuya curva de aprendizaje también fue recorrida.
La interfaz consta de dos secciones. La primera es la generación del modelo, que recibe un set de datos en un archivo csv que se procesará, y el algoritmo para generar el mismo. El procesamiento de los datos consiste en discretizar las cadenas de texto, y los datos alfanuméricos de acuerdo a condiciones previamente definidas. Posteriormente, se dividen los datos en tres grupos: validación, evaluación y entrenamiento. Luego, con los datos de entrenamiento se genera el modelo, basado en el algoritmo seleccionado, y posteriormente se realiza una predicción de este modelo con los registros de evaluación, y se calculan algunas estadísticas del desempeño del modelo. Casi para terminar, los datos de validación se descargan en la interfaz. Finalmente, y a reserva del usuario, el modelo debe guardarse. Para probar los modelos guardados la segunda sección de la interfaz recibe los datos de validación previamente descargados en la generación del modelo, y permite seleccionar el modelo a probar. Con ambos elementos, se realiza la clasificación, y se despliegan lo resultados obtenidos, comparando también con la entrada.
Por otro lado, para etapa de blockchain, se realizó el estudio y la implementación de un módulo que tenía por objetivo aprender cuáles son los componentes necesarios para el desarrollo del módulo de esta tecnología y cómo puede implementarse a través del uso de herramientas ya existentes como es la plataforma de IBM. Para ello se completaron primero los tutoriales de la IBM Blockchain Platform Extension en Visual Studio Code, que se desarrollan primero en un ambiente local. Sobre esta extensión se desarrollaría posteriormente una aplicación para inventario de comida rápida, la cual conllevaría el diseño de dos aplicaciones. La primera engloba la lógica del contrato inteligente que regula la lógica de aplicación y la interacción con la plataforma de IBM, y la segunda que fuera una aplicación web que permitiera la interacción del usuario administrador con la infraestructura de blockchain.
A través de la interfaz, el usuario puede dar de alta nuevas sucursales, o nuevas órdenes, ya sean de entrada o de salida de alguna sucursal registrada con las cantidades respectivas de insumos registrados o consumidos. Como parte de la lógica del programa y del sistema blockchain, cada una de las sucursales debe confirmar las órdenes que otra sucursal genera, a fin de considerarse válida en el registro global. Dicho proceso también se realiza en de la interfaz. Finalmente, se tiene una sección para consulta del inventario total que tenga una sucursal en particular. Para la construcción de ese estado solo se consideran las órdenes de entrada y de salida que hayan sido confirmadas por todas las sucursales que existían en el momento de la creación de la orden.
Cabe mencionar que para el desarrollo e interacción de ambas aplicaciones se implementó un algoritmo de encriptación de datos para validar las operaciones realizadas en el libro de registros. Además, para la lógica del programa, se implementó el manejo de eventos, emitidos por el contrato inteligente.
CONCLUSIONES
Durante esta estancia se tuvo un fuerte acercamiento a las tecnologías de blockchain y de ML. Por un lado, las técnicas de ML permiten aprovechar grandes bloques de información para acomodar registros y obtener información de patrones o situaciones consistentes en el proceso de negocio, como se pudo verificar en las pruebas del módulo implementado. Por otro lado, el alcance de la tecnología de blockchain, considerando las herramientas como la de IBM que se utilizó y que se ofrece como un servicio SaaS, permite la integración con otras aplicaciones web. Aunque en el módulo no se terminaron de implementar todas las funcionalidades que debería presentar el caso real planteado, el sistema desarrollado es lo suficientemente modular para agregar rápidamente los requerimientos faltantes como un trabajo futuro.
Hernández Torres Martha, Instituto Politécnico Nacional
Asesor:Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
OBTENCIóN DE LA FRECUENCIA CARDIACA INSTANTáNEA A PARTIR DEL SEISMOCARDIOGRAMA.
OBTENCIóN DE LA FRECUENCIA CARDIACA INSTANTáNEA A PARTIR DEL SEISMOCARDIOGRAMA.
Hernández Torres Martha, Instituto Politécnico Nacional. Asesor: Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardiovasculares afectan al corazón y los vasos sanguíneos generando complicaciones o consecuencias graves como insuficiencia cardiaca, accidentes cerebrovasculares, infartos de miocardio, paros cardíacos, derrames cerebrales o incluso la muerte.
El estudio y diagnóstico de las enfermedades cardiovasculares suele estar ligado a pruebas médicas como el electrocardiograma ECG, que se encarga de registrar la actividad eléctrica del corazón de manera no invasiva, su importancia radica en que es posible analizar diversos parámetros principalmente el ritmo y frecuencia cardíaca. Este último es un factor predictor para la aparición de eventos coronarios, accidentes cerebrovasculares, entre otros, se obtiene a través de la componente de la señal con mayor amplitud que es denominada onda R, pero requiere de diversos métodos, dispositivos de alto costo, cálculos de umbrales, un conjunto de filtros, aplicación de transformadas y otros métodos matemáticos que hacen poco simple el proceso.
Con base en la importancia de la frecuencia cardiaca y el monitoreo de la variabilidad del ritmo cardíaco, el objetivo de este proyecto es utilizar otro tipo de prueba médica conocida como seismocardiograma que es más sencilla y económica en comparación al ECG, para extraer a través de un análisis espectro temporal el valor de la frecuencia cardiaca por medio de 4 etapas.
METODOLOGÍA
Se utilizó la base de datos del sitio web physionet con los datos sobre Combined measurement of ECG, Breathing and Seismocardiogram (CEBS Database), del Grupo de Desarrollo de Instrumentación Biomédica y Electrónica de la Universidad Politécnica de Cataluña. Está consta de 20 registros con 5 minutos de duración correspondientes a sujetos sanos, edad: 24,4 años ± 3,1 años, 12 hombres y 8 mujeres. Cada registro contiene las señales del ECG (2 canales), datos de respiración y del seismocardiograma adquiridas a una frecuencia de muestreo de 5 kHz. En la etapa de adquisición de nuestra señal de interés fue mediante un acelerómetro triaxial (LIS344ALH, STMicroelectronics), con un ancho de banda entre 0,5 Hz y 100 Hz.
Para el tratamiento de las diferentes etapas de los datos, se utilizó LabVIEW que es una herramienta para diseñar y desarrollar diferentes sistemas, que brinda un entorno gráfico, de pruebas, adquisición de datos, control, etc. Nos brinda dos ventanas principales el diagrama de bloques y Panel Frontal donde se muestra la interfaz.
Se hizo uso del diseño de una máquina de estados para procesar las diferentes etapas de la señal del seismocardiograma. La máquina de estados consiste en una estructura while que contiene a un case con un conjunto de estados y funciones de transición, además de que brinda diferentes ventajas como su sencilla implementación, gran flexibilidad y expansión. Los estados implementados son: Espera, Adquirir Señal, Diezmado, Espectro de Amplitud, Espectrograma y la Serie de la Frecuencia Cardiaca Instantánea, estos últimos 4 estados son las etapas de procesamiento de la señal.
El primer estado correspondiente a espera sirve como estado inicial, contiene un selector para ejecutar la máquina de estado mediante un botón booleano, de modo que al presionar el botón se accede a la segunda etapa y en caso de no presionar permanecerá en espera sin ejecutar ninguna acción.
El segundo estado denominado Adquirir señal, consiste en extraer la señal, los datos se adquirieron mediante el bloque Read Biosignals, que es un bloque especializado para dar lectura a archivos de bioseñales de archivos, además de admitir la lectura de múltiples canales y anotaciones de lectura. Se cargó al bloque el archivo de una de las 20 muestras con una duración de 2,5s.
El tercer estado es denominado Diezmado, es correspondiente a la primera etapa de las 4 mencionadas para procesar la señal, es útil para disminuir la frecuencia de la señal a la de interés (la frecuencia cardiaca media) mediante un remuestreo de frecuencias alrededor de los 50 Hz considerando las condiciones de reposo, por lo que partiendo de una señal de 2,5s con una frecuencia de 5KHz resulta una señal diezmada con frecuencia de muestreo de 50Hz, en esta etapa también se realiza un filtrado pasabajos. El bloque utilizado es Decimate y es útil para diezmar una la secuencia de entrada X con base en el factor diezmador. El factor diezmador ingresado fue de 50.
El cuarto estado o segunda etapa es el espectro de amplitud para eliminar bajas y altas frecuencias de la señal diezmada y filtrada con los componentes de frecuencia cercanos a la frecuencia cardíaca fundamental, dado que en el diezmado no se logra limitar de forma efectiva la señal. Para obtener el espectro de frecuencias y limitarlo es usado el bloque Amplitude and Phase Spectrum VI, calcula el espectro de amplitud escalado de un solo lado de una señal de dominio del tiempo de valor real y devuelve el espectro de amplitud como magnitud y fase.
El quinto estado o tercera etapa es el espectrograma de la señal resultante usando la Transformada Local de Fourier (STFT), así mismo se utilizan ventanas de Hanning de 3 s para considerar la frecuencia fundamental, en un intervalo de 0 a 3 Hz. Para visualizar la frecuencia fundamental alrededor de 1,1 Hz. El bloque utilizado es STFT Spectrogram.
La última etapa es determinar el transcurso de la frecuencia cardíaca instantánea en el tiempo con base en el espectrograma. La frecuencia fi instantánea se determina mediante intervalos [fi(t)-a; fi (t)+a] donde a la frecuencia que limita el rango, obteniendo así la serie FCI.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del software LabVIEW así como prácticos para llevar a cabo un proyecto con base en las señales biológicas, en este caso del seismocardiograma aplicando un conjunto de técnicas como la máquina de estados, los VI Express, los SubVI, etc. para encontrar de manera efectiva la serie de frecuencias cardiacas instantáneas.
Hernández Vázquez Alan Said, Universidad Veracruzana
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
ANáLISIS HIDROMETEOROLóGICO DE LA CUENCA
ANáLISIS HIDROMETEOROLóGICO DE LA CUENCA
Hernández Vázquez Alan Said, Universidad Veracruzana. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo determinará el modelo matemático de los parámetros físicos en la cuenca del Río Jamapa. Contar con la base de datos adecuada de manera estadística y probabilística del lugar de estudio en base a los registros histórico, permitirá poder realizar estudios del tránsito de avenidas, cálculo de políticas óptimas y cualquier toma de decisiones como los efectos del cambio climático y mitigación de posibles riesgos de inundaciones en la zona.
El desconocimiento sobre la correcta extracción de los datos que nos proporciona el gobierno para realizar estudios sobre aquellas tormentas que afectan a las regiones dentro del país puede significar una problemática dentro del área de la ingeniería y que su conocimiento puede aportar gran apoyo para el diseño de proyectos y prevención de pérdidas socio económicas.
METODOLOGÍA
En un inicio, se reforzaron diversos conocimientos relacionados a la hidrología, en específico sobre lo que es una cuenca, el cómo delimitarla y el cómo obtener las estaciones meteorológicas que se encuentran dentro de esta cuenca, en este caso la del Río Jamapa, mediante la extracción de datos de páginas de gobierno como lo es la Comisión Nacional para el Conocimiento y Uso de la Biodiversidad (CONABIO) y de la Comisión Nacional del Agua (CONAGUA).
Se realizó la búsqueda de fechas donde ocurrieron fenómenos meteorológicos extremos dentro de la cuenca del Río Jamapa y el cómo consultar información dentro de la base de datos climatológica nacional (sistema CLICOM) en sus diversas modalidades como lo es el CLICOM - Malla y CLICOM - Mapa. Además, se realizó el tratado de la base de datos obtenida, al igual que la extracción de la precipitación por medio de la página de la CONAGUA, siendo los datos de los valores mensuales y las precipitaciones máximas registradas en las ocho estaciones climatológicas dentro de la cuenca para posteriormente determinar las regiones homogéneas mediante la prueba de Fisher.
CONCLUSIONES
Durante la estancia de verano se pudo obtener, reforzar y aclarar diversos conceptos relacionados a la rama de la hidrología y la importancia del procesamiento de los datos mediante el uso de diversos softwares para completar las actividades de la ingeniería en cuanto se requiera el análisis de estaciones y de un estudio hidrológico, añadiendo la importancia de saber cómo consultar diversa información proporcionada y disponible en páginas del gobierno de México.
De igual modo, se pudo analizar el comportamiento climatológico de una cuenca cuando se ve afectada por fenómenos meteorológicos extremos como lo pueden ser las tormentas.
Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco
Asesor:Dr. Omar Antonio Vega, Universidad de Manizales
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit. Asesor: Dr. Omar Antonio Vega, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Dentro de un mundo globalizado como el actual donde cada vez se observan mayores avances tecnológicos y por tanto una evolución cultural que conlleva también a la de pensamiento, es necesario incentivar la participación de las nuevas generaciones haciendo que se fortalezcan sus habilidades y sean actores activos en la sociedad. El modo de hacerlo está al alcance y es la educación donde el uso de los recursos TIC resulta indispensable para alcanzar dichas competencias tecnológicas ya que el acercamiento a dispositivos digitales permite crear múltiples actividades que incentivan la transformación social.
La presente investigación indaga la manera cómo se hace uso de los diversos medios tecnológicos y de comunicación dentro de las aulas antes de la pandemia y desde los hogares durante la pandemia.
METODOLOGÍA
El tipo de investigación usada es la investigación acción participativa de tipo cualitativa y cuantitativa, que busca obtener resultados fiables y útiles para el análisis de situaciones colectivas, basando la investigación en la participación de los propios colectivos a investigar
Está fundamentado en la crítica social que promueve la auto- reflexión, considera que el conocimiento se da por el interés que parte de las necesidades de los grupos y se consigue mediante la capacitación de los sujetos para la participación y transformación social.
Se realizó una serie de preguntas que estaban contenidas en el cuestionario aplicado y que estas se dividían en dos apartados:
Utilización de las TIC antes de la pandemia por Covid-19
Utilización de las TIC durante la pandemia.
ANÁLISIS DE LOS DATOS: se interpretó la información de las preguntas contenidas en la encuesta con ayuda de graficas explicativas y comparativas así como de un documento en Excel como apoyo para interpretar los resultados de manera más clara y precisa.
Los docentes no pueden estar lejos de los avances tecnológicos, al contrario deben aprovecharlos para el aprendizaje de los alumnos ya que esta herramienta despierta gran interés en ellos y al darle un buen uso genera un aprendizaje significativo, por ende los docentes pueden utilizarla para favorecer el desarrollo de los alumnos.
RESULTADOS
Una vez obtenido los resultados del instrumento de investigaciòn se obtuvieron los siguientes Resultados:
La muestra está constituida por 24 docentes, con una edad promedio de 37,4 años, donde el más joven tiene 24 años de edad y 56 el mayor, con 35 años como la edad más común y una desviación estándar de 0,707.
En cuanto al género, hay una distribución de 50% para mujeres y el otro 50% para hombres, en tanto el 70,8% tiene una formación de pregrado (licenciado), 20,8% de maestría y el 8,3% restante ostenta el título de doctor.
Todos los docentes, con excepción de uno, laboran en instituciones del orden público, que se ofrecen educación primaria en el 45,8%, secundaria 37,5% y 16,7 educación media o bachillerato.
Las edades registradas en este estudio fueron en una variante de los 24 hasta los 56 años. Esto ayuda a comprender que docentes de edades variables llegaron a participar y se tomaron en cuenta para la investigación. Así mismo se obtuvo el dato que el genero en este caso fue igualitario ya que de 24 muestras 12 eran hombres y 12 mujeres, esto refiere que tanto hombres y mujeres aportaron sus ideas e ideales al estudio científico.
En esta investigación, de los 24 profesores encuestados 18 de ellos cuentan con un grado de licenciatura, 4 cuentan con maestría y 2 con doctorado.
CONCLUSIONES
Al tener en cuenta las competencias TIC para el desarrollo profesional docente se analizaron las encuestas teniendo en cuenta las competencias que deben desarrollar los docentes dentro del aula así como de su uso ahora en pandemia desde sus hogares. Ya que el propósito de la integración de TIC en la educación es mejorar los procesos de enseñanza y aprendizaje, dando un uso pertinente y responsable permitiendo así dinamizar tales procesos.
Según las respuestas dadas por los docentes en las encuestas se resalta que algunos tienen dudas del manejo de las TIC, debido a que varias de las preguntas enfocadas al conocimiento que ellos poseen de las TIC se evidencian respuestas donde nos dan a conocer que su conocimiento es mediano.
Durante el desarrollo de la presente investigación se resaltan importantes hallazgos que contribuyen al conocimiento de la realidad en cuanto al manejo de las TIC de las instituciones mexicanas públicas y privadas donde se logró identificar cuál es la apropiación y aplicación de las TIC por parte de los docentes.
Respecto al proceso enseñanza- aprendizaje, se observa que los docentes de las instituciones han asimilado el uso de TIC, tanto en su cotidianidad como en su labor profesional, es fundamental que los docentes estén actualizados y logren dinamizar el proceso de enseñanza
De lo anterior se concluye que es necesario incentivar el uso de los recursos tecnológicos y la mejor manera de hacerlo es fortaleciendo el conocimiento de estos, donde la capacitación juega un papel relevante de esta manera los docentes sienten la confianza del uso de las TIC y pueden transmitir esta motivación a los estudiantes quienes poseen la facilidad del manejo. De esta manera se conjugan saberes, formando una fusión interesante que permite aprovechar al máximo las bondades de los recursos TIC.
Hernández Zamora Hellen Yesenia, Universidad Nacional de Ingeniería
Asesor:Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
IDENTIFICACIóN DE MéTRICAS INTERFUNCIONALES DE LA CADENA DE SUMINISTRO, PARA OPTIMIZAR LA CAPACIDAD DE RESPUESTA Y LA EFICIENCIA DEL FLUJO DEL PROCESO DE LAS PYMES EN NICARAGUA.
IDENTIFICACIóN DE MéTRICAS INTERFUNCIONALES DE LA CADENA DE SUMINISTRO, PARA OPTIMIZAR LA CAPACIDAD DE RESPUESTA Y LA EFICIENCIA DEL FLUJO DEL PROCESO DE LAS PYMES EN NICARAGUA.
Hernández Zamora Hellen Yesenia, Universidad Nacional de Ingeniería. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, muchas de las pequeñas empresas o emprendimientos nacionales que se encuentran en proceso de expansión o que desean expandirse, desconocen estos controladores y sus métricas que les permitirían alcanzar mejor sus objetivos estratégicos planteados como organización, incurriendo en diversas pedidas de tiempo, dinero, materias primas, ventaja competitiva, etc.
Los principales problemas en la gestión de la cadena de suministro que suelen presentar las empresas corresponden a los siguientes: La toma de decisiones poco asertivas en los pronósticos derivadas de la falta de visibilidad y control que se tiene de las áreas o departamentos de la empresa, así mismo, no existe un balance entre la demanda y el suministro, cuando la cantidad de mercancía disponible o en stock no coincide y está por debajo de su demanda, o viceversa.
Otro error que suele presentarse es que muchas de las empresas no tienen definido el mercado al que van dirigidos, no existe una segmentación de mercado, por lo que se desconocen las necesidades de sus clientes que le permitan ofertar soluciones al mercado.
El problema que se presenta más a menudo, suele ser la optimización de la cadena de suministros en una sola área o departamento de la empresa, en donde un buen número de responsables de logística invierten solo en aquellas dependencias en las que recae el mayor peso de la cadena de producción, olvidando que se trata de un proceso integral y que atraviesa la organización desde los niveles más altos hasta los más bajos y menos influentes.
METODOLOGÍA
Fase de planeación: Se identificaron los temas de estudios, conforme a la pertinencia de formación de los investigadores, seleccionando el estudio e investigación de los controladores de la cadena de suministro, que permitan optimizar la capacidad de respuesta y la eficiencia del flujo del proceso de las pequeñas y medianas empresas en Nicaragua.
Fase de Definición de alcance: Luego de la revisión y estudio de diversas literaturas, acerca de la gestión de cadena de suministros se ha establecido el alcance de la presente investigación la cual se enmarca dentro de identificación de las métricas y los beneficios de su implementación dentro de las empresas nicaragüenses.
Fase de Recolección de información: Se realizado la consulta y recopilación de información sobre la cadena de suministros y las métricas contenidas dentro de sus controladores.
Para entender como una empresa puede mejorar su desempeño en términos de equilibrio entre la capacidad de respuesta y la eficiencia que se ajuste a la estrategia competitiva, siendo este el objetivo de la estrategia de una cadena de suministro.
Para lograr alcanzar este objetivo, una empresa debe estructurar la combinación correcta de los controladores logísticos e interfuncionales; su impacto combinado determina entonces la capacidad de respuesta y las utilidades de toda la cadena de suministro.
Los principales controladores del desempeño de la cadena de suministro son las instalaciones, el inventario, el
transporte, la información, el aprovisionamiento, y la fijación de precios.
Fase de resultados: Esta investigación tiene como resultado, la identificación de controladores y métricas, que permitan entender el rol e importancia de cada controlador al crear el ajuste estratégico entre la estrategia de la cadena de suministro y la estrategia competitiva.
CONCLUSIONES
En Nicaragua la industria de la cadena de suministros ha venido creciendo en los últimos 10 años, se ha venido ampliando el abanico de ofertas de empresas proveedores de servicios, equipamientos y tecnologías, sin embargo, aún se sigue pasando por altos muchos de los elementos que permitirían un mejor flujo de la cadena de suministros de las empresas y un factor clave de éxito con sus clientes internos y externos. En este sentido, mantener una mirada analítica sobre los indicadores de desempeño de la cadena de suministro les permitirá anticiparte a cualquier incidente, siendo de suma importancia para su crecimiento empresarial, lo que contribuirá al desarrollo del sector industrial del país.
Esta investigación tiene como resultado una contribución a la gestión del conocimiento en cuento a la importancia de los controladores logísticos e interfuncionales correspondientes a la gestión de la cadena de suministros, indicando seguidamente las métricas de cada controlador, con el objetivo principal de concientizar a las empresas la importancia de la formarse e incorporar estos aspectos en su organización.
Para entender cómo puede mejorar el desempeño de la cadena de suministro en una empresa en términos de capacidad de respuesta y eficiencia, deben examinar sus controladores logísticos e interfuncionales: instalaciones, inventario, transporte, información, aprovisionamiento, y fijación de precios, dado que estos interactúan para determinar el desempeño, también afectan las medidas financieras, teniendo como objetivo es estructurar los controladores para lograr el nivel deseado de capacidad de respuesta al menor costo posible, con lo que se mejora el superávit de la cadena de suministro y el desempeño financiero de la empresa
Herrada Serrano Jorge Luis, Universidad de Guadalajara
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
RECONOCIMIENTO DE ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
Girón Arcila Sebastián, Universidad del Valle. Graciano Herrera Gabriel, Instituto Politécnico Nacional. Herrada Serrano Jorge Luis, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En 2015 se produjo la primera observación directa de las ondas gravitacionales (GW) por parte del Observatorio de Ondas Gravitacionales por Interferómetro Láser (LIGO) y comenzó la era de la astronomía de ondas gravitacionales. El inicio de la astronomía de ondas gravitacionales trajo consigo algunos retos para la correcta detección y caracterización de las mismas.
La técnica utilizada para la detección se denomina Matched Filter (Filtro Adaptado, MF). Esta técnica supone que las señales a detectar están embebidas en un ruido gaussiano aditivo, de esta manera, los datos de los detectores se emparejan con plantillas de GW. Y las que minimizan la relación señal-ruido (SNR), se seleccionan.
Aunque el uso de MF ha sido capaz de proporcionar resultados precisos en la detección de GW, también es una técnica limitada. Una de esas limitaciones es que no hay plantillas para las GW generadas por supernovas tipo 2, o de colapso de núcleo (CCSNe), por lo tanto, la búsqueda de nuevos caminos se centra en la detección de ese tipo de GW.
Una opción que surge es implementar un modelo de Inteligencia Artificial (IA) que sea eficiente en el procesamiento de una gran cantidad de datos. El aprendizaje profundo (DL) es el subcampo del aprendizaje automático (ML) que ha demostrado ser competente en el análisis de datos y su posterior clasificación. Todo ello mientras es capaz de aprender y mejorar continuamente.
Mediante el uso de algoritmos de DL podemos identificar el ruido no gaussiano en la señal y así esa señal puede ser clasificada en dos conjuntos diferentes, uno que contiene sólo ruido y el segundo que está compuesto por ruido y una especie de GW.
Existe un algoritmo de DL llamado Red Neural Convolucional (CNN) que requiere un preprocesamiento mínimo de los datos en comparación con otro tipo de algoritmos de clasificación. Una CNN es capaz de aprender características siempre que se le proporcione suficiente entrenamiento. Además, los algoritmos CNN ya se han utilizado en el pasado para el reconocimiento de la GW.
METODOLOGÍA
Se utiliza la primera parte de la estancia para entrar en contacto con los conceptos que se trabajarán a lo largo del verano. Por ejemplo, las ondas gravitacionales y cómo se detectan. También se trabaja con los recursos. Para esto, se requirió herramientas computacionales como: Sistema operativo linux como entorno de desarrollo, python3 como lenguaje de programación, un paquete de software que contiene módulos para analizar datos de ondas gravitacionales y procesamiento de señales llamado PyCBC, además de TensorFlow para crear, entrenar y validar la Red Neuronal. Después, el profesor nos dio una guía donde explican e implementan una CNN con el fin de tener claro la arquitectura que se va a utilizar para la detección de GW.
Luego, ya configurado nuestro ambiente de trabajo, el investigador a cargo del proyecto nos proporcionó datos del LIGO. Estos datos contienen información de ambos interferómetros, H1 y L1, donde para cada uno de estos datos, la onda tiene una duración de 1200 segundos. Ya teniendo estos archivos, se implementaron los scripts para leer estos archivos, poder mostrarlos en una gráfica y a partir de módulos de pycbc, agregar a cada onda 61 inyecciones de GW distribuidas dando un factor. Una vez hecho esto, se procede a formar dos arreglos de datos, uno para H1 y L1 que contengan 6 segmentos de la onda por cada inyección, tres de estos son segmentos contienen solo ruido y los otros tres contienen ruido más onda gravitacional. Esto quiere decir que por cada Job se extraen 366 datos diferentes. Este número viene del producto entre el número de Jobs por el número de segmentos que se extraen por Job(61*6).
Ya teniendo estos datos(Strain Data H1 y Stain Data L1), se debe hacer un preprocesamiento antes de formar el dataset .Este preprocesamiento consta de tres pasos,el primero es un pasabanda HighPass, un filtro que da paso alto a los datos de baja frecuencia y este se aplica para eliminar ruido.El segundo, blanqueamiento de los datos, toma los datos e intenta hacer que la densidad espectral sea plana, de modo que todas las frecuencias contribuyan por igual.
El tercer paso, la transformación constante-Q, es similar a un espectrograma estándar hecho con transformación de fourier de corto tiempo con la ventaja de que los contenedores de frecuencia están más espaciados a altas frecuencias. Por último, antes de pasar al entrenamiento de la CNN, se debe formar el dataset. Para esto se guarda la información de Stain Data H1 y L1 ya preprocesado, seguido de la etiqueta correspondiente si es o no GW ( 0 = ruido, 1 = ruido + GW) y también un arreglo con el tipo de inyección.
Ahora, ya previamente generado el dataset, se hizo el entrenamiento de la red neuronal basándonos en la arquitectura CNN estudiada al principio de la instancia.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las ondas gravitacionales, cómo son detectadas y su caracterización. También se adquirieron conocimientos teóricos además de destrezas prácticas con temas relacionados con la inteligencia artificial, más específicamente Deep Learning, área del Machine Learning.
La red neuronal desarrollada que fue entrenada y probada con un dataset generado durante la estancia y entrega una eficiencia de alrededor del 85% para detectar correctamente si en una señal capturada por los interferómetros podemos encontrar solamente ruido o ruido acompañado de una onda gravitacional.
Por limitaciones de recursos computacionales y de tiempo, la red neuronal fue entrenada y testeada con solamente una parte del dataset generado. Por esta razón se espera que el porcentaje de efectividad de la CNN pueda mejorar sustancialmente al utilizar la totalidad de los recursos generados para ello durante la estancia.
Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán. Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán. Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán. Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán. Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
El agotamiento de los recursos naturales constituye uno de los problemas más preocupantes de la actual situación de emergencia planetaria [3], a causa de la dilapidación de recursos como el agua y la energía, los cuales son vitales para el sostenimiento de ecosistemas naturales, e históricamente han tenido mucha influencia en la prosperidad y éxito de una nación [4].
El poder y la eficacia de los métodos del aprendizaje automático derivan de la capacidad de extraer patrones y crear modelos a partir de los datos. En consecuencia, la aplicación de estos métodos se vuelve un enfoque clave para utilizar los grandes volúmenes de datos que se obtiene a partir del monitoreo continuo de la demanda de agua (Smart metering), así como tratar la complejidad que subyace al encontrar patrones de hábitos de consumo o predecir la demanda de agua futura, cuando se involucran variables de tipo sociodemográfico.
METODOLOGÍA
La metodología asociada a la consecución del objetivo general se divide por actividades, de acuerdo con los objetivos específicos planteados con antelación.
Creación de una base de datos de consumidores de servicios públicos de agua de la ciudad de Pereira: la generación de la base de datos será posible mediante la realización de encuestas en hogares de la ciudad de Pereira. Teniendo en cuenta la contingencia actual derivada por el CoVID-19, se emplearán recursos digitales para tal fin. Así, la muestra que se pretende tomar consiste en alrededor de 400 hogares de distintos niveles socioeconómicos y estratos, esto con el fin de garantizar la relevancia estadística de la población elegida. La muestra tiene un 95% de confianza con un 5% de error esperado sobre una población de 149.704 suscriptores de estos servicios, que para el año 2017 fueron reportados por el sistema único de información de los servicios públicos, adscrito a la superintendencia de los servicios públicos domiciliarios a la república de Colombia.
Preprocesamiento de la base de datos. La base de datos ha sido recolectada cuenta con dos tipos de datos: categóricos y no categóricos. Por lo tanto, para extraer información relevante e identificar patrones subyacentes se implementarán algoritmos de aprendizaje de máquina supervisados y no supervisados.
CONCLUSIONES
En el transcurso de esta estancia se ha adquirido conocimiento en el área de Machine Learning Aprender en este contexto quiere decir identificar patrones complejos en miles de datos, por medio de algoritmos, ajustando las horas por medio de un plan de trabajo descrito con anterioridad con una breve introducción al entorno y al lenguaje de Python, analizando los diccionarios, estructuras de datos, Pandas, histogramas,tablas, gráficos de 2 dimensiones por medio de la librería (Matplotlib), DataFrames, bibliotecas de aprendizaje automático, preprocesamiento de las bases de datos con sus funciones, cargando bases de datos a Python métodos de agrupamiento de datos en la base de datos de consumo sostenible en sus diferentes métodos. Se puede concluir que los algoritmos arrojaron ciertos resultados, pero que la ineficiencia de los etiquetados fue lo que provocó resultados tan pobres. Esto se puede dar a entender porque aún con cinco métodos de agrupamiento, ninguno dio el nivel de acierto por encima del 50%, lo que denota la deficiencia en el etiquetado de la base de datos.
Herrera Castro Daniela Sofía, Universidad de Monterrey
Asesor:Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez
PRODUCTOS NATURALES UTILIZADOS CON NANOMATERIALES BASADOS EN CARBONO
PRODUCTOS NATURALES UTILIZADOS CON NANOMATERIALES BASADOS EN CARBONO
Herrera Castro Daniela Sofía, Universidad de Monterrey. Asesor: Dra. Santos Adriana Martel Estrada, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El carbono es un bioelemento importante para la vida, después del oxígeno, representando el 18% del cuerpo humano y el 0.3% de la Tierra (1). Los compuestos del carbono constituyen los nutrientes, fuentes de energía orgánica, materiales de construcción biológicos, entre otras moléculas del cuerpo (2).
Con el tiempo, se han ido descubriendo distintos alótropos de carbono, por ejemplo: los nanotubos de carbono, el fullereno, el grafeno y los nanodiamantes (1), cada uno con distintas características que permiten el desarrollo de nuevas tecnologías para el tratamiento de enfermedades(3), teniendo un sinfín de aplicaciones en áreas como la ingeniería tisular, biomateriales, neuroingeniería, nanomedicina y biomedicina.
Sin embargo, debido a la gran cantidad de propiedades que presentan cada uno de los alótropos de carbono, se ha buscado diferentes técnicas para potencializar estas características realizando combinaciones con algunos polímeros naturales. No obstante, hasta el mayor de nuestros conocimientos, no existe un documento en español en donde se revise cuáles han sido las principales combinaciones de alótropos de carbono con metabolitos naturales para aplicaciones biomédicas y biotecnológicas.
METODOLOGÍA
La investigación se realizó mediante un análisis bibliográfico en las bases de datos Biological Science Database, Clinical Key, Redalyc, Science Direct y Google Scholar. Los elementos de búsqueda incluyeron nanomateriales basados en carbono, es decir, los nanotubos de carbono, el fullereno, grafeno y los nanodiamantes; así como investigaciones referentes a los polímeros naturales y metabolitos secundarios que tuvieran aplicación en las áreas de los biomateriales, ingeniería de tejidos y medicina.
Los criterios de inclusión de durante la búsqueda bibliográfica fueron publicaciones entre los años 2001 al 2021, excluyendo todos aquellos que fueran anteriores al 2000. De igual manera, fueron considerados artículos en inglés y español, con la intención de contar con una mayor cantidad de artículos para discernir la información. Cabe resaltar que la revisión extensiva abarcó más de 75 artículos científicos, los cuales se buscaba que tuvieran aplicación en el área de biomateriales, ingeniería tisular y medicina, excluyendo cualquier otra área de investigación.
Finalmente, las publicaciones tenían que estar relacionadas con los nanomateriales basados en carbono, para obtener una búsqueda más directa, se utilizaban las palabras plantas y biomateriales al momento de indagar.
CONCLUSIONES
Durante la estancia de verano en el programa se lograron adquirir distintos conocimientos, principalmente teóricos de las diferentes aplicaciones que tienen los nanomateriales a base de carbono y cómo estos han ido revolucionando la biomedicina, desde el uso de hidrogeles hasta andamios para regeneración de tejidos. A partir de estos estos conocimientos se pudo comprender que hay diversos polímeros naturales que al combinarse con los nanomateriales basados en carbono potencializan sus propiedades, lo que provoca que sus aplicaciones revolucionen en su área. Además, se analizó si el uso de los metabolitos secundarios con aplicación en el área médica, de biomateriales e ingeniería tisular, reaccionaban de igual forma al combinarse con nanomateriales de carbono.
Al realizar esta investigación, se pudo apreciar la importancia que tienen estas aplicaciones actualmente, pues muchas de las enfermedades que afectan el tejido del cuerpo reciben tratamientos a base de hidrogeles, andamios de tejidos y/o hojas de nanomateriales de carbono, lo que indica que son utilizados actualmente por hospitales. Lo anterior, permite entender cuáles son las características principales de estos tratamientos para evaluar su efectividad.
Al tratarse de un trabajo extenso, se realizó una exhaustiva revisión de la información para poder enviar el artículo de revisión a arbitraje en una revista científica. Por esta razón, se podría considerar que el producto de esta investigación permitirá que estudiantes e investigadores de carreras profesionales afines a biomedicina puedan contar con un documento que les permita apreciar el potencial de los nanomateriales de carbono para la generación de nuevos biomateriales. Se espera que esta contribución permita detonar ideas para nuevas investigaciones, que conduzcan a biomateriales más eficientes y biocompatibles para su aplicación en el cuerpo humano.
REFERENCIAS
1. López-Zalduendo Zapater L. Aplicaciones en medicina de los nanomateriales de carbono. Santander, España; 2017 Jun.
2. Hasirci V, Hasirci N. Carbon as a Biomaterial. In: Fundamentals of Biomaterials. Springer New York; 2018. p. 83-94.
3. Augustine S, Singh J, Srivastava M, Sharma M, Das A, Malhotra BD. Recent advances in carbon based nanosystems for cancer theranostics. Vol. 5, Biomaterials Science. Royal Society of Chemistry; 2017. p. 901-52.
Herrera Dueñas Veronica Maria, Universidad Autónoma de Baja California
Asesor:Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez
DESARROLLO DE PLATAFORMAS EXPERIMENTALES PARA SIMULAR VUELOS DE VEHíCULOS AéREOS TIPO HELICóPTERO.
DESARROLLO DE PLATAFORMAS EXPERIMENTALES PARA SIMULAR VUELOS DE VEHíCULOS AéREOS TIPO HELICóPTERO.
Herrera Dueñas Veronica Maria, Universidad Autónoma de Baja California. Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez
PLANTEAMIENTO DEL PROBLEMA
Son tantas las circunstancias a las que puede enfrentarse una aeronave en un vuelo real, que es necesario recrearlas para que sus desarrolladores puedan estar preparados en cualquier momento, por eso un simulador de vuelo es fundamental. En este proyecto se implementaron prácticas de control basadas en el modelo del helicóptero CE 150.
El modelo simula un helicóptero con horizontal y cola, rotores para controlar el pitch y yaw. Medida de sensores los ángulos de pitch y yaw. El sistema de control debe mantener el helicóptero estable y permitir un cambio en el centro de gravedad.
La finalidad de este proyecto es brindar una alternativa para aproximarse a la realidad de control a través de experiencias reales.
METODOLOGÍA
Para el diseño mecánico del helicóptero se utilizó el software SOLIDWORKS, el modelo del helicóptero es un sistema dinámico multivariable con 3 entradas (ángulo de elevación, ángulo de azimut y centro de gravedad) que pueden ser modificadas y 2 salidas que son la lectura de ángulos en los que se encuentra el sistema.
Planeamos optimizar este diseño y añadirle nuestras aportaciones, en nuestro caso la cola está por aparte de la cabina (debido a limitaciones en la impresora 3D) para que ésta se pueda extraer y poder introducir una batería, y la cola es biparte para que se puedan esconder las ESCs del helicóptero.
CONCLUSIONES
El proyecto ya está terminado y su funcionamiento es el esperado. Al momento se planean realizar unos cuantos cambios más en la estética del mismo, sin embargo, es necesario seguir trabajando en él para optimizarlo funcional y estéticamente.
Considero que el proyecto tiene un gran equipo de trabajo pr lo que no fue complicado en absoluto cumplir con nuestras respectivas tareas.
Herrera Pinedo Alejandro David, Universidad de la Guajira
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PROCESADO Y ANáLISIS DE ACELERO GRAMAS EN LA ZONA DE RIOHACHA, COLOMBIA. PARA FINES DE INGENIERíA SíSMICA.
PROCESADO Y ANáLISIS DE ACELERO GRAMAS EN LA ZONA DE RIOHACHA, COLOMBIA. PARA FINES DE INGENIERíA SíSMICA.
Herrera Pinedo Alejandro David, Universidad de la Guajira. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia, el planeta tierra siempre se ha enfrentado a catástrofes naturales, que a la larga son parte de nuestro sistema natural, pero pueden verse como recursos negativos. Los fenómenos naturales son parte de un problema ambiental que atrae la atención de muchas personas, alterando los ecosistemas, agravando su degradación y reflejando el daño humano al medio ambiente y potencialmente a un gran número de personas (Reservados, 1991). Uno de estos desastres naturales son los sismos, capaces de destruir una ciudad entera en un lapso de tiempo muy corto, dependiendo de su magnitud e hipocentro con respecto a la superficie terrestre.
Estos terremotos son causados por la acumulación de energía y tensión entre las placas tectónicas. En los registros de sismos a nivel mundial, el primer lugar lo obtiene el "Anillo o cinturón de fuego del Pacífico" este; Está ubicado en la costa del Pacífico, presenta una concentración de las zonas de hundimiento de las placas litosféricas más importantes del mundo. Estas zonas de subducción provocan una intensa actividad sísmica y volcánica en países de América del Sur como Colombia, Chile, Argentina, México y Ecuador. Entre otros(Cinturón de Fuego Del Pacifico, 2018)..
En Colombia se han registrado sismos de gran importancia, que han causado desastres estructurales y no menos importantes que la perdida de vidas humanas, el país a avanzado en el transcurso de los años, más sin embargo hay muchas zonas del país que no se encuentran preparadas en la parte sismorresistente para enfrentar un sismo de grande magnitud, recordando que aún no es posible determinar el lugar y momento exacto donde ocurrirá dicho desastre natural, que además es uno de los fenómenos que no está relacionado con las condiciones climáticas. Haciendo relación con las zonas que no se encuentran mejor preparadas para afrontar un fenómeno de gran magnitud, se ubica en las primeras casillas el Departamento De La Guajira, el cual posee limitadas estaciones que ofrecen datos de acelero gramas registrados a lo largo de los años, lo cual hace que los calculistas de dichas estructuras no tengan una base de datos para ofrecer un factor de seguridad, rigiéndose por la experiencia y por datos sísmicos de otras zonas, muchas veces ignorando la geología del suelo.
METODOLOGÍA
Se realizó una búsqueda de registros sísmicos en Colombia, en bases de datos públicas; posteriormente se identificaron los registros sísmicos disponibles; en forma paralela se instaló y se aprendió a utilizar el programa seismograms Analyzer-e; este último programa se utilizó para procesar y analizar los registros sísmicos; finalmente se obtuvieron gráficos producto del procesado de los acelerogramas de los cuales se hizo un análisis y se determinaron ciertas conclusiones para el estudio de esta investigación.
La zona de estudio seleccionada para esta investigación fue Riohacha-La Guajira, Colombia. Es una zona donde eventualmente han ocurrido pocos sismos, pero de magnitudes considerables que pueden causar grandes daños sino se encuentran preparados estructuralmente. En los años 2004, 2013 y 2017. Fueron registrado según la Red Sismológica Nacional de Colombia, sismos mayores a 4.5 Mw e inferiores a 5.2 Mw(Sismología, n.d.) lo cual; A una corta profundidad con respecto a la superficie terrestre, podrían causar grandes daños. Afortunadamente el menor hipocentro ocurrió en el año 2013 fue a 56 (Km).
CONCLUSIONES
De acuerdo con los datos analizados las aceleraciones que pueden afectar a los edificios en esta región de Colombia pueden ser importantes, por lo tanto, es valioso instalar más estaciones con el fin de obtener más registros sísmicos de la zona, esto con el fin de ofrecer información de utilidad a los diseñadores de edificios.
Herrera Virgen Jesus Manuel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
MODELADO Y SIMULACIóN DE ROBOTS MóVILES CON ARQUITECTURA DIFERENCIAL
MODELADO Y SIMULACIóN DE ROBOTS MóVILES CON ARQUITECTURA DIFERENCIAL
Herrera Virgen Jesus Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Actualmente vivimos en un mundo lleno de tecnología, el avance sobre este entorno tecnológico nos lleva a la necesidad de resolver problemas de adaptación e innovación de prototipos robóticos que nos permitan tener un fácil acceso a diferentes tipos de tareas a elaborar por parte del ser humano. Nuestra problemática gira entorno a la aplicación de simulaciones en interfaces digitales para entender el desarrollo de la robótica móvil, existen configuraciones clásicas de robots móviles como lo son el tipo diferencial, triciclo, ackerman, skid steer. Es de suma importancia conocer, desarrollar y describir el modelo matemático; para así poder entender el funcionamiento correcto de las configuraciones de cada robot y lograr un aprendizaje apto para la manipulación de dichos robots. Durante el verano de investigación se buscó resolver la problemática que engloba el desarrollo de un robot tipo diferencial, se planteó un modelo matemático que describiera el comportamiento del robot diferencial y así también realizar diferentes tipos de simulación vinculando un software de análisis numérico con software de análisis multi cuerpo para obtener resultados viables sobre el uso de trayectorias que nuestro robot tiene que seguir.
METODOLOGÍA
La metodología seguida durante la estancia contempló las siguientes etapas:
Revisión del estado del arte.
En esta etapa se realizó una investigación sobre la robótica móvil para comprender los conceptos fundamentales y conocer las diferentes configuraciones existentes, así como sus principales aplicaciones. Por otra parte también se realizó un revisión de diferentes aplicaciones de análisis numérico tales como: LabVIEW, MATLAB, jLab, Scilab y aplicaciones de análisis multi cuerpo como: Ansys, SolidWorks, Fusion 360 y Adams
Estudio de requerimientos.
En esta etapa se hizo una comparación de las principales configuraciones de robot móviles así como una comparación de las diferentes aplicaciones de análisis numérico y análisis multi cuerpo para seleccionar el tipo de robot a estudiar y el tipo de software con el que se va a trabajar.
Diseño conceptual.
Se propuso un modelo matemático con las principales características y configuraciones que describieran el comportamiento del robot móvil tipo diferencial. Se eligieron los siguientes softwares para desarrollar nuestro diseño, control, modelo y simulación del robot: MATLAB, SOLIDWORKS y ADAMS. Con dichos programas se buscó la generación y parametrización de trayectorias y simulación de distintos tipos de terreno como pruebas.
Diseño detallado.
En esta etapa se realizó una vinculación de software de análisis numérico con software de análisis multicuerpo. Primero se creó el diseño del robot en SOLIDWORKS, al tener nuestro robot en visualización 3D y con un estudio de movimiento realizando un análisis de cálculo, se procedió a exportarlo a ADAMS para configurar las relaciones de movimiento, entradas y salidas de nuestra planta para así pasar a la vinculación de ADAMS con MATLAB, se exportó el modelo y se crearon bloques enlazados entre sí para vincular el control PID, el modelo matemático y la planta de nuestro robot.
Salidas del proceso.
Esta última etapa se obtuvo con los resultados de simulación calculados desde la interfaz de MATLAB, se propusieron trayectorias que el robot debe de seguir en un espacio de terreno establecido por el usuario y así poder visualizar el comportamiento del robot desde ADAMS y las gráficas obtenidas del modelo matemático con el control PID desde MATLAB.
CONCLUSIONES
Se puede concluir satisfactoriamente con la investigación realizada durante la estancia de verano, en estas semanas se adquirieron conocimientos de suma importancia. Dichos conocimientos basados en el área establecida de investigación, nos permitieron desempeñar de manera concreta la implementación, desarrollo y creación de nuestro robot móvil y así poder lograr una comparación de resultados entre los dos softwares y concretar las pruebas de desempeño en las simulaciones realizadas.
Higuera Hernández Jimena, Universidad Veracruzana
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
CáSCARAS DE HUEVO DENTRO DE LA CONSTRUCCIóN
CáSCARAS DE HUEVO DENTRO DE LA CONSTRUCCIóN
Higuera Hernández Jimena, Universidad Veracruzana. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
Estudiante: Higuera Hernández Jimena, Universidad Veracruzana
Actualmente la industria de la construcción es una de las más importantes del mundo, pero también una de las más contaminantes, siendo responsable del 8.0% de las emisiones de CO2 a la atmósfera, así mismo el uso de diversos materiales como lo son el acero, concreto, madera, ladrillo, entre otros, provoca un grave impacto hacia el planeta.
Según diversos estudios, la fabricación de los materiales precisos para construir un metro cuadrado de una edificación estándar puede suponer la inversión de una cantidad de energía equivalente a la producida por la combustión de más de 150 litros de gasolina. Cada metro cuadrado construido conllevaría una emisión media de 0,5 toneladas de dióxido de carbono y un consumo energético de 1600 kWh(Zebalza Bibrían et al., 2019)
Por lo que este sector busca actualmente alternativas para disminuir el impacto hacia el ambiente, creando y diseñando más opciones de materiales con menor impacto que puedan complementar o reemplazar materiales tradicionales.
METODOLOGÍA
En el año 2015 se realizó una investigación por parte de los estudiantes de ingeniería civil de la Universidad del Norte en Barranquilla Colombia, Estiven Frías, Francisco Gómez y Viandy Bravo, donde ellos propone el reemplazo de materiales de la mezcla del cemento por alguno elementos orgánicos, en específico por cáscaras de huevo.
Se realizó un proceso de incineración de las cáscaras de huevo para así suprimir todos los residuos orgánicos presentes y se procedió a incorporar este material dentro de la mezcla del concreto; Lo máximo que podemos reemplazar es 5% sin perder la funcionalidad del cemento y lo podemos utilizar por ejemplo para acabados, mortero de pega, detalles en la construcción que no tengan un función estructural(Caiceso Ucros, n.d.)
Ahora la institución señala que su próximo objetivo es encontrar otro residuo agroindustrial reutilizable que cuenta con las propiedades óptimas para conseguir reemplazar el 15% de calcio utilizado en el cemento, esto sin afectar las propiedades de resistencia.
Tan solo México es el principal consumidor de huevo fresco a nivel mundial y es considerado como el cuarto productor de huevo a nivel mundial, solo para cubrir la demanda nacional de producen 2.77 millones de toneladas anualmente y el consumo per cápita del mexicano es de 28 kg anuales lo que es un huevo al día por habitante, ahora bien todos los residuos generados por la industria avícola y por el consumo de huevo de los habitantes terminan en los residuos sanitarios cuando la vida útil de este residuo puede continuar dentro de la industria constructora.
Así mismo la extracción de calcio de la tierra supone la explotación con grandes canteras lo cual es un proceso altamente contaminante, incluso más agresivo que la construcción misma, también cabe recalcar que no solo afecta al ambiente, sino que también se extrae un recurso no renovable.
A su vez la estudiante Laura Daniela Ochoa Talero de la carrera de ingeniería civil representó a la Universidad de La Sabana de Cundinamarca, Colombia con la presentación de mortero hecho a base de cáscara de huevo.
Utilizó cáscaras de huevo para sustituir el cemento en la mezcla de mortero la cual normalmente está hecha a base de agua, cemento y arena; ella menciona El cemento es un elemento altamente contaminante, por eso empecé a investigar otras alternativas. Identifiqué que las propiedades de las cáscaras de huevo concuerdan con las propiedades del cemento, pues tienen las mimas características en cuanto al calcio, y eso es lo que le da la resistencia.(Universidad de La Sabana, 2019)
En orden para probar la funcionalidad del material propuesto se llevaron a cabo distintas pruebas correspondientes donde se obtuvo como resultado que la mezcla con cáscara de huevo logró tener un 18% más de resistencia que la mezcla tradicional.
La sustitución del carbonato de calcio extraído de la tierra por el calcio perteneciente a las cáscaras de huevo conlleva además importantes beneficios ambientales a largo plazo, entre ellas la reducción de 3,72 toneladas de dióxido de carbono al año, 106.500 m3 de material particulada, la disminución sobre el consumo de agua de aproximadamente 23 millones de litros al año, así como ahorro energético de 4,6 millones de kWh al año.
Cabe mencionar que este no es el único uso del huevo dentro de la construcción ya que con la llegada de los españoles para evangelizar América trajo consigo la construcción de muchas iglesias donde las claras de huevo jugaban un papel importante dentro del sistema constructivo, las claras de huevo proporcionaban ciertas propiedades a la mezcla utilizada en la construcción para prolongar su duración, creando el mismo efecto sobre ella que el de un aditivo para concreto.
CONCLUSIONES
A lo largo de la estancia en el verano de investigación pude aprender sobre el uso de residuos dentro de los materiales de construcción lo cual incentivó mi curiosidad para la búsqueda de nuevas alternativas que salieran de lo convencional con lo que se llegó a este trabajo.
El descubrimiento de las propiedades de las cáscaras de huevo y que pueda reemplazar hasta un 5% del calcio total utilizado en el concreto puede parecer poco, pero esto abre un gran panorama macro industrial cuyo impacto puede ser enorme en la disminución de contaminación, además de que este proceso sigue el patrón de una economía circular donde se reutilizan los recursos que son desechados para así prolongar su vida útil; así mismo esto significa la disminución de extracción de ciertos recursos naturales de la tierra, en este caso el calcio.
Así que esto abre las puertas a un sinfín de oportunidades de investigación sobre los nuevo materiales sustentables destinados a la industria de la construcción y que así mismo puedan cumplir con las necesidades estructurales de las edificaciones.
Hinojosa Esquivel Melissa Pamela, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
INTENSIFICACION DE LA EXTRACCIÓN DE COMPUESTOS ORGÁNICOS PARA LA PRODUCCIÓN DE PRODUCTOS DE VALOR AGREGADO
INTENSIFICACION DE LA EXTRACCIÓN DE COMPUESTOS ORGÁNICOS PARA LA PRODUCCIÓN DE PRODUCTOS DE VALOR AGREGADO
Hinojosa Esquivel Melissa Pamela, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
Un biocombustible es cualquier combustible líquido o gas que se produce en su mayoría a partir de biomasa. Los biocombustibles son importantes porque sustituyen de manera parcial o total a los combustibles derivados del petróleo. Los biocombustibles tienen muchas ventajas como su disponibilidad y la reducción de emisiones de gases de efecto invernadero. Además, de que su uso representa un impacto positivo en el medio ambiente, económico y social debido a que son biodegradables y ayudan a la sostenibilidad.
Los problemas más importantes que se deben abordar en la actualidad con respecto a la contaminación son: la gestión de desechos, el cambio climático, efectos en la salud, entre otros. Por ende, en los últimos años se ha tenido un interés en el uso de residuos como una fuente alternativa en la generación de productos de valor agregado. El uso de desechos como materia prima para producir combustibles puede ayudar a mitigar sus propiedades nocivas y al mismo tiempo generar energía para su uso y/o consumo. Por lo que el aprovechamiento de los lodos para generar productos de valor agregado ha aumentado en los últimos años. No obstante, debido a la presencia de varios compuestos y su alto contenido de agua, aún es necesario hacer esfuerzos científicos y tecnológicos para determinar las mejores condiciones de operación en la separación de cada compuesto de interés. Por tanto, este trabajo se enfocó en la recuperación de lípidos y el efecto que tienen las condiciones de mezclado en el proceso de extracción e identificar los compuestos apolares contenidos en los lodos residuales por cromatografía. Finalmente, se realizaron pruebas de purificación de biodiesel con adsorbentes generados a partir de residuos agroindustrial.
METODOLOGÍA
Para determinar la eficiencia de extracción en diferentes condiciones de mezclado, se utilizaron 3 agitadores de diferente tamaño en dos frascos de diferente volumen (500 y 250 mL). En los frascos se mezclaron 55 g de lodo deshidratado con 50 mL de hexano y un agitador magnético. Las condiciones fueron atmosféricas (P y T) en agitación de 400 rpm durante 1 h. Después del mezclado, se observaron dos fases, una ligera que fue recuperada por succión e introducida en un recipiente previamente pesado. Una vez removida la fase ligera, se agregaron nuevamente 50 mL de hexano puro a los frascos con el lodo y fueron sometidos nuevamente a mezclado. El proceso se repitió por tercera ocasión. La fase ligera obtenida de las tres etapas de extracción fue centrifugada para separar los sólidos (jabones de calcio) de la fase líquida. La fase de hexano fue sometida a un proceso de destilación, seguido de un proceso de secado por vacío. El proceso de recuperación de lípidos se realizó por duplicado. El proceso de extracción se repitió para cada tipo de agitador (chico, mediano y grande) para los frascos de diferente volumen. También, se realizó un proceso de extracción incrementando la temperatura a 50 °C únicamente en los frascos de mayor volumen (500 mL). Los resultados se observaron en graficas durante las videoconferencias.
Separación por cromatografía de los lípidos apolares obtenidos en lodos residuales. 2 g de lípidos apolares extraídos de lodo de agua residual se mezclaron con 1.16g de metanol y 2 gotas de H2SO4. La reacción se llevó a cabo por ultrasonido a 35 °C durante 1 h. En una microcolumna cromatográfica empacada con silica gel se le introdujo la mezcla de lípidos con hexano. La parte móvil de la separación cromatográfica fueron 5 soluciones de componentes orgánicos, todas las mezclas estaban entre hexano, etanol, metanol y ácido acético. Todos los experimentos fueron de manera virtual, donde un estudiante de posgrado realizó los experimentos y mantuvo comunicación con los integrantes para discutir los datos obtenidos en los experimentos.
CONCLUSIONES
A partir de los datos experimentales obtenidos y de la literatura revisada durante la estancia virtual se discutió sobre el proceso de extracción de los lípidos contenidos en los lodos residuales primarios, los cuales se recuperan por medio de un extractante apolar. Se demostró que los factores que afectan el proceso de extracción fueron el tamaño de agitador, el tamaño de recipiente y la temperatura, en ese orden específico. Esto debido a que se identificó una relación entre el efecto de mezclado y el comportamiento mecánico de los fluidos involucrados, donde el tamaño del agitador tiene una influencia considerable en el contacto íntimo de ambos fluidos. En cuanto al recipiente, su forma geométrica tuvo un efecto en el proceso de mezclado; ya que, aunque el área de contacto es mayor en un recipiente grande, el vórtice o la zona de mezclado fue de menor volumen con respecto al recipiente de volumen menor, debido a que se generaban zonas donde el momento era nulo. Dichas zonas iban aumentando conforme aumentaba la distancia del agitador hacia las paredes. En consecuencia, estas zonas tenían mayor transferencia de masa por difusión que por convección forzada dado a que no se rompía la resistencia a la deformación para cada delta r que se tiene entre la pared del recipiente y el vórtice generado por el agitador. Por último, la temperatura es un factor que ayuda a romper la resistencia a la deformación generado un vórtice mayor y por consiguiente mayor interacción entre las fases. Por tanto, con lo expuesto anteriormente el diseño del mezclador intensifica la extracción de compuestos orgánicos, los cuales es fundamental para su implementación a nivel industrial.
Es de importancia realizar la separación de compuestos apolares contenidos en aguas residuales para su uso especifico tanto en la industria donde se pueden utilizar los lubricantes y las ceras. Mientras que, los biocombustibles pueden ser útiles para el sector de transporte.
Hoy Canul Eduardo Azael, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
SISTEMAS ILSS: PODOTáCTILES LUMíNICOS SOSTENIBLES
SISTEMAS ILSS: PODOTáCTILES LUMíNICOS SOSTENIBLES
Bedolla Mondragón Luis Fernando, Instituto Tecnológico Superior de Uruapan. Hoy Canul Eduardo Azael, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El Sector Cerro Cachito es un asentamiento de la ciudad de Pachacútec de Ventanilla que fue fundada en el año 2003. Pese a su resiliencia de los pobladores el sector vive en un asentamiento arenoso con dunas empinadas generadas por los fuertes vientos y no cuenta con un sistema completo de pavimentación, ni de lugares equipados o accesibles para las personas con discapacidad que viven en dicho lugar, esto hace imposible la movilidad de un lugar a otro, por lo que les impide tener una propia autonomía, un difícil acceso de lugares y sobre todo a los lugares de trabajo haciendo que los ingresos económicos sean menores.
Bajo un estudio realizado por Jóvenes de la Universidad César Vallejo, nos percatamos que existen 12 personas con alguna discapacidad entre ellos las personas con problemas visual representan un 20%, físico motriz un 55%, mental intelectual un 25%. Este grupo olvidado son quienes más se ven perjudicados en este asentamiento debido a las condiciones del lugar.
METODOLOGÍA
Esta investigación es de un enfoque cualitativo y cuantitativo, experimental con un alcance correlacional. La mayor parte de la investigación fue a partir de observaciones, reportajes, entrevistas, estudio de campo y documental que nos proporcionaron estudiantes de la UCV de Perú.Por nuestra parte la investigación recabada fue a partir de ensayos, trabajos de investigación de materiales, documentales, reportajes entre otros métodos de recolección, para comprender y de esa manera elaborar nuestro proyecto de investigación.
Gracias a la información que se recabó, logamos ubicar las carencias y la situación en las que viven; así como, las conductas y hábitos que tienen respecto a consecuencia de las condiciones que viven. Aún más por la complejidad que contrajo la pandemia por COVID-19, implicó riesgos en salud y economía, debido a que la gran mayoría de la población generaba ingresos con empleos informales dando como resultado no poder cubrir necesidades básicas.
De esa manera se plantea el sistema ILSS que posee los siguientes enfoques:
Inclusivo, al adecuar las vialidades para personas discapacitadas; principalmente en el sector con discapacidad visual, al ser podotáctiles; lumínico, debido a que es un producto que ayuda a identificar las vialidades y contribuir al ahorro energético; seguro, al aumentar la seguridad de todos los participantes del asentamiento; sostenible, al reducir contaminantes y aumentando la eficiencia energética.
Los sistemas son propuestos como piezas prefabricadas debido a que su producción es ajena al sitio de instalación.
Se propuso utilizar conos de huevo de cartón como moldes (con medidas de 30x30cm) que se rellenarán de resina epóxica, para reducir el volumen de resina usamos botellas de PET en trozos, así como sus tapas, también se usó para el funcionamiento de los podotáctiles; para advertir sobre zonas de peligro (STOP), y zonas de seguimiento (GO). Por cuestión de luminiscencia y seguridad se propone la utilización de pigmentos fluorluminiscentes.
Los moldes con sus estructuras cónicas dan una mejor sujeción al terreno. Esto también implica un costo de producción muy bajo, accesible para los residentes del asentamiento para que puedan generarlos y desarrollar un mercado sostenible.
En el primer proceso de producción no conseguimos los resultados esperados. Se colocaron los moldes en donde se vaciaron los trozos de botellas de PET, se acomodaron de tal manera que quedaran en la parte de la punta del cono, esto para aprovechar su resistencia a la sujeción del terreno, así mismo, se acomodó una tapa de las mismas botellas para reducir la cantidad de resina. Luego, se procedió a realizar la resina epóxica casera, vaciando una cantidad de 100 ml de alcohol etílico al 70% y 100 ml de silicona fría. Se consiguió revolver a su totalidad para poder y se vació en los conos del molde. Respectivamente, los conos de huevo absorbieron la mezcla y desechándola como si fuese un filtro.
En el segundo proceso de producción se realizó el mismo acomodo, siendo la diferencia las cantidades de 150 ml de silicona fría y 50 ml de alcohol etílico, añadiendo un forro de los conos interiormente por medio de bolsas de plástico, esperando a que conservara la forma y se llevara a cabo las reacciones químicas adecuadas. El resultado que obtuvimos fue que la mezcla no se secó, quedando en un estado líquido.
Dentro de la investigación se plantea como aprovechamiento de la energía mecánica generada por las personas en los podotáctiles, integrar un circuito de piezoeléctrico dentro de cada baldosa podotáctil esto con el fin de generar energía eléctrica. Este sistema se plantea alterno a lugares en dónde la radiación solar no es lo suficiente como el caso de Cerro Cachito, incluso la viabilidad aumenta al investigar que el 75% de las personas que residen en ese lugar se desplazan a pie. Este sistema se integra por conexiones en serie y paralelos, que serán interconectados entre sí para que la energía eléctrica generada sea almacenada para un posterior uso, ayudando así a la movilidad segura de las personas con problemas visuales y físico-motriz del lugar. Entre las principales aplicaciones del almacenamiento energético es abastecer a un sistema de alarma, para la seguridad del lugar o como alternativa a un sistema de iluminación.
CONCLUSIONES
La investigación ayudó a ampliar la visión y comprender la realidad del mundo en el que vivimos, se trata de conocer y entender las situaciones distintas que cada persona vive. Los conocimientos, las experiencias, el intercambio de culturas y hábitos, las herramientas nuevas para el desarrollo y la comunidad apremia el poder crecer como estudiante, como persona y como humanidad. La parte experimental nos ayudó a conocer de mejor manera el cómo proceder para conseguir el producto deseado, planteando utilizar Bisfenol A y Epiclorohidrina, para hacer la mezcla y recabar los resultados a obtener.
Huerta Espinoza Marcelo Alejandro, Instituto Tecnológico de Tepic
Asesor:Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
CONTROL Y MODELADO DE DRONES AéREOS E HíBRIDOS.
CONTROL Y MODELADO DE DRONES AéREOS E HíBRIDOS.
Granados Jiménez Priscila Daniela, Instituto Tecnológico de Tepic. Huerta Espinoza Marcelo Alejandro, Instituto Tecnológico de Tepic. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Desarrollo de un algoritmo de control de vuelo, movimiento y dirección de un cuadrirrotor utilizando Matlab Simulink
METODOLOGÍA
Se presentan una serie de ecuaciones que describen un sistema de control para el vuelo de un cuadrirrotor, su movimiento en x y y y la dirección en roll pitch y yaw.
Se utilizo un control PID para la estabilidad en vuelo Hover del cuadrirrotor. Posteriormente, dadas las ecuaciones del movimiento se utilizó un control en paralelo para el movimiento de x y y, dado que este movimiento este acoplado con roll y pitch.
Finalmente se utilizó un arreglo matricial para delimitar las magnitudes de las velocidades angulares de los motores, así mismo utilizando una matriz de rotación para el traslado en yaw mientras existe un movimiento en x y y.
CONCLUSIONES
Encontramos como primera conclusión que el algoritmo no funciona correctamente sino se presentan los cálculos para las saturaciones de los motores del sistema.
Concluimos también que las diferentes técnicas para utilizar los controladores pueden ser utilizadas sin excepción con controladores PID.
A su vez también encontramos que es indispensable que se utilicen las saturaciones para los motores, así como la matriz de rotación en Yaw, de lo contrario el modelo será disfuncional o muy poco eficiente.
Huerta Rocha Marisol Jacqueline, Universidad de Guadalajara
Asesor:M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa
CELDAS SOLAR-PLUVIALES DE GRAFENO
CELDAS SOLAR-PLUVIALES DE GRAFENO
Huerta Rocha Marisol Jacqueline, Universidad de Guadalajara. Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa
PLANTEAMIENTO DEL PROBLEMA
Nuestra economía y matriz energética están basadas en los combustibles fósiles, los cuales no están distribuidos de forma equitativa en el globo terrestre, haciendo que el acceso a estas fuentes de energía se obstaculice para muchas zonas. Además, los combustibles fósiles, debido a su composición y manejo, son los principales responsables de la generación de CO2 y de otros gases causantes del efecto invernadero, fenómeno que está elevando la temperatura de la superficie terrestre.
Por lo ya mencionado, se han estado buscando nuevas alternativas para cubrir la demanda energética, tal es el caso de la energía fotovoltaica que forma parte fundamental de esa estrategia. A pesar de los grandes avances que se han alcanzado en dicha área, existe el problema de que las celdas solares conocidas solo pueden ser excitadas por la luz solar en los días soleados o, por lo menos, la generación de electricidad disminuye considerablemente en los días lluviosos.
Debido a la importancia de elevar la generación y eficiencia de los paneles solares en los días lluviosos, se decidió realizar la revisión de un artículo publicado en la revista Angewandte Chemie, desarrollado por un grupo de científicos chinos que idearon una celda solar para todo clima que promete satisfacer la creciente demanda de energía. La celda mencionada integra un electrodo enriquecido en electrones para que existan salidas de señal eléctrica en lo días lluviosos, con una celda solar sensibilizada por colorante (DSSC) para conversión fotoeléctrica en días soleados.
METODOLOGÍA
Al inicio de la investigación se eligió el tema a indagar y se definió que el trabajo a realizar sería una revisión de un artículo científico ya publicado, posteriormente se definieron las secciones que el trabajo contendría, iniciando por la definición del título, la redacción del objetivo general, la introducción, el planteamiento del problema, el fundamento teórico, seguido por la metodología, para culminar con las conclusiones.
Posteriormente, se buscaron 20 artículos relacionados con el tema seleccionado y se eligió uno. El siguiente paso fue estructurar el fundamento teórico de los conceptos más importantes que abordaron Tang, Wang, Yang y He en el 2016, por lo que se definió que primero se hablaría de las características del grafeno, posteriormente de sus propiedades, seguidas de la definición de célula solar sensibilizada con colorante (DSSC). Los siguientes subtemas abordarían las definiciones de óxido de grafeno reducido, ácido-base de Lewis y reacción redox.
Una vez definidos los subtemas, se comenzó con la búsqueda de bibliografía científica relacionada con cada uno de los elementos del fundamento teórico. La información se obtuvo principalmente de revistas científicas universitarias y de artículos publicados en revistas indexadas dentro de buscadores como Wiley Online Library, IEEE Xplore y ScienceDirect. A continuación, se hizo una selección de la información encontrada, para después extraer las ideas principales y plasmarlas dentro del fundamento teórico.
El siguiente paso fue redactar los principales resultados obtenidos por los autores en la publicación mencionada. Para lo anterior, se requirió citar y referenciar de acuerdo con el formato de la IEEE, por ello se hizo uso de un generador de referencias en la web.
Por último, se estableció que nuestra investigación abona a la consecución del ODS 7: energía asequible y no contaminante, pues aborda la mejora de tecnología para prestar servicios energéticos que sean modernos y sostenibles, así también, este trabajo promueve el acceso a la investigación y a la tecnología relacionadas con energía limpia.
CONCLUSIONES
Debido a las condiciones sanitarias, no fue posible realizar un trabajo práctico, sin embargo, a partir de la teoría se logró describir el funcionamiento de una celda que se activa con la luz solar y por las gotas de lluvia, integrando una película de óxido de grafeno reducido a una celda solar sensibilizada por colorante, resultando en la generación de electricidad por la radiación solar y la generación de corriente por la formación de pseudo-condensadores eléctricos con doble capa de catión π-electrón.
Los investigadores obtuvieron resultados positivos al combinar la película de rGO con las gotas de lluvia simuladas debido a las interacciones ácido-base de Lewis, produciendo una corriente que puede aumentarse o disminuirse al modificar la velocidad, la distancia y la concentración de las gotas de lluvia.
A pesar del bajo porcentaje de eficiencia frente a las convencionales, que suelen ser del 22%, las nuevas celdas solares resultan prometedoras para la producción de electricidad mediante la lluvia, por lo que esta investigación es clave para el desarrollo de futuras tecnologías en el área de la energía solar, que funcionen de forma constante para todo tipo de climas e incrementen el acceso a fuentes de energía renovables.
Hurtado Serafin Marlen Jocelyn, Instituto Tecnológico Superior de Los Reyes
Asesor:Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional
INSTRUMENTO PARA RECOLECTAR EVIDENCIAS QUE SE PUEDEN PRESENTAR EN UNA AUDITORíA RESPECTO A LOS REQUISITOS DE LA NORMA ISO 9001:2015
INSTRUMENTO PARA RECOLECTAR EVIDENCIAS QUE SE PUEDEN PRESENTAR EN UNA AUDITORíA RESPECTO A LOS REQUISITOS DE LA NORMA ISO 9001:2015
Hurtado Serafin Marlen Jocelyn, Instituto Tecnológico Superior de Los Reyes. Asesor: Mg. Daniel Esteban Salas León, Fundación Universitaria Colombo Internacional
PLANTEAMIENTO DEL PROBLEMA
Actualmente las organizaciones que deseen adaptarse a la globalización, deberán de asumir los retos que les impone el mercado al exigir calidad en sus productos o servicios, es por ello que se ven en la necesidad de recurrir a certificarse bajo la norma ISO 9001. Como se sabe, esta norma ha sufrido una serie de actualizaciones a través del tiempo, siendo la versión 2015 la más actual, misma que incluye nuevos retos, conceptos, enfoques y énfasis.
La norma ISO 9001:2015 unió los conceptos de documento y registro, en información documentada para mantener y conservar, pero dejó a la organización la libertad de definir qué conserva y qué mantiene, según sean sus necesidades. En este escenario, en la práctica no solo se debe definir qué se conserva y qué se mantiene, sino cómo y por cuánto tiempo, teniendo en cuenta el tipo de soporte (Puentes, 2017, p. 84).
Sin duda alguna, el cumplimiento de los requisitos de la versión actual de la norma significa un desafío para las organizaciones, debido al entorno dinámico, cambiante y competitivo en el cual desarrollan sus actividades de trabajo rutinarias.
Además, es importante destacar que en el caso de la norma ISO 9001:2015 la cantidad de requisitos exige mayor atención al momento de verificar su cumplimiento donde se hace necesario disponer de un mecanismo eficaz para comprobar el acatamiento global de esta norma (Torres, Malta y Olivares, 2020, p. 2). Ante esta situación, surgió la necesidad de elaborar una encuesta que ayude a la recopilación de evidencias que presentan las organizaciones al momento de una auditoria, con el fin de construir un documento que ayude a las empresas que van a implementar esta norma.
METODOLOGÍA
Buscando estructurar una encuesta, donde a través del diseño de preguntas se logre identificar de qué manera evidencian la información las organizaciones respecto a los requisitos de la norma ISO 9001:2015, se desarrolló una metodología que incluye los siguientes pasos:
Revisión bibliográfica sobre el concepto de encuesta. Se identificaron diferentes fuentes bibliográficas, en las cuales el tema principal era la encuesta. A partir de ahí, fue posible reconocer a distintos autores que mencionaban el concepto que tenían acerca de la encuesta.
Exploración de diferentes fuentes documentales acerca de los tipos de encuestas. Se conocieron los distintos tipos de encuesta, con la finalidad de conocer cuales se adaptaban al propósito de esta investigación.
Definición del modelo a utilizar. Con la información previamente recolectada en el paso anterior, fue necesario elegir el modelo de encuesta a utilizar, evidentemente se eligió dependiendo del objetivo principal.
Conocer los requisitos de la norma ISO 9001:2015. Fue sumamente necesario comprender de qué trata y sobre todo que exige la norma, así de esta manera fue más sencillo el desarrollo de la encuesta.
Diseño de la encuesta. En esta fase, siendo una de las más importantes, se estructuraron las preguntas en relación a los requisitos de la norma previamente identificados, es decir, se hicieron con base de los debes mencionados en dicha norma. Cabe resaltar, que las preguntas fueron diseñadas con el propósito de entender de qué manera evidencian la información precisamente acorde a cada uno de los requisitos de la norma ISO 9001:2015.
CONCLUSIONES
El resultado de esta investigación proporciona a manera de síntesis que la encuesta es un método que se utiliza ante la necesidad de recolectar o investigar datos para la obtención de una información específica. Por ende, se tomó a consideración el diseño de una encuesta como una propuesta a las organizaciones para que se puedan apoyar en ella y utilizarla como una herramienta de recolección de evidencias que pueden presentar en una auditoría respecto a los requisitos establecidos en la norma ISO 9001:2015.
Ibañez Salas Mario Alberto, Instituto Tecnológico de Tepic
Asesor:Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
INTERNET DE LAS COSAS
INTERNET DE LAS COSAS
Flores Domínguez Jesús Alberto, Instituto Tecnológico Superior de Huauchinango. Ibañez Salas Mario Alberto, Instituto Tecnológico de Tepic. Asesor: Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PLANTEAMIENTO DEL PROBLEMA
Actualmente seguimos viviendo una época de riesgo debido a la presencia del Corona-virus. Aunque poco a poco hemos ido saliendo de esto, y aún con la llegada de la vacuna, es indispensable seguir manteniendo el distanciamiento social para no recaer. Con el inicio de la nueva normalidad y con la reanudación de actividades presenciales, es de suma importancia contar con dispositivos que nos ayuden a mantener la sana distancia de manera eficiente y así, en conjunto con las otras medidas de prevención, asegurar un regreso más seguro y positivo. En el proyecto que se desarrolla en el verano de investigación se busca diseñar dispositivos IoT que nos ayuden a mantener la sana distancia en las aulas de clases, cumpliendo así el objetivo ya mencionado.
METODOLOGÍA
Para el desarrollo del proyecto se están utilizando sistemas embebidos como Arduino y ESP32. Primeramente, se diseñó un dispositivo que proporcionará un apoyo para mantener la distancia correcta entre el escritorio del profesor y los alumnos, para ello se utilizó una tarjeta Arduino Uno y 3 sensores ultrasónicos HC-SR04 los cuales están posicionados en una carcasa hexagonal pequeña de manera que cubren un ángulo de detección de casi 180 grados, en el cual son capaces de percibir la presencia de una persona a una distancia menor o igual a 1,5 metros. La función del dispositivo es activar una alarma, ya sea auditiva o visual, en el momento en el que alguien se acerque al profesor rebasando el límite de la sana distancia, haciendo así que éste se detenga o retroceda según sea el caso. La carcasa se diseñó en SolidWorks y la programación se hizo en Arduino IDE. Se hicieron varias pruebas para evaluar su comportamiento hasta que se encontró el modelo y programación más eficiente. El dispositivo está pensado para colocarse en el centro del escritorio del profesor, con los sensores hacia enfrente, donde deben estar los alumnos.
El segundo dispositivo, que aún está en proceso, es un cinturón, que también ayudará a mantener la sana distancia entre los alumnos y profesores, con la diferencia de que éste registrará los datos obtenidos en una base de datos a través de internet, y en los lugares con poca señal los datos se guardarán en una memoria microSD para después ser descargados. Este dispositivo funcionará con la tarjeta ESP32 ya que tiene conexión Wifi y tendrá solo 2 sensores HC-SR04, uno frontal y otro trasero, además contará con ubicación vía GPS. Los resultados que se esperan de este dispositivo, es garantizar que se mantenga eficientemente la sana distancia entre el personal de la escuela.
CONCLUSIONES
En este verano de investigación se ha aprendido a mejorar las técnicas en el uso de sistemas embebidos, así como técnicas de soldadura y montaje. También se espera aprender a trabajar con bases de datos de manera inalámbrica a través de internet. Cabe destacar que la funcionalidad de estos dispositivos es de suma importancia, ya que está en juego nuestra salud y se debe garantizar un regreso a clases presenciales seguro.
El ángulo de apertura del sensor HC-SR04 es pequeño, sin embargo, con tres sensores se cubrió de manera eficiente casi los 180° de rango, pero con el cinturón al solo tener dos sensores, de frente y trasero, existe un rango de aproximación por los costados. Otro punto a tener en cuenta es el ruido que a veces generan los sensores, no fue necesario ponerle un filtro ya que era mínimo, pero si se busca realizar un prototipo comercial debe tomarse a consideración.
Ibarra Murillo Jesus Alejandro, Universidad Tecnológica de Zinacantepec
Asesor:Dr. David Choque Quispe , Universidad Nacional José María Arguedas
SíNTESIS DE PELíCUAS COMESTIBLES DE MUCíLAGO Y ALMIDóN
SíNTESIS DE PELíCUAS COMESTIBLES DE MUCíLAGO Y ALMIDóN
Ibarra Murillo Jesus Alejandro, Universidad Tecnológica de Zinacantepec. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
En México 2018 se observó que la población de 5 a 11 años el 18% tiene sobrepeso y va aumentando el porcentaje a razón de la edad; en el grupo de 20 años o más el 42% de los hombres y el 37% de las mujeres presentan sobrepeso. Además, el INEGI (Instituto nacional de estadística y geografía) señala que la población que se ubica en zonas urbanas es afectada en mayor medida que la población en zona rural.
El Sobrepeso, es un estado premórbido de la obesidad y al igual que ésta se caracteriza por un aumento del peso corporal y se acompaña a una acumulación de grasa en el cuerpo, esto se produce por un desequilibrio entre la cantidad de calorías que se consumen en la dieta y la cantidad de energía (en forma de calorías) que se gasta durante las actividades físicas.
En México las 30 frituras más populares promedian un 47.76% en contenido graso, porcentajes que sobrepasan el recomendado por la OMS.
En respuesta a esta problemática se han buscado soluciones asequibles con bajo contenido graso y puedan servir como sustituto de las frituras ya sea en el tratamiento del sobrepeso o prevención.
Hay distintos métodos para la obtención de películas a base de biopolímeros, durante la investigación se explorarán variantes del método realizado por la Ing. Nelida del Rocio en su tesis titulada PROPIEDADES FÍSICAS Y MECÁNICAS DE UNA BIOPELICULA FORMULADA CON ALMIDÓN DE PAPA (Solanum tuberosum) Y MUCILAGO DE NOPAL (Opuntia ficus) para optimizar el proceso de obtención, buscando optimizar los recursos y tiempo de producción.
METODOLOGÍA
Se comenzó a seguir la metodología propuesta por Nelida del Rocio(2019) para la obtención del mucilago del nopal y del almidón de la papa, se obtuvieron las muestras del comercio local en la zona norte de la ciudad de Toluca en el estado de México, se realizó el tratamiento de las muestras siguiendo el siguiente procedimiento hasta llegar al medio acuoso.
Papa
Lavar las papas con agua potable
Cortar las papas en cuadros de aproximadamente 5Cm de diámetro
Las papas se molieron con una licuadora Oster junto con agua potable a razón de 1:1 (Volumen)
La solución se dejó decantar por aproximadamente 12hrs
El tratamiento en el laboratorio fue hacer un filtro con una muselina para obtener la mayor cantidad de almidón.
El almidón obtenido se dejó reposar por 48hrs en fase líquida a razón de 1:1(volumen)
La parte decantada se separó del resto de la solución, consistía en una fase bastante sólida y clara.
La fase solida se llevó a una estufa para ser secada, la temperatura tuvo un pico de alrededor de 5 min a 80° por lo que la muestra se quemó presentando un color café oscuro.
Nopal
Lavar el nopal con agua potable
Cortar el nopal en tiras de aproximadamente 1cm de largo por 5mm de ancho
Dejar reposar en agua razón de 1:1
Se separó la fase líquida de la fase sólida
Se hizo una solución con etanol al 70% y se decantó
La fase más pesada se separó para dejarla en la incubadora durante 24hrs a 60°C
Ya que se contaba con el conocimiento práctico se separaron los procesos para experimentar cada uno, primero fue la obtención del almidón de la papa, se repitió el proceso indicado en la tabla cambiando el último paso; se realizó en la incubadora a una temperatura de 65°C durante 24hrs, con eso se logró que la solución se secara y así llegar a la fase sólida.
La muestra ya en estado sólido paso a través de un tamiz de 350um, ya que el laboratorio de la UTZin no cuenta con el material para lo que se muestrearon telas para conseguir similitud a un tamiz de 350um, la muestra que se asemejó fue una tela tull que deja pasar un tamaño de poro de 320um aproximadamente (después de hacer escala en el microscopio óptico con el objetivo 10x).
Después con ayuda del mortero, el almidón de la papa fue hecho trozos hasta que se llegó a tamizar con la tela para hacer un polvo fino.
Continuando con el mucilago del nopal, después de sacar la muestra de la incubadora se notó que estaba de un color marrón y con un mal olor, al consultar con el investigador comentó que esto se debía a la oxidación del producto. Para repetir el proceso de obtención del mucilago se investigó las fuentes del trabajo guía y dentro de la investigación se encontraron dos nuevos métodos que se enfocan en evitar el proceso de oxidación.
Para el nuevo proceso se recolectaron diversas muestras de diferentes especies de nopal propias de la región de (19°45'50.0"N 99°55'27.9"W) san miguel Tenochtitlan perteneciente al municipio de Jocotitlán en el estado de México, las especies fueron elegidas gracias a su riqueza de pulpa.
Se realizaron los métodos ESC y DEC propuesto por Abraján (2008) hasta el punto de la centrifugación y en los dos casos se obtuvo una solución verde.
Al reunirme con el investigador me hizo saber que gracias al uso que le daré al mucilago recomendó parar en el proceso de pelado y dejando reposar por 24hrs en agua destilada. Así se obtuvo una solución transparente de mucilago.
Por último se realizaron las siguientes formulaciones para la obtención de la película comestible:
Solución 1
Almidón6%
Mucilago líquido90%
Glicerol4%
Solución 2
Almidón6%
Mucilago líquido80%
Glicerol14%
CONCLUSIONES
Durante el verano se investigación se obtuvieron conocimientos teóricos y prácticos acerca del proceso de síntesis de biopolímeros, de la organización de un trabajo colaborativo entre instituciones, además de incrementar la habilidad de resolución de problemas e investigación aplicada. La solución número dos obtuvo mejores resultados, ya que al aumentar el porcentaje de glicerol se optimó la plasticidad, pero aun no se obtuvo la película optima, se espera que disminuyendo el porcentaje de almidón para obtener una solución más uniforme antes del secado se alcancen los mejores resultados evitando la separación de las faces al llegar la fase sólida.
Ibarra Trujillo Ignacio, Universidad Tecnológica de Nayarit
Asesor:Mg. Jhon Haide Cano Beltrán, Universidad Cooperativa de Colombia
IMPLICACIÓN DE COBIT 2019 VS COBIT 5 EN LOS PROCESOS DE EVALUACIÓN PROFESORAL PARA LA FACULTAD DE INGENIERÍA DE LA UNIVERSIDAD COOPERATIVA DE COLOMBIA CAMPUS CALI
IMPLICACIÓN DE COBIT 2019 VS COBIT 5 EN LOS PROCESOS DE EVALUACIÓN PROFESORAL PARA LA FACULTAD DE INGENIERÍA DE LA UNIVERSIDAD COOPERATIVA DE COLOMBIA CAMPUS CALI
Ibarra Trujillo Ignacio, Universidad Tecnológica de Nayarit. Asesor: Mg. Jhon Haide Cano Beltrán, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Gobernar las tecnologías de información (TI), en la actualidad, es mucho más complejo que gobernar otros activos de la empresa, debido a la presión que ejercen las diferentes áreas en la corporación buscando soluciones basadas en las tecnologías de información y a la incertidumbre que tienen los directivos sobre el valor de las tecnologías de información en contra del costo que supone para la organización. (Juiz,2014)
En el ámbito educativo las instituciones de educación superior están asumiendo esfuerzos denodados para mejorar la calidad educativa basando sus procesos académicos en la innovación tecnológica, Sin embargo, la complejidad del gobierno de TI en una universidad hace difícil la realización de planes de desarrollo educativo como lo es la evaluación profesoral ya que es un aspecto importante dentro de la calidad del cuerpo académico.
Actualmente la facultad de Ingeniería del campus Cali de la Universidad Cooperativa de Colombia (UCC) ejecuta dentro de su evaluación profesoral un modelo de procesos basado en las áreas de responsabilidad de planear, construir, ejecutar y monitorear y se soporta en un modelo de gobierno TI (COBIT 5) desarrollado por el cuerpo de investigación de la presente facultad, hoy en día el modelo(COBIT 5) implementado en dicho plan educativo se caracteriza por tener 9 años dentro del mercado por lo cual por el paso de tiempo se ha desactualizado a los nuevos criterios de calidad, procesos de trabajos, terminologías y estandarización donde resulta un problema serio dentro de institución ya que se busca contar con la mejor calidad educativa según sus objetivos estratégicos cada periodo semestral.
Presentemente se tiene una nueva versión (COBIT 2019) y se necesita entonces, analizar los nuevos procesos dentro de la Facultad de Ingeniería de la Universidad Cooperativa de Colombia, reorientando los objetivos estratégicos planteados cada semestre.
METODOLOGÍA
La metodología empleada para el presente trabajo de investigación inicia su primera fase dentro de la evaluación profesoral Universidad Cooperativa de Colombia, ya que se cuenta con un modelo de Gobierno TI en la que maneja los procesos corporativos de dicha evaluación, por lo cual necesitó a través de la exploración y la descripción investigar cómo se lleva a cabo actualmente dichos procesos y además conocer sus antecedentes dentro del sistema. Las razones que conlleva una investigación exploratoria tiene como función examinar un tema o problemática de investigación que no se ha abordado con anterioridad, actualmente no existe un análisis relacionado sobre la actualización de COBIT 5 al 2019 en el proceso de la evaluación profesoral dentro de la institución.
De acuerdo con la revisión de la investigación exploratoria, se planteó la formulación de la problemática a bases de los acontecimientos de la funcionalidad del modelo, donde se pudo profundizar las fortalezas y debilidades acerca del gobierno TI empleado. Una vez que se formuló el problema real de la investigación se hace la propuesta de solución donde se dio un reconocimiento a las necesidades o requerimientos de la universidad con respecto a la situación para lograr un plan de mejoramiento, en cual el resultado sea una difusión en un evento científico y documental sobre los cambios mas importantes dentro del COBIT 5 al COBIT 2019.
Para emplear la siguiente fase consta de realizar una investigación descriptiva para especificar situaciones, contextos y eventos relacionados del COBIT 5, teniendo en cuenta sus propiedades, características de ella misma con el fin de encontrar las ventajas y analizar sus procesos de forma general. En donde se lleva a cabo con una revisión documental (lineamientos, manuales y políticas) y deducciones en cual se dará un contexto más amplio a lo que es el marco de trabajo.
Una vez visto todo el contenido de COBIT 5 se da inicio a la indagación de COBIT 2019 por medio de otro análisis documental en el cual se identificaron el nuevo modelo de gobierno y como se lleva a cabo su sistema de evaluación, lineamientos, actualizaciones de términos y conceptos, filosofía de trabajo, etc. Al término de los resultados de la indagación en las dos versiones de COBIT, en el cual se identifica un relacionamiento entre los dos marcos de trabajo se encontró varios diferenciadores, filosofías de trabajo, riesgos o errores dentro de su ejecución en una empresa, evaluación de calidad, terminologías y dando como resultado el análisis de un cambio necesario del actual modelo que está trabajando hacia la nueva versión para la evaluación profesoral de institución.
Dentro de lo realizado del análisis de los dos marcos de trabajos se hace el reconocimiento sobre las implicaciones más importantes que tuvo el COBIT 2019 internamente de la versión anterior en donde se identifica y explica de manera detallada en un conjunto de reportes donde se genere documentación de los nuevos procesos que tiene para el modelo actual de la Universidad Cooperativa de Colombia. Por último, en la fase final se dará la ejecución de una difusion de todas las implicaciones encontradas sobre COBIT 2019 por medio de publicación de un artículo científico y exposición de la misma.
CONCLUSIONES
Los resultados obtenidos durante el periodo del verano de investigación fue la adquisición de conocimientos teóricos y prácticos sobre el modelamiento de un gobierno TI en la evaluación profesoral de la facultad de Ingeniería del campus de Cali de la Universidad Cooperativa de Colombia (UCC), además se obtuvo comprensión y análisis de los nuevos procesos que tiene COBIT 2019 hacia su anterior versión (COBIT 5) en cual se generó implicaciones en donde se describe detalladamente los cambios que hay dentro del marco de trabajo y que ventajas emigrar hacia a él, por último se realizó la escritura de un artículo científico para la difusión de dichas implicaciones donde actualmente está en proceso de publicación dentro del campus de la universidad.
Iguavita Duquino Erika Tatiana, Universidad Antonio Nariño
Asesor:Mtro. Marco Antonio Mondragón Ornelas, Universidad Michoacana de San Nicolás de Hidalgo
ANÁLISIS DEL USO DE LAS FIBRAS SINTÉTICAS O NATURALES COMO ADITIVO AL CONCRETO
ANÁLISIS DEL USO DE LAS FIBRAS SINTÉTICAS O NATURALES COMO ADITIVO AL CONCRETO
Iguavita Duquino Erika Tatiana, Universidad Antonio Nariño. Asesor: Mtro. Marco Antonio Mondragón Ornelas, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Hoy en día el mercado de uno de los sectores más grandes e importantes como lo es el de la construcción ha mostrado un gran crecimiento, ayudando a desarrollar materiales innovadores que ayuden a la busca de nuevas alternativas contribuyendo al medio ambiente y buscando un desarrollo social y económico. En un país como Colombia se ha evidenciado un atraso bastante notorio con respecto a la implementación de nuevos materiales, maquinaria y técnicas que faciliten el trabajo para llevar a cabo proyectos de edificación, carreteras, puentes, etc.
La creación de nuevos materiales acarrea una serie de inconvenientes que deben considerarse antes de llevar a cabo la creación de un nuevo producto. Se debe tener en cuenta los factores de calidad requeridos en la reglamentación para la construcción de cada país.
Se debe tener en cuenta cuales aditivos brindan las características deseadas para agregar al concreto y adquirir la resistencia que se solicita en la norma, incentivando la utilización de un nuevo producto en base a resultados acertados. Para esto, se debe tener en cuenta que las fibras son multifilamentos de materiales diversos que sirven para proporcionar un refuerzo secundario al concreto. Estas fibras reducen y controlan el agrietamiento por contracción plástica y controlan el agrietamiento debido a cambios térmicos, proporcionan resistencia mecánica secundaria y convierten al concreto en un material dúctil y tenaz, soportando cargas post- agrietamiento, evitando las fallas súbitas de los elementos.
Se debe tener en cuenta que existen dos tipos de fibras como lo son las naturales y las sintéticas. Las fibras naturales son aquellos materiales filamentosos de origen biológico cuyas características químicas, físicas y mecánicas, les confieren cualidades en su aspecto, textura, longitud, resistencia y flexibilidad, que las hacen susceptibles de uso y las fibras sintéticas son un tipo de fibra textil que se obtiene de diferentes productos que derivan del petróleo, o sea, que este tipo de fibra es totalmente química porque la sintetización de su materia prima así como la producción de la hebra son una producción de los hombres.
Se requiere escoger cuál es la fibra más recomendada para utilizar como aditivo al concreto y para esto se deben realizar estudios de laboratorio que nos permita determinar las características de cada una y según las necesidades en el concreto concluir cuál es más recomendable usar.
METODOLOGÍA
Esta investigación es explicativa, teniendo en cuenta que se ha realizado lectura de varios estudios realizados en laboratorio, los cuales han dado a conocer los resultados de diferentes fibras que permiten identificar y concluir cuál de las fibras antes mencionadas son las que brindan mayor efectividad, resistencia e índices de calidad a la hora de adicionarla al concreto.
Para obtener información sobre el tema participé en una conferencia dictada por el MIT. Noel Diaz Gonzalez sobre el uso de fibras sintéticas en el concreto. Como fuente de información fue de gran ayuda teniendo en cuenta que explica que dentro de las fibras sintéticas existen unas características que nos lleva a clasificar estas en microfibras y macrofibras. Esta clasificación nos permite implementarlas de acuerdo a las necesidades de la construcción.
Para esto se definen las macro fibras como fibras de plástico, propileno, polietileno y nylon, las longitudes de los microfilamentos oscilan entre 12 y 74 mm. Las macrofibras son de materiales como acero, vidrio, materiales sintéticos con longitudes variables entre 13 y 70 mm. Las ventajas en la utilización de estas fibras se basan en que al adicionarse al concreto mejora la plasticidad, reduce segregación, mejora la cohesión y previene la formación de fisuras.
Como investigación en fibras naturales se tienen ejemplos como cabello, nopal, plantas, bosque, algodón, cáñamo, follajes y estas aportan beneficios al concreto al utilizarlas como aditivo y cumple con las resistencias esperadas.
La implementación de estas fibras naturales o sintéticas como aditivo al concreto tienen grandes beneficios para el medio ambiente dado que estas pueden reducir la cantidad de acero de refuerzo en los proyectos de construcción y de igual forma disminuyen costos y manos de obra.
Para poder hacer un buen uso de los aditivos al concreto se debe respetar una dosificación recomendada y así cumplir la función requerida en este proceso. También se debe implementar un proceso de fabricación en concretos modificados el cual es:
Si la producción es de manera manual se debe seguir los siguientes pasos:
Arena, grava, cemento y mezclarlo
Realizar un orificio en el medio
Agregar el agua
Mezclar los materiales con el agua suficiente
Agregar las micro fibras.
Siguiendo el proceso y la dosificación recomendada se esperan resultados positivos y favorables para los aditivos en concreto.
CONCLUSIONES
Por esto, se debe contemplar que existen grandes beneficios a la hora de implementar estas fibras pero se debe concluir cuál de los dos tipos existentes es el más favorable su implementación y poder contribuir al sector construcción con un material innovador y que brinde beneficios al concreto.
Para determinar la mejor opción de agregados se puede inferir que las fibras naturales como desventaja se tiene que se degradan, la resistencia mecánica de los elementos es baja pero que mejora la porosidad de la mezcla con estas fibras. Las fibras sintéticas por ser inertes brindan más beneficios a largo plazo y por esta razón es la opción más recomendada para utilizar como agregado en el concreto.
Interiano Muñoz Mildred Montserrat, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
Camacho Ochoa Carlos de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Interiano Muñoz Mildred Montserrat, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Moreno María Fernanda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la globalización y el creciente intercambio de economías, ha ocasionado la apertura de mercados y con ello el incremento de actividades de exportación, incremento de sus dimensiones y de su interdependencia; lo cual, ha sido provocado por la reducción de las distancias económicas entre los países. Esta apertura de mercados, ha generado condiciones no favorables para las mipymes del sector metalmecánico de la región caribe colombiana que se ven amenazadas por la competencia externa. En este sentido, las mipymes son altamente vulnerables ante el ingreso de productos de competencias externas, en las cuales se ve comprometida la productividad y competitividad en el mercado.
Esta problemática obliga a las mipymes a plantearse nuevos retos e impulsa la adopción de estrategias colectivas de cooperación y asociación que le permitan enfrentar desde lo local, la competencia internacional a través del desarrollo de procesos administrativos asertivos; los cuales, permiten aumentar las ventajas competitivas. Por lo que, durante el verano de investigación se estudiaron las bases teóricas de un modelo de asociatividad empresarial para los procesos administrativos en el ámbito práctico del sector metalmecánico en la región caribe colombiana.
METODOLOGÍA
Se realizó una revisión y análisis bibliográfica exploratoria a través de fuentes de información secundaria, donde el objeto de investigación fueron 60 artículos científicos sobre asociatividad empresarial, mipymes, procesos administrativos, sector metalmecánico, competitividad y productividad. Esto con la finalidad de poder entender explicar y analizar el contexto del sector y las palabras claves del proyecto a realizar.
Para la recolección de la información, se diseñó una matriz de revisión bibliográfica que tiene como elementos de selección: Título, datos bibliográficos, ideas principales y resumen. Dichos artículos se tomaron de bases de datos y portales bibliográficos que cuentan con respaldo académico, los cuales sirvieron para la revisión y construcción del marco teórico de la investigación.
Posteriormente, se procedió a la aplicación de los instrumentos para la recolección de la información, dicho instrumento fue una encuesta realizada a 46 responsables de procesos administrativos. Es menester indicar que el presente proyecto es de tipo no experimental, así mismo la investigación es de tipo transversal, puesto que los datos obtenidos se obtuvieron en un único momento, es decir, cuando se realizó la encuesta y no en instantes diferentes con la intención de comparar, cabe mencionar que es una investigación explicativa, por cuanto determinará las relaciones entre las variables, estableciendo los factores que pueden explicar los fenómenos que se estudian. En el caso del proyecto las relaciones explicativas a analizar son la asociatividad empresarial y los procesos administrativos.
Una vez recopiladas las respuestas, se realizó el procesamiento de la información a través de la tabulación de los resultados obtenidos de nuestro instrumento de recolección de datos, esta representación de los resultados se hizo a través de tablas, gráficos de barra y de pastel en excel, con los porcentajes equivalentes a cada resultado de las encuestas realizadas respectivamente.
Con la información recopilada se procedió al análisis estadístico de los datos obtenidos para interpretar la información con respecto a los indicadores de estudio los cuáles fueron: tipos de asociatividad empresarial, competencias esenciales de asociatividad empresarial, desempeño de los miembros del equipo gerencial y docente para los procesos administrativos, roles del equipo gerencial empresarial en la asociatividad empresarial de los 46 responsables de procesos administrativos.
Por último, se realizó una revisión general de la información obtenida tanto en las fuentes primarias como en las secundarias, se redactaron las conclusiones generales del tema de investigación, así como también el aporte a la agenda 2030 de los objetivos de desarrollo sostenible de la investigación realizada en esta estancia de verano de investigación 2021.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la asociatividad empresarial, así como también estudiar los tipos de asociatividad aplicables a los procesos administrativos;El modelo de asociatividad empresarial para los procesos administrativos tiene enfoque en objetivos comunes, tareas definidas, relaciones interpersonales, social y mental así como también grados de interdependencia.En este orden de ideas, se concibe la asociatividad empresarial como una alianza estratégica que tiene por objetivo mejorar la gestión, la productividad y la competitividad de quienes la integran, permite la unión de fortalezas y capacidades de las asociaciones para que éstas puedan complementarse y potencializarse de manera colectiva e individual.
Finalmente, se concluye que este proyecto aporta al objetivo de desarrollo sostenible 8 ya que fomenta el crecimiento económico sostenido en el sector metalmecánico y en la región caribe colombiana, es inclusivo y sostenible, además, fomenta el empleo pleno y el trabajo decente para todos. La configuración de un modelo de asociatividad empresarial evidencia el incremento de la productividad y competitividad, desarrollo del sector productivo en la región, apertura de mercados y mayor poder de negociación. El modelo asociativo planteado deriva en la construcción de ventajas competitivas en el sector metalmecánico, al conjugar esfuerzos entre las mipymes con los actores locales, para crear valor agregado de sus productos.
Se destaca que los resultados de este estudio pueden ser aplicables a mipymes, establecidas en otras regiones, en virtud de las características similares que presenta este sector y de la dinámica del comportamiento empresarial que se establece en el nivel regional, nacional e internacional.
Iriarte Correa Joel Alberto, Universidad Vizcaya de las Américas
Asesor:Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala
ANÁLISIS Y ELECCIÓN DEL USO DEL EQUIPO DE PROTECCIÓN PERSONAL BAJO LA NOM-017-STPS-2008, ANTE LA PANDEMIA DE COVID
ANÁLISIS Y ELECCIÓN DEL USO DEL EQUIPO DE PROTECCIÓN PERSONAL BAJO LA NOM-017-STPS-2008, ANTE LA PANDEMIA DE COVID
Hamburger Navarro Natalia, Universidad de la Costa. Iriarte Correa Joel Alberto, Universidad Vizcaya de las Américas. Asesor: Dr. Juan Carlos Kido Miranda, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
La seguridad y salud en el trabajo en este artículo tiene la intención de fomentar la disminución de riesgos que permitan evitar los accidentes y enfermedades laborales que se puedan presentar. Existen distintas medidas de prevención y control que deben acogerse con respecto el análisis de eficacia; en efecto, nuestra investigación se centra en los equipos de protección Personal (EPP) teniendo como característica primordial el uso correcto de accesorios, dispositivos y vestimentas por parte de los trabajadores y de esta manera lograr la protección de daños a su integridad física o su salud teniendo estos como resultados los riesgos en la zona de trabajo.
La empresa CONSTRUCTORA JIMÉNEZ S.A.S cuenta con 35 años de experiencia, actualmente trabajando en el proyecto de construcción APARTASUITS con un total de 90 trabajadores, en el cual se implementará la NOM-017-STPS-2008 ante la pandemia de COVID-19 teniendo en cuenta los puestos de trabajo y así definir el uso adecuado del equipo de protección personal, siendo de gran importancia el tipo de actividad que desarrolla el trabajador.
Es de gran utilidad proteger constantemente a los trabajadores que de tal forma ellos se sientan seguros de poder ejecutar sus responsabilidades, con base a esto el contratista deberá proveer equipos de protección personal que estén cumpliendo con las normas legales vigentes. Es ineludible brindar un seguimiento(capacitaciones) a los empleados sobre el peligro expuesto en cada área de trabajo.
METODOLOGÍA
Precisando las diferentes medidas de prevención y control, es vital entender que el uso del equipo de protección personal sea la última medida a llegar, ya que se debe efectuar primordialmente la eliminación, sustitución y el control de ingeniería; siendo esta la mejor labor frente a las decisiones ya sean tipo defensoras y correctivas que afronten la ocurrencia de accidentes laborales.
En el proyecto de construcción se tiene la presencia de un total de 90 trabajadores; entre ellos interventoría externa, CISO (oficial de seguridad de la información), coordinador de alturas, ingenieros civiles, practicantes y obreros. Las responsabilidades y actividades para desarrollar son diferentes, sin embargo, cada uno debe cumplir con su equipo de protección personal y de esta forma el CISO brinda de forma diaria capacitaciones a los trabajadores para prevenir accidentes, controlando y gestionando cada una de las zonas laborales. De acuerdo con las necesidades como compañía les exigen a los empleados del proyecto de construcción contar con un curso de altura, el cual se debe renovar a un total de año laboral con la misma empresa.
Ante la pandemia de COVID-19 cuentan con distintos protocolos de bioseguridad y así evitar el aumento del contagio de los empleados: enlace de bioseguridad al llegar a la construcción, toma de temperatura, uso obligatorio de tapabocas (la empresa suministra al personal en las dos jornadas), uso de alcohol-gel antibacterial, lavado de manos constante y cada tres meses realizar prueba COVID-19 a todos los empleados.
CONCLUSIONES
Revisando cada unas de las obligaciones del patrón y los trabajadores con respecto a la NOM-017-STPS-2008 Equipo de protección personal-Selección, son establecidas y ejecutadas de la forma correcta. Las instrucciones dadas sobre el uso adecuado del EPP ayudan a los trabajadores a obtener seguridad en sus funciones, seguir con el cumplimiento de la Norma y así evitar accidentes laborales.
El equipo de protección personal de los empleados cumple con sus características físicas y es de uso personal, cuentan con las determinadas indicaciones de cuidado y uso. Suministran toda la dotación necesaria a sus trabajadores y de ser necesario realizar cambios por deterioro o tiempo de vida útil.
Se relacionaron en una tabla 1 los puestos de trabajo con sus diferentes regiones anatómicas y los equipos de protección personal, en una tabla 2 se ingresaron los datos correspondientes de los EPP con relación a las regiones anatómicas con claves enunciadas en tabla 1.
En conclusión, se logró el cumplimiento de los lineamientos y las direcciones de la NOM-017-STPS-2008 Equipo de protección personal-Selección, a cada empelado se le manifestó información clara y concisa de la seguridad que se debe tener en cada área laboral, obteniendo día a día un ambiente de trabajo adecuado. Las instalaciones de la construcción son de buen agrado y cumple con cada una de las normativas solicitadas, brindándoles a sus empleados protecciones de los agentes del medio ambiente de trabajo, impidiendo perjuicios en su integridad sean física y salud. Durante la pandemia del COVID-19 bajo los respectivos cuidados que han tenido no se notificado alto foco de contagio.
Se observó que cumplen con la implementación y ejecución de la NOM-026-STPS-1998, Colores y señales de seguridad e higiene- Identificación de riesgos por fluidos conducidos en tuberías. De esta manera se motiva a la empresa en su crecimiento profesional, el resultado de sus proyectos como locales, viviendas y oficinas sigan siendo eficaces a la hora de ejecutarse, sin dejar a un lado que tras 35 años de experiencia no tienen queja alguna de sus empleados y clientes. Se reconoce la alta proyección en los procesos de los diferentes planes y con el equipo humano de alta calidad que forma parte de su compañía.
Islas Islas Antonio, Instituto Politécnico Nacional
Asesor:Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica
DESPLIEGUE DE DISPOSITIVO GPS LORIPCA PARA INTERNET DE LAS COSAS EN UN VEHíCULO DE TRANSPORTE PúBLICO DE LA CIUDAD DE BARRANQUILLA Y SU áREA METROPOLITANA
DESPLIEGUE DE DISPOSITIVO GPS LORIPCA PARA INTERNET DE LAS COSAS EN UN VEHíCULO DE TRANSPORTE PúBLICO DE LA CIUDAD DE BARRANQUILLA Y SU áREA METROPOLITANA
Islas Islas Antonio, Instituto Politécnico Nacional. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica
PLANTEAMIENTO DEL PROBLEMA
Con el crecimiento acelerado de la población de la ciudad de barranquilla y el aumento exponencial de la demanda de transporte público y el uso de vehículos para poder trasladarse de un lugar a otro, el tráfico en las calles es cada vez mayor, con miles de vehículos atorados saturando las vías de circulación, aumentando el tiempo de traslado de la población en general. Por lo que se llegó a la necesidad de crear un dispositivo que convierta un bus de trasporte público normal, en un bus inteligente, para poder tener una mejor gestión de los tiempos entre bus y bus, la demanda de buses, así como el constante monitoreo de los buses para una mayor seguridad de los pasajeros.
El surgimiento de las ciudades inteligentes y el internet de las cosas (IoT), así como su acelerado desarrollo, han revolucionado la forma de comunicarse, con este desarrollo se creó una nueva forma de comunicación que es apta para el propósito de este proyecto, la forma de comunicación es a través de la tecnología LPWAN (Low Power Wide Area Network), esta forma de comunicación permite transmitir y recibir paquetes de datos a largas distancias, incluso de kilómetros, con un bajo consumo de energía, siendo ideal para un bus que recorre largas distancias en poco tiempo eliminando la necesidad de colocar repetidores para tener cobertura, además con estos módulos se puede crear una red que después se conecta a internet teniendo una red de más amplia que puede monitorear cientos de buses al mismo tiempo con un hardware muy pequeño, económico y eficaz.
METODOLOGÍA
En este caso el trabajo realizado se centró en el diseño, supervisión y construcción del circuito electrónico, así como el diseño de la placa de circuito impreso.
Primero se hizo un estudio de las tecnologías de comunicación existentes, a las cuales se les hizo una comparación con respecto al alcance y ancho de banda de cada tecnología, para saber cuál era la mejor tecnología para el problema planteado, en este caso las más útiles eran la red celular y la red LPWAN, pero después de otra comparación se decidido utilizar la tecnología WPLAN ya que la red celular aunque ya hay una infraestructura, hay que pagar el derecho para poder usarlo, en cambio con la tecnología WPLAN se necesitaría construir la infraestructura pero su conste y mantenimiento, así como la facilidad de instalación abarataría costos.
Una vez elegida la tecnología se buscaron plataformas que tuvieran integrada o que fueran compatibles con esta tecnología y se encontró la plataforma de LoRa que es una plataforma gratuita pero muy buena. A continuación, se buscó el costo y facilidad de uso de esta plataforma y es bastante barata, así como fácil de utilizar por lo que esta es la plataforma ideal y elegida para ser utilizada.
Una vez elegida la plataforma con la que se trabajó se pasó al diseño del circuito electrónico para poder unir los demás módulos y que estos funcionen como se planeó, así como que el dispositivo tenga todas las funciones planteadas. Armado el circuito se reviso para corregir errores, se mejoró la disposición de los componentes y se aprobó para poder convertirlo a un diseño de PCB.
Una vez convertido se ubicaron los componentes, se organizaron para un mejor enrutado de las pistas y que ocuparan el menor espacio posible, se hicieron las conexiones por medio de las pistas en la zona de la placa, y se colocaron las distintas serigrafías.
CONCLUSIONES
Finalmente se logró diseñar una placa de circuito impreso desde cero hasta una placa para ser comercializada. Se exportaron los archivos necesarios para poder empezar a imprimir el PCB, con el mismo programa se creó una simulación 3D de como se vería el PCB terminado. Se espera que el PCB cumpla satisfactoriamente el propósito con le cual fue diseñado y se espera muy pronto poder implementar el dispositivo en el sistema de transporte público en la ciudad de Barranquilla y su área metropolitana.
Jaimes Aguilar Sarahi Información Personal Tu Nombre y Apellidos Deben Esta, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
DISEñO DE UNA PLANTA PRODUCTORA DE YOGURT
DISEñO DE UNA PLANTA PRODUCTORA DE YOGURT
Jaimes Aguilar Sarahi Información Personal Tu Nombre y Apellidos Deben Esta, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Una planta industrial que no tenga errores graves de diseño y que haya estado operada y mantenida de forma adecuada requiere cada 10 años una inversión del entorno del 10% del coste inicial actualizado, para reemplazar los equipos que han quedado obsoletos. Esta cantidad puede verse afectada si hay errores de diseño en la planta.
El costo de espacio, bien en términos de alquileres o de depreciación del edificio, es precisamente un factor que interviene en todos los gastos. El espacio tiene que calentarse, iluminarse, limpiarse y estar bien conservado, al aumentarse la cantidad de espacio por máquina, estos gastos crecen sin añadir valor alguno al producto. Tienden además a quedar fijos, de modo que una disminución en el volumen no vendrá acompañada por una disminución en tales gastos, un aumento del espacio concedido a cada maquina significará ciertamente un gasto adicional en el movimiento de materiales, mas tiempo de camino para jefes de turno y empleados y mas tiempo para el personal de producción. Por lo que ¿Un buen diseño de planta puede disminuir los costos de producción?
METODOLOGÍA
Metodología
A partir de la revisión de la literatura se elabora el cuadro de centros y estaciones de trabajo a implantar.
Con base en el primer paso, se realiza el cuadro de transito del caso.
Se calculará el número de equipos y su espacio, con el método Guerchet.
A partir del cálculo se elaborarán 3 propuestas para el diseño de la planta, situando como centros, los puestos de máxima prioridad.
Se elaborará un cuadro para la determinación del factor base de la evaluación de las soluciones.
Las soluciones se evaluarán con base a un cuadro para solución de las celdillas relevantes.
CONCLUSIONES
Conclusiones
Durante la estancia de verano se lograron obtener conocimientos teóricos sobre el diseño de procesos y plantas de producción, y ponerlos en práctica mediante los cálculos realizados, sin embargo, como es un trabajo extenso aun no se tienen los resultados concretos.
Se obtuvieron las medidas de los equipos haciendo el cálculo de áreas por el método Guerchet,
Se establecieron las 3 propuestas para el diseño, a escala en hojas milimétricas, y se logro obtener el diseño mas optimo mediante la evaluación de las celdillas, para cada propuesta.
Jijon Hernandez Alex Abrajham, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Mtro. Alfredo Cuevas Sandoval, Universidad Autónoma de Guerrero
EVALUACIóN DE LAS PROPIEDADES FíSICO-MECáNICAS DE PIEZAS DE MAMPOSTERíA LIGERAS ELABORADAS CON TEPOJAL.
EVALUACIóN DE LAS PROPIEDADES FíSICO-MECáNICAS DE PIEZAS DE MAMPOSTERíA LIGERAS ELABORADAS CON TEPOJAL.
Jijon Hernandez Alex Abrajham, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Mtro. Alfredo Cuevas Sandoval, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
El tabicón es una pieza para mampostería que se fabrica con cemento, agua y agregados. Para hacer las piezas más ligeras el agregado más utilizado en la región es el tepojal, el cual es un material volcánico de baja densidad. En México el 90% de las construcciones se construyen utilizando el sistema constructivo de mampostería, con aplicaciones principalmente en muros de mampostería no reforzada, confinada y reforzada, que soportan esfuerzos de compresión y tensión.
Las piezas de tabicón ligeras tienen una demanda del 80% en la región de Chilpancingo para la construcción de elementos de mampostería, ya que, a diferencia del ladrillo rojo recocido, abarca una mayor área de construcción usando un número menor de piezas por metro cuadrado y economizando mortero de pega.
METODOLOGÍA
Para efectuar el estudio primero se visitó una planta de producción al azar y así poder llevar a cabo un muestreo aleatorio para obtener un lote de 40 piezas de tabicón. La planta se ubica al Sur de la Ciudad de Chilpancingo sobre la carretera Federal Chilpancingo-Acapulco.
Para saber si las piezas de mampostería cumplen con las especificaciones y normas, el material fue sometido a las pruebas básicas de control de calidad (NMX-C-404, 2012), en el Laboratorio de Materiales de la Facultad de Ingeniería, las cuales fueron las siguientes:
Muestreo
Se seleccionaron 40 piezas, de la cuales se ensayaron 5 por edad de prueba, dando un total de 30 piezas, estas piezas fueron de un mismo tipo y fabricadas bajo las mismas condiciones del fabricante de acuerdo con las normas mexicanas.
Prueba de dimensionamiento
De acuerdo con la norma mexicana NMX-C-038-ONNCCE, la finalidad de esta prueba fue determinar con un vernier las dimensiones en cada lado de la pieza, haciendo mínimo dos determinaciones por lado. También se pesaron las piezas en una balanza de precisión para determinar su masa. La importancia del proceso radica en conocer la uniformidad de dimensionamiento y masa
Prueba de absorción total a 24 horas
De acuerdo con la norma mexicana NMX-C-037-ONNCCE, la finalidad de esta prueba es determinar la absorción y transmisión de agua a través de los medios porosos de las piezas de mampostería que afectan el funcionamiento, durabilidad y resistencia de la estructura de mampostería.
Los elementos modificados fueron colocados en un horno de secado a 110 +/- 5°C para garantizar que se encontraran completamente secos, posteriormente se sumergieron en agua a una temperatura entre 16 a 30°C durante un periodo de 24 horas.
Prueba de compresión
En esta prueba se determinó el esfuerzo máximo por compresión en el área bruta transversal de una pieza de mampostería en una prensa mecánica con una capacidad de 120 toneladas, NMX-C-036-ONNCCE-2013.
Se procedió a enumerar y tomar las dimensiones de cada una de las muestras, se cabecearon en un molde con azufre, se dejaron reposar mínimo 2 horas. Se coloco la pieza en una placa de acero nivelada, se repite el procedimiento en la otra cara. Una vez terminado se procede a colocar y alinear en el centro de la máquina de prueba y se aplica carga en forma lenta hasta la falla de la muestra.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de los ensayes de calidad en piezas de mampostería y ponerlos en práctica para determinar el grado de calidad de acuerdo con resultados de las pruebas.
Se obtuvieron valores en los especímenes reflejaronque no están dentro de los parámetros de resistencia a la compresión establecidos por las normas NMX-C-404-ONNCCE, Reglamento de construcción de la CDMX y normativa SCT, con un promedio de f´c: 45.57Kg/cm², especificación 60 kg/cm2 mínimo. El % de absorción promedio de 21.21 y las dimensiones en alto, ancho, largo y peso promedio de las piezas cumplen con los requisitos establecidos. Los resultados indican que los tabicones de concreto evaluados pueden tener uso exclusivo como elemento divisorio.
Jimenez Cañada Fatima Lizeth, Instituto Tecnológico Superior de Uruapan
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
APLICACIÓN DE REALIDAD AUMENTADA CON MARCADOR DIGITAL Y OBJETO 3D ANIMADO
APLICACIÓN DE REALIDAD AUMENTADA CON MARCADOR DIGITAL Y OBJETO 3D ANIMADO
de la Rosa Martínez Ricardo, Instituto Tecnológico de Reynosa. Jimenez Cañada Fatima Lizeth, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El incremento de los requerimientos que los clientes imponen a las industrias alrededor del mundo, como lo son procesos más rápidos, estructurados y seguros (Nasirian & Khanesar, 2016) para los operarios, con calidad y reduciendo costos, han obligado a la industria a transformarse en lo que ahora conocemos como la industria 4.0, donde distintas áreas del conocimiento convergen para dar lugar a nuevas alternativas en pro de la ejecución de sus operaciones. Las situaciones más comunes que ejemplifican lo mencionado líneas arriba pueden ser, por ejemplo, robots móviles programados transportando materia prima, herramientas y/o productos terminados por toda una nave industrial, grandes cantidades de información acumulada en espacios independientes a los centros de trabajo que permiten a los robots tomar mejores decisiones, la realidad virtual y realidad aumentada como herramientas de entrenamiento y verificación en operaciones complejas que podrían poner en riesgo la integridad humana, entre otras.
Muchas de las herramientas para desempeñar los procesos mencionados en el párrafo anterior fueron concebidas y diseñadas a partir del comienzo de la cuarta revolución industrial, sin embargo, han continuado tomando forma, por ejemplo, en otros sectores (Krevelen, V & Poelman, R., 2010) como la industria de los videojuegos y el entretenimiento, buscando ofrecer a los usuarios una experiencia envolvente en la que se puedan sentir involucrados sin necesidad de interaccionar directamente con los elementos de un videojuego, por ejemplo.
Una de las tecnologías con mayor potencial para ser explorada en otros escenarios es la Realidad Aumentada (a partir de ahora solo RA) en conjunto con la Realidad Virtual (a partir de ahora solo RV) y la simulación, cuyos atributos combinados podrían permitir al usuario crear elementos intangibles que se relacionen con su entorno y otros objetos en tercera dimensión (a partir de ahora solo 3D), también en RA.
METODOLOGÍA
De acuerdo con lo anterior se propone diseñar y desarrollar una aplicación en RA, portable para dispositivos con sistema operativo Android, que genere un objeto en 3D capaz de interaccionar con su entorno, así como con otros objetos en RA "disparados" o generados por otros dispositivos con la misma aplicación.
En una primera instancia se realizó una investigación en diversas fuentes de información como la Librería electrónica científica en línea del motor de búsqueda Scielo, así como en el motor de búsqueda de Google Académico, lo que posteriormente nos condujo a conocer los componentes generales de la RA, como lo son los marcadores físicos, digitales, los objetos en 3D no tangibles o reales para ‘crear’, es decir, ‘hacer visibles’, en el dispositivo donde se ejecute la aplicación, algunos softwares de desarrollo de RA como lo son BuildAR, ARToolKit y Unity, además de algunos de los factores de afectan la funcionalidad de los marcadores físicos.
Después se diseñó una aplicación de RA en el entorno de Unity, específicamente la versión 2020.1.6, y haciendo uso de las herramientas AR Fundation, que al estar compuesta de funciones centrales de ARKit, ARCore, Magic Leap y HoloLens, así como funciones propias de Unity, permite crear aplicaciones listas para ser ejecutadas por diferentes plataformas de RA.
Específicamente se utilizaron las funciones de ARKit y ARCore, además de la implementación de un código abierto y un modelo inicial de una araña en 3D, que se encuentra también disponible de forma gratuita en la tienda Asset Store de la página web de Unity.
El objeto en 3D, que es visible en la pantalla del dispositivo que ejecuta la aplicación de RA, es dotado de un tamaño en unidades de medida del software de Unity donde 1 unidad es igual a 1 metro, y este cuenta con animaciones como la de saltar, atacar con sus patas frontales, así como morir y moverse.
CONCLUSIONES
Se diseñó una aplicación ejecutable de extensión ‘.apk’ para móviles con sistema operativo Android, con capacidad de ser soportada desde móviles con Android 7 (Nougat) y hasta la versión de Android 11. Cuando el usuario ejecuta la aplicación aparecerá en la pantalla de su dispositivo, si este está apuntando su cámara a una superficie plana, el indicador virtual que, al ser presionado en la pantalla, hará visible al objeto en RA, en este caso, una araña.
Aunque la aplicación continua en desarrollo, el alcance que posee hasta ahora, nos permitirá añadir algunos otros componentes como un control virtual, para dotar de capacidad de traslación al objeto 3D, así como una posible comunicación con otros dispositivos, en donde el objeto en RA pueda interactuar con otros objetos en RA que sean generados por otras aplicaciones.
Los elementos que componen el diseño de la aplicación de RA permiten la adición de otros elementos del mismo tipo, por ejemplo, otro tipo de animaciones, además, su estructura permitirá la adición de elementos diferentes como controles de movimiento.
El uso de la plataforma nos otorgó algunos conocimientos y aptitudes iniciales, de la industria 4.0, donde la RA tiene una parte fundamental y, cuando se presenten necesidades de mejora para la aplicación en el futuro estaremos familiarizados con la plataforma teniendo plena conciencia de sus herramientas y componentes, permitiendo con esto ofrecer una aplicación del agrado del consumidor o usuario de la aplicación.
La RA representó un reto para ambos, pues nunca habíamos trabajado con un software especializado para la creación de aplicaciones de este tipo. Aún así, el trabajo que desarrollamos en equipo conjuntamente en el diseño, resolución de errores y problemas debidos a las características de los equipos donde se elaboró la aplicación, nos permitió desarrollar habilidades y destrezas para la continuación de este proyecto de investigación y para poder continuar dando forma a la aplicación de RA, en la cual deseamos incluir elementos que permitan a la aplicación ser más intuitiva y que el objeto en 3D que se genere, pueda relacionarse con su entorno.
Jiménez Flores Valentin, Instituto Tecnológico Superior de Huetamo
Asesor:Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES. MóDULO DE NOTIFICACIONES POR VOZ.
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES. MóDULO DE NOTIFICACIONES POR VOZ.
Jiménez Flores Valentin, Instituto Tecnológico Superior de Huetamo. Vergara Garcia Jose Eduardo, Instituto Tecnológico Superior de Huetamo. Asesor: Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
Contexto del problema
De acuerdo con la Organización Mundial de la Salud las enfermedades cardiovasculares (ECV) son la principal causa de muerte en todo el mundo. La OMS define las enfermedades cardiovasculares (ECV) como un grupo de desórdenes del corazón y de los vasos sanguíneos entre las que se consideran la enfermedad coronaria, enfermedad cerebrovascular, hipertensión, enfermedad arterial periférica, cardiopatía reumática o insuficiencia cardíaca, entre otras.
El aumento en la prevalencia e importancia de las enfermedades no transmisibles, y específicamente de los factores de riesgo cardiovasculares tales como hipertensión, diabetes, dislipidemia y obesidad, es el resultado de una interacción compleja entre salud, crecimiento económico y desarrollo, lo que está fuertemente asociado con las tendencias internacionales como el envejecimiento de la población mundial, la rápida urbanización no planificada y la globalización de modos de vida dañinos para la salud.
La H. Cámara de Diputados de México organizó una reunión multidisciplinaria con la participación de especialistas en el tema, sociedades médicas, organizaciones civiles y pacientes para dialogar en torno a la carga en salud, económica y social de las principales enfermedades cardiovasculares que afectan a los mexicanos, que de acuerdo con el INEGI constituyen la principal causa de muerte en el país con 206 mil defunciones al año y 34 mil por enfermedades cerebrovasculares.
En México, el 19% de mujeres y hombres de 30 a 69 años muere de enfermedades cardiovasculares, y se estima que el 70.3% de la población adulta vive con al menos un factor de riesgo cardiovascular como hipertensión (17 millones), diabetes (6 millones), obesidad y sobrepeso (35 millones) y/o dislipidemia (14 millones), tabaquismo (15 millones).
Propuestas de solución que existen
A la par es importante implementar acciones que privilegien la promoción y la prevención de la salud, así como garantizar el acceso de los pacientes a tratamientos efectivos, se destacan las siguientes propuestas de acción:
En primer lugar, es necesaria una educación amplia sobre la salud cardiovascular en todos los niveles educativos y en todos los niveles del ámbito de la salud. La educación en la salud es prevención y la prevención es la única medida para revertir esas cifras.
En segundo lugar, el Sistema Nacional de Salud trabaje de manera conjunta para implementar programas transversales y replicar los programas exitosos para que puedan estar al alcance de todos los pacientes sin importar a qué sistema de seguridad social pertenezca, por ejemplo contar con un programa nacional unificado para atender emergencias cardiovasculares como el infarto agudo al miocardio, permite eficientar recursos, mejorar la calidad e incrementar la atención a mayor población en menos tiempo.
Y, en tercer lugar, queremos hacer un llamado a Protección Civil, autoridades y particulares para la colocación de desfibriladores automáticos en los espacios públicos, así como la capacitación de reanimación cardiopulmonar desde edades tempranas.
Las personas se ven en la necesidad de estar mucho más al tanto del monitoreo, en el mercado existen dispositivos de monitoreo que puedes comprar y tener en tu domicilio, sin embargo, estos instrumentos médicos, solo pueden darte un diagnostico en el momento y no hacen un monitoreo de tus datos.
Bandas inteligentes
En la actualidad existen bandas inteligentes, las cuales almacenan los datos, pero con ciertas restricciones: guardan datos no por mucho tiempo, en cierta fecha se borran los datos para guardar los nuevos.
Estas no cuentan con una base de datos, que pueda hacer un monitoreo de los datos y así mismo darle la accesibilidad al usuario de poder consultar datos antiguos.
METODOLOGÍA
Módulo de notificaciones:
Por medio del https://developer.amazon.com/alexa/console/ask se programaran las Skill, donde se crean las notificaciones por comando de voz las cuales estarán dirigidas por la asistente Alexa.
Estas Skill tendrán que cumplir con una serie de funciones como; Enviar mensajes de notificación dirigida por un paciente, así como también informará de forma independiente sobre el comportamiento de los parámetros del paciente. Alexa estará enlazada a la base de datos, en este caso se está trabajando con MySQL donde se guardan el registro de los datos de los pacientes.
Alexa podrá identificar las palabras que se le dirán para que ella pueda arrojar un resultado. Para esto veremos las partes que componen a nuestra Skill.
Las frases por las cuales se podrá consultar a Alexa se les llama Intens las cuales van a representar la acción que quieren que Alexa ejecute. Ejemplo de ello vendría siendo. Dame un dato Pide un dato
El uso de estos Intents dan respuesta a una acción general, pero entonces para la parte específica se desarrolla un Slot siendo esta la variable que dentro del Intent da referencia al dato en concreto que se desea tener. Un ejemplo de ello es que se pida a Alexa Dame un dato de Marte entonces esta frase se convierte en algo más específico que el usuario desea consultar.
2.Los Utterances están encargados de hacer un mapeo de las Intents. Estos utterances permiten crear una clasificación de los Intents, esto aborda a distintas formas de referirse a una intención.
Ejemplo: Un utterance que cancele una acción.
utterance
cancelar
AMAZON.Cancel.Intent → olvídalo
cancela eso
CONCLUSIONES
Conclusión
En conclusión, el módulo de notificaciones es la última parte del proyecto donde se trabaja con Alexa y una conexión de base de datos con MySQL, este módulo tendrá la tarea de mandar notificaciones al usuario, de sus datos, ya sea alguna alerta, un resumen de los datos del usuario de su día y/o donde el usuario pueda pedir información de sus datos de monitoreo. Con la implementación de la asistente Alexa se busca una mejor accesibilidad para el acceso a los datos del paciente, así también se busca mejorar el estado de alerta que puede llegar a causar decesos de personas con padecimientos cardiovasculares.
Jimenez Gonzalez Mariela, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Hector Benitez Perez, Universidad Nacional Autónoma de México
INSTALACION,CONFIGURACION Y PRUEBA DE MAQUINAS VIRTUALES USUANDO VIRTUALBOX Y PROXMOX
INSTALACION,CONFIGURACION Y PRUEBA DE MAQUINAS VIRTUALES USUANDO VIRTUALBOX Y PROXMOX
Jimenez Gonzalez Mariela, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Hector Benitez Perez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La virtualizacion de servidores es una tecnologia basada en un software que posibilita la ejecucion de varios sistemas operativos diferentes entre si, esta tecnologia representa una de las formas mas eficientes para reducir los costos de infrestuctura de TI .Esto es por que la virtualizacion tiene tanto a servidores como a redes,aplicaciones y Data Centers.Por lo anterior se plantea la instalacion de una pequeña infrestuctura virtual que permita el entendimiento y puesta en practica de los conceptos de virtualizacion.
METODOLOGÍA
Caracteristicas de los servidores
Instalacion de virtualbox y proxmox
Configuracion minima
Instalacion de windows y ubuntu
Configuracion y prueba de red
Clonacion de maquinas
Instalacion de SSH Y NFS
Prueba de transferencia de archivos
Comparticion de archivos por red
CONCLUSIONES
En la instalacion de virtualbox y proxmox se realizo de manera exitosa configurando cada una de ellas para asi mismo instalar nuestros sistemas operativos e empezar a ejecutarlos los cuales se realizaron de manera manual,realizamos la instalacion de ubuntu y windows en ambos virtualizadores posteriormente clonamos los sistemas operativos e instalamos ssh y nfs en nuestros servidores.Se aprendio bastante en la configuracion ya que fue algo complicado para monitoriar las maquinas virtuales sin embargo realizando correctamente las configuraciones tuvimos resultados exitosos ya que al utilizar nfs y ssh podemos controlar sus permisos de acceso de forma consistente y mas eficiente en cuanto a seguridad.
Jimenez Lopez Israel, Instituto Politécnico Nacional
Asesor:Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
TRANSFORMING UNIVERSITY EDUCATION IN MEXICO THROUGH INNOVATION: INTERNET OF THINGS
TRANSFORMING UNIVERSITY EDUCATION IN MEXICO THROUGH INNOVATION: INTERNET OF THINGS
Jimenez Lopez Israel, Instituto Politécnico Nacional. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La educación es un tema de vital importancia en nuestro país, abordar el tema desde un enfoque que tome como pilar la innovación en las instituciones, en los profesores y en los alumnos mejorara la educación a través de un espacio: Laboratorios de Internet de las cosas.
La organización para la Cooperación y el Desarrollo Económicos (OCDE), señalan que los cambios en el tipo de talento necesario a escala global están obligando a los países a evaluar y repensar el progreso educativo de las generaciones jóvenes en un contexto global. La adopción de nuevas tecnologías se refleja, entre otros, en aspectos como: estrategias de enseñanza y aprendizaje (smart learning); servicios altamente tecnológicos (campus inteligente); aulas inteligentes que facilitan la interacción alumno-profesor (aula inteligente) . Es por ello que en los próximos años será necesario actualizar los planes de estudio de las titulaciones en el campo de las TIC, con el fin de incorporar todas las tecnologías relacionadas con el IoT, estas plataformas se están convirtiendo en una potente herramienta de seguimiento y recogida de información. formación para la toma de decisiones, que permite a las instituciones realizar investigaciones
METODOLOGÍA
Meta 1. Estado del arte de laboratorios de IoT
Meta 2: elaboración de un artículo de laboratorios de IoT
Meta 3: elaboración de un artículo de aplicaciones de evaluación financiera
A partir de la meta 1, comencé a investigar de laboratorios de IoT existentes tanto en México como en el extranjero buscando dentro de las páginas de universidades y dentro de publicaciones científicas. La tarea inicial de investigación implico el aprender cómo utilizar bases de datos científicas como Dialnet, Lantindex y Google escolar, las búsquedas se realizaron en idioma español y en idioma inglés. Sumado a esto implico un tiempo mayor al esperado el aprendizaje de estos motores de búsqueda. (Evidencia: https://drive.google.com/file/d/1fRyXZWEaNtDCsm6_TfISyjJnQvcDXpT8/view?usp=sharing )
Lo que concierne a la meta 2, Se tuvo la ambición de publicar en una revista de alto impacto con un cuartil Q1 y en idioma en español que aceptara revisiones sistemáticas de la literatura, lo que implico significativamente un mayor tiempo del asignado. Por la temática, buscar la revista Q1, que aceptara ensayos o revisiones sistemáticas de la literatura, y que fuera en nivel español las coincidencias no coincidían por lo que lo más cercano fue una revista de alto impacto Q1, incluía la temática de internet de las cosas, pero se debía publicare en idioma inglés. A partir del estado del arte decidí enfocar al artículo con la temática de la innovación, las e-competencias, laboratorios de internet de las cosas en México y las habilidades tecnológicas que recientemente se demandan, lo que exigió un mayor tiempo en la búsqueda de información y que esta fuera de publicaciones
Finalmente, la meta 3, como estaba marcado en el plan hubo actividades que sufrieron atrasos porque se requirió más tiempo para realizarlas con éxito como el manejo de bases de datos científicas, el aprender a buscar revistas de alto impacto de cuartiles Q1 o Q2, que aceptara revisiones de la literatura o ensayos, que fuera en español y que fuera de la temática elegida, el redactar el artículo de la meta 2 en ingles y el aprender a citar en formato de la American Chemical Society, además parte de esta actividad y las metas pasadas se realizaron con algunas tareas adicionas como el aprender a como buscar información de calidad que muy atentamente la Maestra Teresa Rodríguez nos impartió ( evidencia: https://drive.google.com/drive/folders/13RdCj02424Ky50mPxmM-BGxCRcL-NnvC?usp=sharing )dado lo anterior el tiempo no fue suficiente para la completitud de la meta, de las tareas encomendadas se realizó con éxito la búsqueda de información y las citas en formato APA de las bibliografía (evidencia: https://drive.google.com/file/d/12R5BEHx4CFLMdD-V2xSXvbGV3X1zuJHx/view?usp=sharing )
CONCLUSIONES
A partir de la experiencia que me genera este verano de investigación, me llevo una gran satisfacción el poder publicar en una revista de talla mundial, como es el inicio y el camino que llevan los investigadores de alto calibre en México y en el mundo, termino con una satisfactoria experiencia aprendiendo más allá de solo investigar, se nos inculta e incita a seguir con posgrados, se nos enseña como encontrar posgrados de calidad en México, de que universidades a nivel mundial dan becas a alumnos de excelencia académica y nos abre el panorama para hacer el cambio a nivel país, a nivel local y a nivel personal. Considero que con las habilidades adquiridas voy a poder desarrollar con éxito el sustento de mi trabajo de titulación para graduarme del IPN, y me deja el gusto de querer volver a realizar una estancia de investigación en el programa DELFIN.
Jiménez Maqueda Gualberto, Instituto Tecnológico de Tláhuac
Asesor:Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
Cuéllar Zavala Luis Héctor, Instituto Politécnico Nacional. Jiménez Maqueda Gualberto, Instituto Tecnológico de Tláhuac. Morales Tepole Jose Maria, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Actualmente el municipio de Huauchinango, Puebla, no cuenta con una modernización y ampliación del sistema eléctrico, lo cual a futuro puede provocar un colapso de este. Aunque en la localidad hoy en día no se está retribuyendo a la compañía suministradora de electricidad el pago del servicio eléctrico, en un futuro cuando se tenga que hacer dicho pago muchos ciudadanos necesitarán “moderar” y “monitorear” su consumo eléctrico así como visualizar en tiempo real cuánto están gastando por día y su equivalente en costo, en base a estos datos podrán gestionar y organizar el uso dispositivos eléctricos a fin de tener un beneficio reflejado en la facturación de dicho servicio.
METODOLOGÍA
Para el desarrollo de la simulación se emplean varias etapas:
Análisis: Se consideran los elementos a usar, al igual que las fases en las que se desarrollará cada acción.
Medición de corriente: En el IDE de Arduino se realizó el código que permite tratar la señal medida por el sensor y procesarla. En el código se establece el procedimiento para que en base a la corriente de entrada obtenida por el sensor se realicen los cálculos de corriente pico, corriente eficaz y en base a estas dos primeras obtener la potencia en Watts. El diseño del circuito electrónico y la simulación se realizan en Proteus, en el cual se empleó: Fuente de corriente alterna, una lámpara de 127 W, Sensor ACS712, filtros de 0.1 uF y 1 nF, alimentación de 5 VCD, Arduino Uno y display LCD
Medición de voltaje: Se realiza con el sensor de tensión para lo que empleamos el módulo FZ0430, el cual mide tensiones de 0 V a 25 V , para su uso es necesario implementar una fase de rectificación. Se consideraron los siguientes elementos: transformador de voltaje de 127 V a 12 V, puente rectificador a 30V y filtro de 1000 uF.
Al realizar la simulación, no se encontraron las librerías para el sensor FZ0430 el cual está integrado por un divisor de tensión, por lo que se optó por replicarlo usando dos arreglos resistivos en serie de 30 kΩ y 7.5 kΩ.
Medición de potencia: Por medio de programación se concentran ambas mediciones anteriores para poder el cálculo de potencia en Watts, y cumplir con el objetivo de un dispositivo que mida la potencia total en un intervalo de tiempo
Definición y creación de la aplicación: El usuario podrá consultar su consumo eléctrico al dirigirse al medidor, ya que el prototipo cuenta con una pantalla LCD en donde visualizará la potencia consumida. Si se quisiera verificar el dato del consumo desde su celular y guardar los datos registrados, se complementa el dispositivo con una aplicación. Los resultados que serán mandos mediante una red bluetooth del prototipo del medidor desarrollado, y se podrá observar el consumo en kWh durante un tiempo establecido, de este modo generar un historial de los consumos guardados. Durante el desarrollo de esta app se consideraron distintos parámetros destacando el tiempo de respuesta entre las comunicaciones de 0.8 segundos y un alcance estable de 18 m. La aplicación se encuentra integrada por las siguientes pantallas:
Pantalla de inicio: Se ingresa el nombre de usuario de acceso a la siguiente pantalla.
Segunda pantalla: Muestra un recuadro donde se visualizarán los registros y la información recibida al igual que sus botones de acción.
Pantalla de reporte: Muestra un reporte general del consumo además de un botón de regresar.
Desarrollo del físico del prototipo: Para presentar una propuesta mecánica del dispositivo se empleará el software SolidWorks en el que se elaboraron las piezas individualmente basándose en las medidas reales de cada componente. El diseño final de la carcasa que contendrá los elementos del prototipo estará conformada por cuatros paredes las cuales están diseñadas de material tipo plástico ABS:
Base. Se considera el espacio necesario a las medidas características de cada elemento (10 cm x 15 cm x 0.5 cm), el diseño está previsto para que físicamente sean fijados por medio de tornillos milimétricos.
Cara superior. Cuenta con perforaciones por medio de una matriz lineal, permitiéndonos el flujo de ventilación dentro de la carcasa para evitar posibles sobrecalentamientos en el circuito.
Cara inferior. Se diseñó un sub ensamblaje de un ventilador de 12 VC a 130 mA, el cual tiene como función disipar el calor generado en el interior de la carcasa. Para la fijación se usó un tornillo de rosca milimétrica, cabeza hexagonal M4, longitud de 6 cm.
Cara frontal: Se consideran sub ensamblajes, el primero considerado para la colocación de la pantalla LCD (fijada por medio de tornillos milimétricos) y las entradas de conexión para el sensor de corriente y sensor de voltaje.
Tapa izquierda: Cuenta con una serie de perforaciones para permitir una mayor ventilación.
Tapa derecha: Se diseñó un sistema mecánico que consta de un botón central, el cual permite una fácil extracción de la tapa.
CONCLUSIONES
La realización de la simulación no bastó de tener un análisis de los componentes que integran al circuito sino más allá en cuánto a cálculos, tanto de calibración de sensores como al replicar la estructura de un sensor comercial tal es el caso del sensor de voltaje FZ0430, que al no encontrarse dentro de las librerías del software Proteus, tuvo que llevarse a cabo un análisis de cuál era la estructura y su principio de funcionamiento para poder replicarlo. No obstante, al simular dicha réplica, estaba presentando variaciones considerables que ocasionaban un error en la medición del voltaje, por lo que se recurrió a simularse en otro software, posteriormente mediante un análisis de las mediciones registradas se pudo corregir dicho error desde el código de programación.
Gracias a esto fue posible verificar el funcionamiento del circuito diseñado para el dispositivo medidor y permitió corregir a tiempo errores antes de ser llevados a la parte física y de este modo reducir pérdidas tanto económicas como de tiempo. Se procedió a realizar una propuesta de aplicación ya que complementa la parte de la simulación del prototipo en general.
Jiménez Méndez Pedro Luis, Instituto Tecnológico de Comitán
Asesor:Mtro. José Aparicio Urbano, Tecnológico de Estudios Superiores de Jocotitlán
METODOLOGÍA PARA SELECCIÓN DE PROVEEDORES EN UNA EMPRESA MANUFACTURERA DE LUMINARIA
METODOLOGÍA PARA SELECCIÓN DE PROVEEDORES EN UNA EMPRESA MANUFACTURERA DE LUMINARIA
Jiménez Méndez Pedro Luis, Instituto Tecnológico de Comitán. León Alvarez Victor Hugo, Instituto Tecnológico de Toluca. Asesor: Mtro. José Aparicio Urbano, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
La evaluación de proveedores es una práctica común en las empresas de manera que existen estándares utilizados por las organizaciones con el objetivo de no solo asegurar productos o servicios de calidad, sino buscar competir en un mercado cada vez más especializado y reducir así costos, mitigar riesgos e incitar la mejora continua. Enfocándose en las metodologías utilizadas para la evaluación de proveedores, se considera que las normas nacionales e internacionales son un estándar incorporado habitualmente en ellas, sin embargo, apenas el 1.83% de empresas en México poseen certificaciones de esta categoría, dejando al país por debajo de otras naciones de la región.
Las empresas en el Estado de México son conscientes de la importancia de la evaluación de proveedores y han visto en la integración de las normas internacionales una manera de minimizar costos, reducir errores e incrementar su productividad, por tal motivo, durante la estancia Verano de Investigación se analizó las condiciones de una empresa manufacturera de luminaria que desarrolló una metodología para la evaluación de proveedores.
METODOLOGÍA
La metodología empleada constó de tres fases, la primera fue el diagnóstico de la situación actual de la empresa donde se utilizó el diagrama de Pareto para identificar los elementos críticos y reconocer los problemas derivados de la falta de una metodología de evaluación de proveedores, la segunda fue la búsqueda de proveedores donde se emplearon herramientas tecnológicas de búsqueda y se construyó una base de datos con filtros como el frente, clasificación, especialidad y datos generales, mientras que la tercera se titula selección de proveedores y en ella a partir de los criterios definidos y el análisis costo-beneficio se observó el impacto económico de no contar con una metodología de evaluación de proveedores. Una vez obtenida toda la información de la metodología y la selección de criterios, se buscará implementar una segunda etapa a futuro donde se incorporarán normas internacionales a la metodología a fin de consolidar su efectividad.
CONCLUSIONES
De la presente investigación se obtuvo como producto final un artículo que recopiló los pasos para una metodología de evaluación a proveedores en una empresa manufacturera de luminaria ubicada en el Estado de México. Cabe mencionar que con la aplicación de la metodología se logró minimizar los costos y errores que afectan la eficiencia de la cadena de suministro de la empresa en un 35%. Gracias al Verano de la Investigación Científica hemos reforzado y aplicado la información académica obtenida de diversas materias de la carrera de Ingeniería Industrial.
Jiménez Mercado Diana, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
Jiménez Mercado Diana, Tecnológico de Estudios Superiores de Valle de Bravo. Osorio Chino Andrea Paola, Tecnológico de Estudios Superiores de Valle de Bravo. Segundo Cortés Cesar Augusto, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 en el Estado de México actualmente presenta oportunidades, pero también desafíos para las organizaciones de la industria, ya que los beneficios son potencialmente efectivos por quienes son capaces de innovar y adaptarse. Así mismo se hace visible que las organizaciones pueden adaptarse a los cambios, siempre y cuando conozcan y sepan adecuar a su sector productivo, las tecnologías necesarias para optimizar tanto los procesos como la capacidad de mejorar su rentabilidad. Por eso se hace necesario hacer énfasis en la implementación de programas educativos enfocados a la I4.0 ya que la educación no es ajena a esta revolución, dado que debe preparar a las personas para lo que ocurre en la industria y de esta forma mantener la relación que existe entre la industria y la educación.
Es por ello que el análisis de los programas existentes en el Estado de México es de gran relevancia para poder conocer como la Industria 4.0 está siendo implementada en un área tan importante como la educación, por lo que durante el verano de investigación se estudian componentes indispensables de la I 4.0 así como los programas educativos de Educación Superior del estado y algunos internacionales para así poder saber cómo esta Revolución Industrial ha causado la necesidad de adaptar la educación para que los estudiantes desarrollen las competencias disciplinares y transversales que solo adquirirá en procesos de aprendizaje a lo largo y ancho de su vida, que lo preparen constantemente para una realidad laboral cambiante y exigente.
METODOLOGÍA
La revisión de la literatura relacionada con los temas de Educación e Industria 4.0, refleja que ambas deben coexistir, trabajar y avanzar de manera lateral, tanto las personas como la tecnología deben converger en la creación de nuevas oportunidades de creatividad e innovación.
Es por ello que el propósito de esta investigación es determinar el estado actual del contexto regional (EDOMEX) para la formación de recursos humanos para el perfil laboral de la industria 4.0. El objeto de estudio es la Industria 4.0, en el contexto del sector productivo industrial regional. El sujeto de investigación incluye Instituciones de Educación Superior del Estado de México como base, en comparación con otras a nivel nacional e internacional.
Actualmente las Instituciones educativas enfrentan un gran desafío para lograr la fusión e implementación de la industria 4.0 en la educación, no obstante, se trabaja y se le da la importancia y necesidad que amerita este muevo cambio.
Por lo tanto este trabajo aplica un estudio documental para la construcción del marco teórico y un estudio de campo mediante una encuesta diseñada en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El instrumento se aplicó a especialistas en temas relacionados con Industria 4.0 con escolaridad mínima técnico con un rango menor a dos años de experiencia en adelante en la industria regional con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Las Instituciones de Educación Superior mexicanas son competitivas a nivel internacional, buscando su adaptación al nuevo paradigma, sin embargo estos esfuerzos aun no son suficientes ya que es necesario la implementación de más programas educativos enfocados a I4.0; los existentes solo han adaptado ciertas materias y a pesar de que no es una Revolución tan reciente, la mayoría de las personas con conocimientos en I4.0 tiene poca experiencia. Es por ello que las IES se deben comprometer a adaptar sus modelos educativos en pro de la demanda puesto que en su mayoría las personas a las cuales les interesa estudiar una carrera enfocada a la I4.0 deben de buscar carreras que se relacionen ya que no existe un plan de estudio universitario 100% enfocado al tema; por lo que las instituciones educativas que forman profesionistas no deben ser ajenas a los rápidos cambios que se dan en la industria, por lo que los perfiles profesionales de los profesores de las áreas de industria 4.0 deberían ser pertinentes con las necesidades de la región, sin embargo, a pesar de que estos profesionistas están en la disposición de capacitarse más en el tema al no contar con los programas suficientes como lo son cursos, maestrías o doctorados esto no será posible.
Es necesario que los docentes tengan experiencia profesional para fomentar en los estudiantes la innovación y creatividad que permita realizar procesos similares de aplicación futura e implementando cursos prácticos para captar su interés. Emplear este tipo de enfoques permite una mejor comprensión y acercamiento por parte de los estudiantes a los temas para que estén preparados y puedan ser dinámicos, activos y reflexivos respecto a su responsabilidad como profesionistas.
Por ello es necesario contar con una mejor agenda académica para promover el desarrollo de la I4.0 en la región y contar con más programas de apoyo económico tanto a las instituciones como a los estudiantes, esto permitirá crear nuevos modelos educativos así como la actualización de los existentes y los enfoques de trabajo, así mismo toda la infraestructura y encuadre de los contenidos educativos. Pero, esto llevará tiempo, dinero y modificaciones profundas en la cultura organizacional y en las formas de hacer las cosas.
Jimenez Mogoyan Eduardo Jacobo, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
GENERACIóN DE MAPAS DE NIVEL Y REPROYECCIóN EN MODELOS PARA ENTRENAMIENTO VIRTUAL DE ANáLISIS DE SUELOS
GENERACIóN DE MAPAS DE NIVEL Y REPROYECCIóN EN MODELOS PARA ENTRENAMIENTO VIRTUAL DE ANáLISIS DE SUELOS
Jimenez Mogoyan Eduardo Jacobo, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La problemática inicia una vez que nos damos cuenta de que los asentamientos urbanos no son del todo planeados. Las grandes urbes o comunidades inician muchas veces siendo improvisadas debido a la expansión demográfica inmensa que existe en el mundo. En México muchas de las comunidades o asentamientos no son planificados o en su defecto no están pensados para soportar mucha población debido a su posición geográfica. Por ejemplo, existen muchas comunidades en la falda de los cerros e incluso al borde de barrancas. Bajo este contexto se plantea la pregunta ¿cómo se transformaría esta área con el paso del tiempo? Esta cuestión es sumamente importante ya que estas comunidades están bajo peligro constante del deterioro del suelo a causas de cambio climático y acción humana. En este contexto, este proyecto de investigación analizó la modificaciónde una superficie montañosa simulada y se puso a prueba bajo ciertos eventos y el paso del tiempo para denotar los cambios que se suscitan.
METODOLOGÍA
Mediante las asesorías del profesor y empleando el software Matlab, se escribieron programas de computadora que nos dieron diferentes funciones para el procesamiento de los modelos reales y con ello poder digitalizarlos en 3D.
Primero se calibraron nuestros equipos que fueron una cámara de teléfono celular y un proyector, esto se realizó con diferentes procesos como lo son triangulaciones para obtener valores matriciales de parámetros denominados K y el mismo procesamiento de imágenes. Se tomaron fotos desde diversos ángulos y proyecciones con el fin de delimitar el área de trabajo marcada bajo un patrón secuencial de cuadros de colores azul y amarillo seleccionando puntos de una matriz.
En segunda instancia se realizó una proyección de franjas de diferentes grosores sobre el objeto a modelar. Se tomaron fotos de este proceso para poder analizarlas mediante otros programas que se crearon en sesiones de explicación dadas por el asesor, esto con el fin de lograr una modelación en imagen.
En tercera instancia mediante el procesamiento matemático y con ayuda de Matlab las mallas de franjas que se proyectaron sobre el objeto son leídas y procesadas entre si dando los parámetros y mallas de puntos sobre las cuales se generara nuestro objeto en 3D, este tendrá datos y será un modelo virtual del objeto real.
CONCLUSIONES
Con los modelos 3D ya puestos en comparación se puede notar la deformación de una superficie a causa del tiempo y procesos geológicos simulados. Esta metodología es útil para demostrar el peligro que corren los asentamientos improvisados o mal planificados. De igual forma el estudio de las deformaciones causadas son valores que pueden ser predictivos para futuras transformaciones y deformaciones. Este proyecto de investigación al igual que la estancia de verano la concluí con aprendizajes sobre la modelación en 3D, algebra más avanzada del nivel que estoy cursando, la forma y la interacción con Matlab y el procesador de texto Overleaf.
Jiménez Soto Miguel Ángel, Instituto Tecnológico Superior de Guanajuato
Asesor:M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato
DISEñO E IMPLEMENTACIóN DE UNA INTERFAZ PARA TECLADO POR PUERTO PS2 MEDIANTE VHDL
DISEñO E IMPLEMENTACIóN DE UNA INTERFAZ PARA TECLADO POR PUERTO PS2 MEDIANTE VHDL
Jiménez Soto Miguel Ángel, Instituto Tecnológico Superior de Guanajuato. Asesor: M.C. Ismael Urbina Salas, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se realizó el diseño de una interfaz PS2 en el software VHDL, la cual se realizó mediante la interconexión de un registro de desplazamiento a la derecha que tiene una entrada en serie y una salida en paralelo con una interfaz dinámica que muestra un número en hexadecimal. Para mostrar dichos valores se emplean dos exhibidores de 7 segmentos. Estos exhibidores permiten visualizar los valores ingresados mediante un teclado alfanumérico mediante una comunicación PS2 que usa el protocolo serial de 11 bits. Cada vez que el usuario presiona un botón del teclado, el dato es enviado a un registro de desplazamiento a la derecha el cual lo concatena con un bit de inicio, el dato útil (8 bits), un bit de paridad y un bit de paro, completándose así un paquete de 11 bits. Finalmente, el dato útil de 8 bits es descompuesto en dos paquetes de 4 bits y enviado a una interfaz dinámica para poder ser leída por el usuario mediante dos exhibidores de 7 segmentos. Para poder lograr esta simulación fue necesario la aplicación de un banco de pruebas debido que los relojes de las partes que componen a la interfaz PS2 corren a diferentes frecuencias y esto imposibilitan una simulación normal
METODOLOGÍA
Para poder entender de manera óptima el proyecto es fundamental tener en cuenta que el programa está dividido en varias partes de tal modo que se analizara cada parte por separado para comprender de mejor manera el funcionamiento de la interfaz, las partes que se abordaran comprende desde la codificación del mensaje, pasando por el apartado de la transmisión del código hasta la sección de la aplicación un banco de trabajo de manera que se logre vitalizar la simulación de la interfaz creada.
A continuación, se abordarán cada uno de los ya mencionados pasos de manera más explícita:
El primer paso para lograr los objetivos es realizar las conversiones necesarias para de este modo poder ingresar los datos a la interfaz, dichos pasos son:
Seleccionar la tecla que se desea ingresar esta parte es fundamental ya que hay que recordar que cada tecla cuenta con un código el cual se encuentra en código ASCII.
El siguiente paso para poder ser enviada la información es necesario convertir el código que se encuentra representando a la tecla el cual se encuentra en hexadecimal a binario para posteriormente realizar el llenado de esta información a el protocolo serial de 11 bits el cual permite ser ingresado al registro.
Después este código ingresa a la interfaz PS2 el cual está compuesto de diversos componentes los cuales en conjunto permiten que la información cifrada ingrese al registro serie-paralelo el cual permite rescribir la información que de un inicio esta agrupada en un solo cable y que se encuentra decodificada, de modo que sale en un formato de 8 bits. De modo que la información tendrá un formato en serie resultado del registro antes mencionado.
Mediante las conexiones E0 y E1 (las cuales son de 4 bits) cada uno ingresara la información que sale del registro, en estas secciones entrara la información codificada en el protocolo paralelo.
El siguiente paso es pasar por la interfaz de 7 segmentos la cual decodificara esta información y la transformara en señales que serán visibles al usuario por medio de la activación de los 2 exhibidores de 7 segmentos.
Como último paso se generará un banco de trabajo el cual permitirá realizar la simulación del registro PS2 el cual no puede ser simulado de otro modo debido a que esta interfaz cuenta con 2 relojes, el primero proviene del teclado y el segundo de la interfaz de tal manera que los 2 relojes trabajan en diferentes frecuencias lo cual impide realizar la simulación, de modo que, al implementar un banco de trabajo se puede logar realizar la simulación.
CONCLUSIONES
En la parte de resultados se desarrollaron las simulaciones correspondientes de 2 teclas, a continuación, se explica los pasos que se realizaron para pasar del código ASCII al protocolo serial para poder posteriormente ingresarlos al interfaz PS2.
El proceso realizado fue el siguiente el cual es el mismo para cualquier tecla que se desee introducir a la interfaz de PS2, como primer paso es necesario seleccionar la tecla que se desea introducir, dicha tecla contiene un valor ASCII el cual tendrá que ser convertido a binario ya que dicho valor se encuentra en hexadecimal, posteriormente con la información recabada se realiza el llenado del protocolo serial de 11 bits el cual será ingresado al registro para posterior mente introducirlo al banco de trabajo en donde se realizará la simulación con la cual se obtiene el valor que arroja s dicho valor se encuentra en formato binario e indica los segmentos que deberán de encenderse en los 2 exhibidores de 7 segmentos.
Conclusión:
A lo largo de este trabajo se logró aprender a utilizar el software VHDL el cual permitió realizar la descripción de una interfaz para un teclado PS2, dicho interfaz represento un gran reto ya que el tipo de forma de realizar la descripción se torna un poco difícil de comprender debido a que se está más familiarizado con otras formas de ver la programación.
Jiménez Velázquez Paola, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas
CARACTERIZACIóN DE SOFTWARE PARA EL ESTUDIO DE SóLIDOS POROSOS
CARACTERIZACIóN DE SOFTWARE PARA EL ESTUDIO DE SóLIDOS POROSOS
Jiménez Velázquez Paola, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Josué Francisco Pérez Sánchez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El cálculo de la dimensión fractal, así como la obtención de los gráficos representativos del comportamiento de los sólidos porosos son sumamente complejos y laboriosos, es por ello que estos programas fueron planteados por miembros de la Facultad de Arquitectura, Diseño y Urbanismo de la Universidad Autónoma de Tamaulipas, y es mediante los cuales se obtienen los datos antes mencionados de una manera más rápida y sencilla, de manera que esta investigación lleva por objetivo la validación del software Morfogénesis para sólidos porosos, el cual nos permite visualizar el comportamiento temporal del área superficial, la simulación del perfil 2D y la simulación del perfil 3D.
METODOLOGÍA
Para el desarrollo del trabajo, se lleva a cabo la caracterización el software Morfogénesis para sólidos porosos, además de tener al software Image J como apoyo. Donde el programa de Image J nos permite encontrar la dimensión fractal: valor numérico que nos proporciona que tan homogéneo o heterogéneo puede ser un sistema con respecto a una característica física que se esté determinando, este se desarrolla mediante el algoritmo de conteo de cajas, en inglés Box counting, donde este método para el cálculo de la dimensión fractal es el más extendido en todas las áreas en virtud a que es más sencillo de implementar. Debido a la rapidez y asertividad en sus resultados, nos permite desarrollar una experimentación con mayor fluidez, así como poder abarcar un mayor número de pruebas.
Por otro lado, el software de Morfogénesis para sólidos porosos está basado en el artículo Mesoscopic model for the surface fractal dimension estimation of solid-solid and gas-solid dispersed systems, el cual desarrolla todo el planteamiento matemático, que relaciona la dimensión fractal con el tamaño de poros, lo que nos genera un modelo que nos permite estimar la formación de los poros a través de la interacción sólido-sólido y sólido-gas para determinar en periodos de tiempos dados el crecimiento o la formación de dichos poros.
Mediante la implementación del software necesario, se ha realizado la experimentación aplicando el algoritmo a valores de dimensión fractal conocidos [2.1, 2.9] donde las dimensiones macroscópicas se determinaron en cm, la longitud y el ancho con un valor igual 10, el tiempo de 1-10, y 100 posiciones espaciales; así como sobre superficies u objetos porosos cuyo valor de la dimensión fractal se desconocía, se determinó mediante el software Image J.
CONCLUSIONES
En relación con lo antes expuesto se cumplió con el objetivo de la investigación, donde después de haber realizado la experimentación en el software de puntual interés para esta investigación (Morfogénesis para sólidos poroso) en un equipo de computo con un procesador: Intel® Core™ i5-6200U CPU @ 2.30GHz 2.40GHz , memorioa RAM: 8GB y tipo de sistema: Sistema operativo de 64 bits, procesador x64, de acuerdo a los datos ingresados al programa demorada de 1.5 min - 2 min en presentar el comportamiento temporal de la superficie y la simulación del perfil 2D, en cuanto a la simulación del perfil 3D de acuerdo a cada tiempo determinado demora de 0.5 min - 1 min. El programa presenta como desventaja el tiempo de espera en lo que calcula, pero por otro lado nos ofrece una ventana principal del programa bastante vistosa y entendible, en cuanto a los gráficos obtenidos presenta la opción de manipularlos un poco con la finalidad de que el usuario tenga una mejor visualización de los mismos, así como la facilidad de exportar e imprimirlos.
Joachin Tomas Juan Antonio, Instituto Tecnológico de Comitán
Asesor:Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato
FORMULACIóN DE UNA ESTRATEGIA PARA MEJORAR LAS CONDICIONES DE TRABAJO POR RIESGO COVID-19 EN EL SECTOR MANUFACTURERO
FORMULACIóN DE UNA ESTRATEGIA PARA MEJORAR LAS CONDICIONES DE TRABAJO POR RIESGO COVID-19 EN EL SECTOR MANUFACTURERO
Gómez González Leticia del Carmen, Instituto Tecnológico de Comitán. Joachin Tomas Juan Antonio, Instituto Tecnológico de Comitán. Asesor: Mtra. Claudia Rivera Domínguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La pandemia COVID-19 hasta la fecha sigue causando estragos en los diferentes sectores laborales, siendo considerada como un nuevo riesgo biológico ocupacional debido a su rápida trasmisión y a las nuevas cepas, aumenta la probabilidad de contagio que impacta directamente a la salud de los trabajadores. Bajo este contexto, los lugares de trabajo siguen siendo de los espacios más susceptibles a la expansión.
Para su prevención, tanto empresas como empleados juegan un papel importante para mantener los lugares de trabajo seguros; por lo tanto, se deben adoptar medidas necesarias para disminuir la cadena de infección. El riesgo de exposición de la transmisión del virus depende de diversos factores, por lo que es fundamental que las empresas implementen nuevos controles para evitar contagios, ya que, por lo contrario la sostenibilidad del trabajo se vería afectada gravemente.
En México, el Sector Manufacturero ha sido uno de tantos que se han visto afectado al enfrentarse a esta nueva normalidad, por lo que están obligados a tomar medidas para evitar la propagación del virus y poder seguir laborando. En este sentido, se requiere emplear medidas o estrategias de control en Salud y Seguridad Ocupacional adecuadas para prevenir los contagios, proporcionando los instrumentos útiles, así como prácticos para la evaluación del riesgo que en consecuencia ayudaran a determinar las medidas de control más adecuadas.
METODOLOGÍA
La propagación del COVID-19 ha reducido considerablemente las actividades labores 3lo que conduce a las empresas a ser piezas importantes en la preparación y respuesta de medidas de seguridad adecuadas para hacer frente a la pandemia actual. Por tal razón, se propone la combinación de varias metodologías como el de DEMING, IH / OEHS y Control de Bandas para el control del riesgo biológico en los centros de trabajo. A continuación, se presentan las fases de la nueva metodología propuesta para reducir el número de contagios por COVID-19, en el trabajo.
Fase 1: Elaborar el proceso de planeación de la estrategia
Para la determinación de la fase se realizó la interacción de las metodologías de DAMING, IH / OEHS y el Control de Bandas porque coincidían en algunas características como la identificación del riesgo. Se comienza con la planeación seguido de la obtención de un diagnóstico. Para llevar acabo dicho proceso se debe seguir la siguiente secuencia: identificación del riesgo, establecimiento de las metas y objetivos por alcanzar, así como determinar los recursos materiales, humanos, logísticos y presupuesto referencial a emplear. Estos procesos le dan la estructura al diagnóstico inicial de control del riesgo COVID-19.
Fase 2: Establecer Plan de Acción de acuerdo con metas establecidas
Esta fase es un complemento de las tres metodologías anteriormente mencionadas, permitiendo determinar el nivel de exposición del riesgo empleando el Control de Bandas que junto con el grupo de riesgo se identifica la matriz, el cual dará paso a la Selección de Controles / Jerarquía de Controles. Después de seleccionar los controles se lleva a la implementación (prueba piloto).
Fase 3: Comparar Diagnóstico inicial con la Situación Actual
Después de que pase el periodo establecido en el plan de acción, se procede a realizar un análisis para interpretar los resultados obtenidos y hacer una comparación del antes y después, midiendo el desempeño. Para su interpretación se pueden emplear herramientas como Diagrama de Pareto, un Chek lists, gráficos, cuestionarios, resúmenes, entre otros.
Fase 4: Revisar la comparación sobre el logro de metas para comprobar la efectividad de control del riesgo
En esta última, se emplea la fase de actuar del Ciclo Deming donde se revisa si se han obtenido los resultados deseados y se toman acciones para continuar con la implementación, analizar que queda por mejorar o reiniciar el proceso. Si los cambios realizados no dieron como resultado una mejora, se considera las lecciones aprendidas de la prueba inicial y se volverá a la primera fase.
CONCLUSIONES
Como resultado se obtuvo la propuesta de la estrategia holística compuesta por las cuatro fases, con la finalidad de reducir el contagio en los centros de trabajo del Sector Manufacturero por el riesgo biológico COVID-19, obteniéndolo de la combinación de las metodologías DEMING, IH / OEHA y Control de Bandas. Por lo que se espera que al ser aplicada se tenga una mejora continua, lo que ayudara a reducir el nivel de exposición del riesgo en cada una de las áreas de la empresa.
Tras la recopilación de información en revistas científicas algunas deficiencias que se presentaron fue la falta de información que plantearan estrategias adecuada al enfoque del tema, ya que por ser un nuevo riesgo biológico, no se contaban con información precisa para saber de qué manera actuar sin afectar la productividad de las empresas. Por lo tanto, se propone mejorar la propuesta con nuevas actualizaciones para que los procedimientos sean de fácil comprensión lo que permitiría adecuarlo a diferentes sectores. Así mismo, como una línea de investigación a futuro, sería incluir el apoyo psicológico-emocional para disminuir el nivel de estrés que pudiera generar en el empleado al estar laborando y adaptándose a los nuevos cambios.
Como análisis final de la estrategia propuesta es importante hacer mención que en la fase uno se tiene que llevar a cabo contando con el personal especializado en riesgos. Así como, se sugiere que se adhiera un paso más, denominada Integración del equipo para la implementación de la estrategia. Para la fase tres y cuatro no se llegó a ese punto de cumplimiento en plasmar cómo es que se desarrolla y qué información básica se deben de contar para poder emplearlas en el análisis. Finalmente, con la propuesta de las tres metodologías podemos concluir que la metodología IH / OEHA y el de Control de Bandas son las que permiten identificar el riesgo y encontrar las medidas de control correspondientes; sin embargo, el Ciclo de Deming viene a completar esta estrategia ya que permite contar con un antes y un después de aplicar las dos metodologías mencionadas. Por lo que creemos, que su aplicación permitirá tener un mejor control y seguimiento continuo, evitando bajar la guardia.
Juárez Hernández Erika, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
EVALUACIóN DEL DESEMPEñO DEL CARBONIZADO DE HUESO EN LA REMOCIóN DE FLUORUROS TENIENDO COMO CO-SOLUTO AL ARSéNICO
EVALUACIóN DEL DESEMPEñO DEL CARBONIZADO DE HUESO EN LA REMOCIóN DE FLUORUROS TENIENDO COMO CO-SOLUTO AL ARSéNICO
Juárez Hernández Erika, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
El agua subterránea se utiliza como fuente de agua potable para el consumo humano en todo el mundo. Sin embargo, en México, los acuíferos se encuentran contaminados por arsénico y flúor, lo cual representa riesgos potenciales para la salud humana y el medio ambiente. La principal causa de la presencia de estos dos contaminantes se debe a la meteorización de las rocas naturales, las descargas de las industrias de aluminio, fosfato, carbón, fertilizantes, cerámica, acero, petróleo, vidrio y semiconductores, para el caso de los fluoruros, mientras que el arsénico se encuentra de forma natural en ciertos suelos (Merodio y col., 2019). Además, este se obtiene mediante la producción industrial de cobre, plomo y zinc, y a través de la aplicación de insecticidas en granjas (Mendoza y col., 2014). Por otra parte, hay reportes que indican que estos dos contaminantes se encuentran de forma simultánea en el agua subterránea (López y col., 2019).
Por lo anterior, es necesario implementar tecnologías que permiten la eliminación o la disminución de dichos contaminantes en los efluentes contaminados. Entre dichas alternativas se encuentra el proceso de adsorción (Sandoval y col., 2021). Los principales materiales adsorbentes empleados para esta tecnología en la remoción de fluoruros y arsénico son el carbón activado, alúmina activada y óxidos metálicos (Montiel y col., 2012). Bajo esta perspectiva, el presente estudio tiene como objetivo principal evaluar el desempeño del carbonizado de hueso en la remoción de fluoruros teniendo como co-soluto al arsénico.
METODOLOGÍA
Se utilizó como adsorbente un carbonizado de hueso proporcionado por el anfitrión. Los estudios de adsorción se realizaron en condiciones por lote a 30 °C, pH 7, 120 rpm durante 24 h, empleando soluciones binarias con concentraciones iniciales de 20 a 250 mg/L para los fluoruros y de 100 mg/L para el arsénico, y una relación adsorbente - adsorbato de 2 g/L. Las concentraciones iniciales (Co) y en el equilibrio (Ce) de los fluoruros se obtuvieron empleando el método de ion selectivo, mientras que las de arsénico se determinaron con un espectrómetro de absorción atómica (Thermo Scientific, iCE3000). Con los resultados obtenidos se calcularon los porcentajes de remoción (R, %) de fluoruros y arsénico del carbonizado de hueso empleando la siguiente ecuación:
R=((Co-Ce)/Co)*100
CONCLUSIONES
Los porcentajes de remoción del carbonizado de hueso en la mezcla binaria oscilaron entre 1.60 y 80.02 % para los fluoruros y entre 0 y 33.99 % para el arsénico. Estos resultados indican que el porcentaje de remoción de fluoruros es inversamente proporcional a la concentración inicial. Para el caso del arsénico se observó que el porcentaje de remoción es directamente proporcional a la concentración de fluoruros lo que indica que al parecer hay un efecto sinérgico de adsorción.
Por otra parte, durante la estancia de investigación en el laboratorio de Ingeniería y Tecnología del Agua se logró obtener conocimientos tanto teóricos como prácticos sobre el proceso de adsorción. Además, se evaluó el desempeño del carbonizado de res en la remoción simultánea de fluoruros y arsénico. Finalmente, se observó que es necesario tener reproducibilidad en los datos experimentales para lograr resultados confiables. Para ello es importante utilizar de forma correcta el material y equipo de laboratorio.
Juárez López Maria Yaneli, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
Juárez López Maria Yaneli, Instituto Tecnológico Superior de Guanajuato. Lopez Galindo María de los Angeles, Tecnológico de Estudios Superiores de San Felipe del Progreso. Pérez Gutiérrez Juan, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La ciberseguridad es un tema cada vez más relevante en la vida de las personas y de los negocios. De hecho, con la paralización mundial debido a la pandemia por el COVID-19 el teletrabajo se extendió mundialmente y así su aplicación inmediata. La ciberseguridad trata de mitigar los riesgos que todo negocio en la red pueda tener. No es otra cosa que proteger toda la información de los equipos almacenada en cualquier dispositivo o incluso en la nube.
Por otro lado, la demanda de conectividad es irrefutablemente alta y es cada vez más difícil mantener una estabilidad entre la cantidad de clientes y la seguridad de los mismos. Por esto, es cada vez más sencillo acceder a la información que debería de ser privada; existe también un alto grado de desinformación por parte de los clientes, entre lo que es seguro hacer y lo que no. Enfatizando en este aspecto es importante que a los usuarios se les administre reglas sobre un grado de ciberseguridad, para mantenerse a salvo de los ciber ataques y así prevenir las violaciones de datos y de información.
METODOLOGÍA
El presente proyecto se desarrolla bajo las siguientes fases de funciones de Cybersecurity Framework (CSF), estableciendo cinco etapas, las cuales son: Identificar, proteger, detectar, responder y recuperar.
Identificar: En esta etapa se tiene como objetivo implementar un sistema de Seguridad perimetral (Firewall de software libre) que mantenga la información protegida y de esta forma evitar la pérdida de datos o información que pueda causar un daño grave a la empresa o institución. En esta etapa se identificaron riesgos para servidores (Windows y Linux), en servicios administrativos de correo electrónico, transferencia de archivos, conexión remota, servicio web, desde la solicitud y demanda de los clientes. Enfatizando en lo anterior, también se establecen políticas para disminuir amenazas internas y externas.
Proteger: Establecer reglas dentro del firewall que permitan el manejo adecuado de la información a través de la utilización del servidor PFSENSE con el fin de administrar la seguridad de dicha red de forma accesible y que ésta pueda ser tomada como base para la implementación en una empresa o institución en general. Aplicación de reglas en el firewall, las cuales son:
Reglas para el servicio de correo electrónico.
Reglas para el servicio de transferencia de archivos.
Reglas para el servicio web.
Reglas para el servicio de conexión remota.
Para lo cual se asignaron IP de acuerdo a los clientes que se tienen en el sistema con esto se administra un control de acceso a los servicios del sistema y de acceso a la red, así manteniendo la seguridad y navegación para evitar vulnerabilidades.
Detectar: Es esencial comenzar el proceso de evaluación sobre las protecciones que tiene tu organización. Estos deben incluir elementos como protección antivirus, políticas de seguridad, como contraseñas, detección de amenazas y agilidad de respuesta, entre otros. El propósito de esta revisión exhaustiva no es necesariamente aumentar la confianza en lo que has logrado. Este monitoreo de seguridad será indispensable realizarlo de manera continua para evitar eventos no deseados en el sistema. Mediante técnicas de escaneo de vulnerabilidades donde a partir del sistema propuesto y las herramientas Nmap y Wireshark se realizó la búsqueda de vulnerabilidades en la red del sistema, donde se identifica puertos que se encuentran abiertos, estos representan un problema ya que a partir de aquí pueden ingresar al sistema para causar anomalías.
Responder: Se analiza y se hace conocer las medidas y documentación de mitigación frente a un ataque cibernético, las acciones estipuladas y oportunas para evitar cierta filtración de seguridad. Se lleva a cabo actividades de análisis de la información basada en los eventos y planes de recuperación de la información, estipulados cibernéticamente.
Detección de notificaciones de alerta: Mediante comandos y ejecución del software del IDS, se estipula el origen de las vulnerabilidades detectadas.
Impacto del incidente: Se estipula mediante registros e historiales documentales elaborados, el impacto del evento en caso se haber sido ejecutado o infiltrado en la red.
Análisis forenses: Se realiza mediante diferentes herramientas de software y hardware, análisis forense a todos los dispositivos de red y su infraestructura en general.
Plan de acción desde fuentes externas e internas: Siendo las vulnerabilidades informadas mediante dientes medios y fuentes, se establece la normativa de recepción de información de incidentes
Una vez hecho este análisis se configuran las reglas de accesos y alertas de firewall en cada zona donde se hayan detectado puertos abiertos o vulnerados, esto hará que se generaren filtros de afección al ataque.
Recuperar: Técnicamente se deben cumplir todos los procesos que ayuden a prevenir la filtración de personas terceras, software o programas malintencionados en la red, para esto se cuenta con los controles físicos en las puertas de acceso, reglas de acceso de red mediante el filtro de firewall, router e IDS, aplicando los filtros de las fases de protección y respuesta, se estipula implementar mejoras de seguridad basadas en las lecciones aprendidas de ataques de red. Se considera un guion actualizable de todas las mejoras dependiendo la zona de red o activo.
CONCLUSIONES
Cada vez se presentan más retos en el ámbito de la seguridad de las empresas, el número de amenazas en los últimos años se ha disparado y el concepto de seguridad perimetral se ha convertido en una necesidad básica para cualquier organismo con acceso a Internet. Teniendo esto en cuenta, se desarrolló un entorno de pruebas con el fin de evaluar las vulnerabilidades dentro de la red, y comprender la función del firewall, diseñando políticas de seguridad, mismas que fueron las encargadas de administrar la red y de controlar el tráfico y el acceso de los usuarios para fijar el marco de actuación necesario, y de esta manera proteger el sistema de amenazas o en su caso reducir o mitigar el impacto que presentan los ciberataques.
Laguna Carrasco Samara, Universidad de Medellín
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
ANáLISIS Y PROCESADO DE ACELEROGRAMAS DE REGISTROS SíSMICOS EN LA ZONA LOS SANTOS, SANTANDER COLOMBIA PARA FINES DE INGENIERíA SíSMICA
ANáLISIS Y PROCESADO DE ACELEROGRAMAS DE REGISTROS SíSMICOS EN LA ZONA LOS SANTOS, SANTANDER COLOMBIA PARA FINES DE INGENIERíA SíSMICA
Laguna Carrasco Samara, Universidad de Medellín. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Los acelerogramas son registros de aceleración de un terreno generado por un movimiento fuerte producido por un sismo, el registro de dichas aceleraciones se lleva a cabo por medio de acelerógrafos los cuales se instalan de acuerdo a las necesidades identificadas en el terreno, la ocurrencia de un sismo trae consigo efectos a nivel material y a nivel social como lo pueden ser perdida de vidas, choques psicológico, interrupción de servicios vitales, incendios, olas marítimas sísmicas, derrumbes entre otros.
En el mundo todos los días ocurren sismos de diferentes magnitudes entre los cuales la mayoría pasa desapercibidos para el hombre por lo cual el predecir un sismo, su magnitud, hora y lugar de ocurrencia resulta imposible por lo cual es totalmente necesario estudiar a profundidad los sismos dado que al ser impredecibles nos encontramos totalmente expuestos a estos, con estudios de estos quizás no sea posible predecirlos pero si entenderlos y saber cómo proteger a la población y su infraestructura ante la inminente ocurrencia de un sismo. Es importante conocer sismos históricos de diferentes terrenos en el mundo lo cual permitiría saber a que tipo de sismo existiría la posibilidad de enfrentarse a futuro, permitiendo que no solo se proteja la infraestructura y se realice un diseño más seguro sino también proteger la vida humana.
La mayor problemática es principalmente la ausencia de registros sísmicos o estaciones de acelerógrafos que permitan obtener los datos necesarios para realizar análisis que permitan tener medidas de prevención ante futuros sismos porque como se tiene claro un sismo puede ocurrir en cualquier momento por lo que durante el verano de investigación se analizan los acelerogramas de sismos considerados importantes en la zona de Los Santos, Santander Colombia.
METODOLOGÍA
El trabajo realizado de dividió en cuatro etapas importantes de las cuales la primera es la selección de la zona de estudio durante la investigación realizada la zona que se estudio es el municipio de Los Santos, Santander ubicada en Colombia, este lugar es el segundo nido sísmico del mundo y de acuerdo con Carlos Alberto Vargas profesor del departamento de geociencias de la Universidad Nacional en esta región se registran hasta 40 movimientos telúricos diarios aunque en magnitudes muy pequeñas.
En el caso de esta investigación se presentan datos de sismos considerados importantes en la región de estudio, la selección de la zona de estudio se hizo debido a la eventualidad con la que ocurren movimientos sísmicos del terreno y aun mas importante que en dicha zona han ocurrido daños en edificios debido a sismos.
El segundo punto importante es la identificación de datos disponibles, dentro de la zona de estudio no se cuenta con estaciones de acelerógrafos por lo cual se recurre a estaciones cerca de la región de estudio entre las cuales se encuentran cinco dentro del departamento de Santander (ver Tabla 1) y relativamente cerca de la zona de estudio (ver Figura 1), es importante resaltar que actualmente todas las estaciones que se encuentran en la región de estudio están actualmente activas.
Con las estaciones presentadas (ver Figura 1) se realiza un sondeo sobre los sismos registrados en dichas estaciones y de los cuales se guardan registros sísmicos, es importante resaltar que se seleccionaran cuatro sismos que representen una magnitud importante a continuación, se presenta la ubicación del epicentro sísmico (ver Figura 2) y profundidad de estos, adicionalmente las fechas de ocurrencia de dichos sismos (ver Tabla 2).
El tercer punto importante es la clasificación de los acelerogramas para el estudio, con las estaciones de acelerógrafos determinadas es necesario seleccionar los acelerogramas a estudiar de los cuales se analizarán los que presenten datos más significativos obtienen algunos datos principales (ver Tabla 3).
De los datos presentados la para el sismo ocurrido en el año 2017 dado que diversas estaciones captaron dicho movimiento se realizará el análisis para las diferentes estaciones de manera que sea posible un análisis más profundo.
Dado que se no se cuenta con información suficiente resulta difícil determinar el tipo de mecanismo de falla que origino dichos sismos, es importante que para estudios posteriores se tenga en cuenta la disponibilidad de información.
El cuarto y último punto es el procesado de los acelerogramas elegidos por medio del programa Seismograms Analyzer-e de manera que se puedan leer cada una de las componentes de los registros sísmicos elegidos, este análisis se realizara para cada una de las estaciones seleccionadas en los diferentes sismos de estudio.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los sismos e introducción al funcionamiento del programa Seismograms Analyzer-e por medio del cual se logró realizar el análisis de algunos sismos relevantes ocurridos en la región de estudio obteniendo de dicho análisis información pertinente y aplicable al diseño sismorresistente de edificaciones, de acuerdo con los resultados obtenidos del programa se logra observar que ninguno de los sismos de estudios amerita alerta como sismo potencialmente dañino para las edificaciones.
El estudio muestra algunos sismos disponibles en la zona de estudio o que indica que no se tienen cubiertos todos los sismos de la zona, este análisis contribuye a la construcción de edificaciones más seguras, pero no es suficiente por lo cual es necesario complementar esta información con otros sismos los cuales estén disponibles o recurrir al uso de acelerogramas sintéticos, para la toma de decisiones esta investigación posee información de referencia pero resulta necesario tomar muchas mas referencias y cumplir siempre con la normativa vigente aplicable a la zona de estudio.
Laprada Mancinaz Ana Paula, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ESTUDIO DE VARIABLES DE REFLECTANCIA
ESTUDIO DE VARIABLES DE REFLECTANCIA
Camacho Denogean Sofia Guadalupe, Universidad de Sonora. Campa Haro Miguel Angel, Universidad de Sonora. Laprada Mancinaz Ana Paula, Universidad de Sonora. Tautimez Rivera Oscar Uriel, Universidad de Sonora. Tirado Luna Rubén Alejandro, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los espejos utilizados en los heliostatos, se encuentran expuestos a diferentes variables que pueden interferir en la eficacia de estos, tales como, transmitancia, reflectancia y absortancia. Esta investigación se enfocará en la reflectancia de estos.
La problemática a tratar es conocer si la reflectancia de los espejos disminuye o incrementa al aumentar el grosor de éstos, ya que al ser un camino óptico mayor el que tiene que recorrer la luz solar a través del vidrio, se espera que se pierda una pequeña cantidad de radiación solar.
METODOLOGÍA
Los espejos utilizados tienen una capa de 3mm y 5mm respectivamente, ambos vidrios están formados de arena de sílice, carbonato de sodio y caliza, además de una capa delgada de plata, que es lo que le da su propiedad reflectiva.
El estudio se realizó el día 26 de julio del 2021, entre las 10:56 AM y las 11:42 AM en la Plataforma Solar de Hermosillo, ubicada en la ciudad de Hermosillo, Sonora (29.0275795,-111.1456932). Las medidas se realizaron durante días despejados debido a que las condiciones medioambientales también pueden afectar los resultados obtenidos. Es importante considerar la limpieza de la superficie de los espejos, ya que la suciedad (provocada por polvo, lluvias, etc) afecta en gran manera la reflectancia de estos.
El dispositivo que se usó para las pruebas fue un pirheliómetro con seguimiento solar. El funcionamiento de este dispositivo comienza al momento que entra luz solar por medio de una ventana, donde al llegar la radiación, por medio de termopilas, esa cantidad de energía proveniente de los rayos del sol, las transforma en señales eléctricas que van hacia un dispositivo electrónico capaz de interpretarlas, que en esta ocasión el dispositivo que se usó fue un multímetro convencional.
La experimentación para llevar a cabo las mediciones fue la siguiente; primeramente, se calculó la radiación solar que llegaba al pirheliómetro directamente, se guardaban los datos, y proseguimos a calcular la radiación reflejada de los espejos de 3 y 5 milímetros con el pirheliómetro, en donde se trató de colocar los espejos lo más normal al sol para evitar errores por factor coseno, que son las pérdidas proporcionales al coseno del ángulo que se forma entre la normal a la superficie reflectiva con la dirección que tiene la incidencia de la radiación directa. Estos pasos se repitieron 5 veces por cada espejo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos sobre el uso de helióstatos, sus diversas aplicaciones y tipos. Estudiamos cualitativamente y cuantitativamente los beneficios que nos brindan este tipo de tecnologías para así lograr analizar qué tan sustentables son este tipo de proyectos tomando en cuenta las pérdidas de energía que se dan durante la transformación debidas a diversos factores tales como las características reflectivas de los espejos.
Según los resultados obtenidos, tiene una mayor eficiencia un espejo delgado con respecto a uno de mayor grosor, esto se cumple para los espejos con vidrios de igual transmitancia. Esta diferencia de 2mm logró mejorar la eficiencia hasta un 9%, también es importante tomar en cuenta que entre más delgado sea el vidrio más frágil será, y tendrá que tener un mayor cuidado a la hora de su instalación.
Consideramos importante invertir en espejos que tengan gran resistencia a los factores ambientales que pueden afectar su calidad, que soporten altas y bajas temperaturas, tormentas de arena, aire, lluvia, etc.
Lara Carpio Yeira Alejandra, Instituto Tecnológico de Reynosa
Asesor:Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
KUZLOGROUNDS
"CONSTRUCCIóN DE AMBIENTES EN ESPACIOS DE REALIDAD AUMENTADA”
KUZLOGROUNDS
"CONSTRUCCIóN DE AMBIENTES EN ESPACIOS DE REALIDAD AUMENTADA”
Cruz Carballo Sergio, Instituto Tecnológico de Reynosa. Lara Carpio Yeira Alejandra, Instituto Tecnológico de Reynosa. Asesor: Dr. Osslan Osiris Vergara Villegas, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Actualmente, existen diversas aplicaciones de Realidad Aumentada, las cuales realizan funciones como proyectar elementos como electrodomésticos, planos de edificios, entre otros en un ambiente 3D. Además, en México son poco conocidas por sus limitaciones y su inaccesibilidad por la brecha generacional de los dispositivos con los que contamos en la actualidad.
Por consiguiente, no hay tantas aplicaciones extensivas de Realidad Aumentada creadas para dar un uso más amplio a la materia de construcción y modelaje de oficinas u hogares.
METODOLOGÍA
Con base a los libros troquelados, los cuáles, son obras que fueron utilizadas esencialmente para ilustrar de forma dinámica e interactiva cuentos tradicionales representándolos en 3D.
En sí, los libros troquelados son los predecesores de la Realidad Aumentada, por lo que, en la actualidad se utilizan para una visualización directa o indirecta de un entorno físico del mundo real, cuyos elementos se combinan con elementos virtuales para la creación de una realidad mixta en tiempo real.
Se realizó la aplicación de KUZLOGROUNDS, para probar nuevos diseños (muebles, puertas, ventanas, buros, entre otros) sin la necesidad de ir a los establecimientos.
Utilizando el programa de juego Unity para desarrollar la aplicación en lenguaje C# para la estructura de la app y en Blender el modelado y diseño de los assets (muebles, puertas, ventanas, buros, entre otros).
Se inició usando la extensión de Vuforia, la cual, consiste en escaneo de imágenes dentro de una base de datos en línea, para el funcionamiento de la aplicación. A lo largo del proceso de pruebas con Vuforia, se utilizaron imágenes para tener un mayor reconocimiento frontal de la aplicación. Todo lo anterior se realizó para entender las ideas principales.
Durante las pruebas en la plataforma de Vuforia, se detectaron limitaciones como poco manejo del HUD (es la visualización del usuario con la cual maneja el programa) apropiado. Por lo cual, se optó por cambiar a la plataforma de AR Fundation, la cual, funciona con el lenguaje de programación C# de Unity, con el fin de brindar un mayor desempeño a la hora de las pruebas.
Al realizar pruebas con AR Fundation sirvió para desarrollar planos, para poder colocar los objetos. De igual manera, se puede añadir un puntero o con clic en cualquier parte de la pantalla, para colocar dicho objeto.
Por otro lado, se comenzó por diseñar/rediseñar modelos en el software de AutoCAD, debido a lo cual, esta herramienta alargó el proceso de diseño, por lo que se cambió de software a Blender. Blender es una herramienta más accesible para diseñar/rediseñar diversos modelos (muebles, paredes, ventanas, sillas, puertas, mesas, entre otros).
Una vez reforzada la estructura, se detectaron fallas en el código, las cuales, se corrigieron dentro de Visual Studio (Lenguaje C#).
Es importante mencionar, que las pruebas terminadas con la aplicación pueden ejecutar diseños dentro de un espacio de Realidad Aumentada, con la finalidad, de realizar planos de hogares u oficinas con una precisión aceptable.
CONCLUSIONES
Aprendimos el diseño de modelos en Blender para la utilización en diferentes aplicaciones, además de aprender sobre todo el diseño, exportación y manejo de aplicaciones de Realidad Aumentada dentro de Unity. Consiguiendo con estas 2 habilidades nuevas el desarrollo de una aplicación de Realidad Aumentada, con la cual se pueden diseñar estructuras de hogares u oficinas o espacios donde se pueda usar acorde a las necesidades del usuario.
Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Andrea Palomino Salcedo, Universidad del Valle
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Palomino Salcedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Los bancos de alimentos son una estrategia para minimizar el desperdicio de alimentos y aumentar la seguridad alimentaria en poblaciones vulnerables. Sin embargo, la decisión de destinar alimentos a quienes soliciten su apoyo es una situación problemática. Esta decisión debe considerar varios criterios que aseguren que los alimentos se dirijan a las organizaciones o poblaciones que más lo necesitan. (Henao, López, Chud-Pantoja & Osorio, 2020, párr. 1)
El desperdicio de alimentos ha aumentado en todo el mundo, siendo una cifra casi aterradora: en el año 2019, hubo 931 millones de toneladas de alimentos desperdiciados (Paúl, 2021). En Colombia, se desperdician alrededor de 9.76 millones de toneladas cada año (Anónimo, 2019).
También hay una gran población que no come adecuadamente y puede aprovechar estos alimentos. Si nos adentramos en algunos de los municipios de Colombia, en este caso, de Cali, las cifras que se desperdiciaron en el 2018 fueron de 319.305 toneladas de comida únicamente en los hogares caleños, y según las proyecciones realizadas, este año se generaría un total de 330.169 toneladas de comida en las basuras de las zonas residenciales (Anónimo, 2014).
Si bien fenómenos como la desnutrición crónica y la relación de esta con la mortalidad infantil están asociados a la inseguridad alimentaria, de acuerdo con la Unicef la desnutrición crónica, que se diagnostica cuando la talla y el peso no corresponden a la edad de la persona, está asociada a situaciones de pobreza, y tiene un enorme impacto en el desarrollo (Aguirre, 2014).
METODOLOGÍA
Para la elaboración de este proyecto se utilizará la metodología de acción (investigación) tecnológica, ya que logra determinar un saber hacer técnico que recibe el nombre de Know how, que en general está ligada a un campo de aplicación y se caracteriza por un lenguaje propio, especializado y utilitario (Anasagasti, 2011).
Básicamente podemos definir esta metodología de investigación-acción como una forma de indagación introspectiva colectiva emprendida por participantes en situaciones sociales con objeto de mejorar la racionalidad y la justicia de sus prácticas sociales o educativas, así como su comprensión de esas prácticas y de las situaciones en que éstas tienen lugar (Maciel, C., 2003).
Con respecto al ciclo de vida del software, se implementará una metodología ágil, la cual representa el enfoque de desarrollo ágil, que ha sido implementando en diferentes organizaciones para la gestión y administración, enfoque con el que se pretende aumentar las probabilidades de éxito en la puesta en marcha de los proyectos. Esta metodología se encuentra orientada al desarrollo de proyectos complejos donde no se cuenta de manera completa con toda la información necesaria al iniciar el proyecto y, por lo tanto, no es factible planificarlos en detalle. En esta metodología es importante la colaboración y participación (Calderón, O., 2020).
Para el desarrollo del software utilizaremos la Metodología ágil SCRUM, que corresponde a una metodología ágil y flexible para gestionar el desarrollo de un proyecto de software. Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación (Softeng, 2021).
Con la metodología SCRUM el cliente se entusiasma y se compromete con el proyecto dado que lo ve crecer iteración a iteración. Asimismo, le permite en cualquier momento realinear el software con los objetivos de negocio de su empresa, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema (Softeng, 2021).
SCRUM es un marco de trabajo iterativo e incremental para el desarrollo de proyectos y se estructura en ciclos de trabajo llamados Sprints. Éstos son iteraciones de 1 a 4 semanas, y se suceden una detrás de otra. Al comienzo de cada Sprint, el equipo multi-funcional selecciona los elementos (requisitos del cliente) de una lista priorizada. Se comprometen a terminar los elementos al final del Sprint. Durante el Sprint no se pueden cambiar los elementos elegidos. Al final del Sprint, el equipo lo revisa con los interesados en el proyecto, y les enseña lo que han construido. El equipo obtiene comentarios y observaciones que se puede incorporar al siguiente Sprint. SCRUM pone el énfasis en productos que funcionen al final del Sprint, es decir que estén realizados (P. Deemer, G. Benefield, C. Larman & B. Vodde., 2009).
CONCLUSIONES
Con el desarrollo de este proyecto de investigación se lograron conocer los procesos referentes a la gestión de la información ocurrida a partir de las donaciones, los procesos de gestión del producto dentro del banco de alimentos y la distribución de los alimentos para los bancos de alimentos del suroccidente de Colombia.
La información que se obtuvo mediante la entrevista con el director del banco de alimentos de Manizales fue de gran apoyo para conocer su funcionamiento, desde la preservación y distribución de los donativos hasta el proceso administrativo y de control que se lleva a cabo al revisarlos.
Se cumplieron con las expectativas para este proyecto, realizando así el análisis y diseño de un sistema para el apoyo a la cadena de abastecimiento en los bancos de alimentos del suroccidente colombiano. Además de llevar a cabo exitosamente la metodología de desarrollo ágil SCRUM y con la que se realizaron los objetivos planteados en esta investigación.
La experiencia de redactar y construir el proyecto fue muy gratificante, aprendimos las técnicas y los procedimientos necesarios para realizar una investigación formal, así como aplicamos los conocimientos que hemos adquirido a lo largo del tiempo durante nuestra formación académica.
Lara Diaz Erick Manuel, Instituto Tecnológico Superior de Pánuco
Asesor:Mg. Royer David Estrada Esponda, Universidad del Valle
PRáCTICAS DE SEGURIDAD DE LA INFORMACIóN. UN CASO PRáCTICO DESDE LA INGENIERíA SOCIAL.
PRáCTICAS DE SEGURIDAD DE LA INFORMACIóN. UN CASO PRáCTICO DESDE LA INGENIERíA SOCIAL.
Lara Diaz Erick Manuel, Instituto Tecnológico Superior de Pánuco. Asesor: Mg. Royer David Estrada Esponda, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Las amenazas informáticas en general, los códigos maliciosos han ido evolucionando a la par de las tecnologías de información y comunicación, aumentando considerablemente el nivel de complejidad y agresión. Por consecuente se contemplan la protección de manera proactiva, no sólo a través de soluciones de seguridad sino también a través de la educación.
Es necesario que los usuarios incorporen buenas prácticas para proteger el entorno de información, y prevenir aún más la posibilidad de formar parte del conjunto que engloba a las potenciales y eventuales víctimas de cualquiera de las amenazas, que constantemente buscan sacar provecho de las debilidades humanas. Para ello inevitablemente se debe ddeterminar el nivel de conocimientos en cuanto a prácticas de seguridad informática de una comunidad universitaria mediante la implementación de ataques controlados utilizando técnicas de Ingeniería Social (Phishing).
METODOLOGÍA
Una vez realizada la investigación de campo en diversas revistas de seguridad informática e internacionales para verificar ataques controlados realizados con anterioridad se procedió a elaborar un formulario para la organización de grupos controlados que son los que reciben estos ataques utilizando las utilerías que nos proporciona Kali Linux para la implementación de Ingeniería Social con técnicas de Phishing, Pentesting; obteniendo de esta manera información confidencial con fines de investigación.
Para la obtención de la información confidencial, la metodología a seguir es como primer punto instalar la herramienta denominada Social-Enginner Toolkit, la cual es una herramienta en la que mediante Pentesting y diversas herramientas de acceso a puertos abiertos se obtiene el acceso a los sitios para ser clonados. Posteriormente, dentro de la herramienta se selecciona Social Engineering Attacks, la cual nos mostrara todas las técnicas de Ingeniería Social que nos permite aplicar la herramienta de la cual se selecciona Website Attack Vectores que nos proporciona las herramientas necesarias para poder explotar las vulnerabilidades del sistema o sitio web que por lo general son los puertos / rutas que acceso abiertas a la web. Por último, se selecciona Credential Harvester Attack Method que nos permite clonar sitios web para posteriormente obtener las credenciales de usuario o cualquier información privada de los usuarios que ingresan al sitio web clonado; el cual se encontrara clonado en una dirección ip especifica que es proporcionada durante la ejecución del ataque.
Sobre los sitios que se clonan, deben tener una dirección HTTPS, para que las nuevas actualizaciones de los navegadores no lo reconozcan como un sitio malicioso y den de baja los sitios o se tengan problemas con la legislación en cuanto a seguridad informática. Además, se puede hacer uso de VPN para que la dirección ip de donde se encuentra clonado el sitio se cambie de ubicación y sea muy difícilmente detectada.
CONCLUSIONES
Concientizar a los usuarios sobre la utilización de las buenas prácticas de seguridad informática en los diversos ambientes en los que se encentren.
Sobre los sitios clonados con la herramienta Kali Linux, la infraestructura con la que cuentan en el caso de la plataforma del ITSP tiene ciertas vulnerabilidades sobre puertos abiertos como lo son el 8080 y el 3306; por lo que tumbar sus servidores y realizar la técnica de clonación para montar el sitio en una IP externa se realizó de manera exitosa. La infraestructura con la que cuenta la plataforma de Universidad del Valle, solamente contaba con los puertos 8080 abiertos, por lo que se dificulto un poco la clonación del sitio, pero de manera subrogada se encontró una vulnerabilidad dentro del intercambio de paquetes existentes en la intranet; logrando de esta manera utilizar otras técnicas y clonar los sitios para montarlo en enlaces externos.
Larralde Ortiz Emmanuel Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
PROGRAMACIóN DE VEHíCULOS AUTóNOMOS A ESCALA Y EN SIMULACIóN PARA EL SEGUIMIENTO DE CARRILES Y LA EVASIóN DE OBSTáCULOS.
PROGRAMACIóN DE VEHíCULOS AUTóNOMOS A ESCALA Y EN SIMULACIóN PARA EL SEGUIMIENTO DE CARRILES Y LA EVASIóN DE OBSTáCULOS.
Larralde Ortiz Emmanuel Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Diego Alberto Mercado Ravell, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Tener carros autónomos en las ciudades reduciría notablemente la cantidad de accidentes por conducción y mejoraría las condiciones de tráfico. Sin embargo, lograr que un sistema con las restricciones de un automóvil pueda seguir un camino sin el control humano y planificar trayectorias en tiempo real en condiciones complejas requiere de muchos datos recabados por sensores y algoritmos elaborados. Además de que también se necesitan entornos seguros para probarlos.
METODOLOGÍA
Se programó un modelo autominy (de la universidad libre de berlín) para adaptar sus algoritmos en nuestro ambiente de pruebas. El ambiente de pruebas fue construido con tapetes y cinta de aislar amarilla. Los algoritmos adaptados fueron calibrados y levemente modificados mientras se realizaban pruebas en el ambiente mencionado. Muchos problemas tuvieron que resolverse para lograr que el robot navegara.
Posteriormente, se adaptó un simulador para entrenar un algoritmo bioinspirado. En este simulador el carrro se ubicaba aleatoriamente y una red neuronal inicializada le daba una de 8 órdenes al carro según su velocidad y el entorno local. Cada generación de entrenamiento contaba con una población de n individuos cuyas redes neuronales tenían diferentes parámetros. Después de probar los n individuos, el algoritmo bionspirado seleccionaba las mejores características de los individuos y comenzaba una nueva generación de entrenamiento con otros n individuos.
El entrenamiento se realizó con 10,000 generaciones de 8 individuos en un ambiente con tráfico. Después de cada 100 generaciones se modificó, aleatoriamente, la pose inicial del vehículo. Finalmente, se implementaron algoritmos para poder conectar el modelo entrenado con un autominy. Desafortunadamente aún no se ha probado el modelo en nuestro entorno de pruebas.
CONCLUSIONES
Cuando se agregó el tráfico al entrenamiento la curva de aprendizaje se alentó considerablemente. Probablemente el rendimiento de este algoritmo sea insatisfactorio. Sin emargo, durante el verano se desarrollaron muchas herramientas y conocimientos que permitirán la creación de otros algoritmos que puedan realizar tareas más complejas.
Lartundo Peña José Luis, Instituto Tecnológico de Pachuca
Asesor:Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
ENFOQUE DE INDUSTRIA 4.0 EN LA CADENA DE SUMINISTROS
ENFOQUE DE INDUSTRIA 4.0 EN LA CADENA DE SUMINISTROS
Lartundo Peña José Luis, Instituto Tecnológico de Pachuca. Asesor: Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Enfoque de Industria 4.0 en la Cadena de Suministros
Asesor: Mtra. De Llano Feliu Josefina Mayra, Universidad Cooperativa de Colombia.
Estudiante: Lartundo Peña Jose Luis, Instituto Tecnológico de Pachuca.
PLANTEAMIENTO DEL PROBLEMA
La problemática presentada radica en la identificación de las tecnologías que componen a la creciente industria 4.0, su conceptualización y antecedentes, así como su aplicación dentro de la Cadena de Suministros en las industrias de Mexico y América Latina, definiendo las areas que componen a la Cadena de Suministros y el impacto que han generado los diferentes casos de aplicación en cuanto a industria 4.0, en dichas areas definidas.
Iniciando por el análisis de las revoluciones precedentes a la cuarta revolución industrial, definiendo como segunda acción las tecnologías que componen a esta 4.0 y posteriormente analizando los casos competentes a tecnologías de la industria 4.0 y su aplicación en las areas de la Cadena de Suministro.
Dando paso a un análisis a la perspectiva gubernamental en cuanto a la organización de la industria 4.0 en Mexico y un enfoque realista en cuanto al conocimiento y aplicación de las tecnologías que componen esta cuarta revolución.
Con lo mencionado dar paso a un análisis de la aplicación de las tecnologías de la industria 4.0 enfocadas al mejoramiento de la Cadena de Suministro de las industrias basado en los casos de aplicación de diferentes autores en industrias y con esto detectar si existe un impacto en cuanto aplicación de la industria 4.0 enfocada en la Cadena de Suministros dentro de Mexico y América Latina.
METODOLOGÍA
METODOLOGÍA
Por medio de la metodología propuesta por el análisis sistemático de la literatura se realizó la recopilación y análisis de la información pertinente a la industria 4.0 comenzando como primer paso por la definición de la pregunta de investigación propuesta: ¿Cuál es la aplicación de la industria 4?0 en cuanto al enfoque de la Cadena de Suministros?
Como segundo paso, se realizó la búsqueda de información en base de datos, en este caso SCOPUS y GOOGLE ACADEMIC, de donde se recuperaron casos de aplicación e información de libros pertinente a nuestro tema de información.
Como tercer paso, la información recabada fue plasmada en un archivo de hoja de calculo propuesto para el uso y revisión del mismo, dicho archivo compuesto por los siguientes rubros:
- País
- Año
- Autor
- Titulo
- Abstract
- Resumen
- Conclusiones
- Fuente-URL
- Base de datos utilizada
- Revista de publicación
Como cuarto paso, se procedió con la selección de artículos e información que serian utilizados para el análisis, una organización a través de un mapa conceptual para la organización y enfoque de la información, basados en lo efectuado dentro de la hoja de cálculo y sus rubros.
Y para concluir con los pasos propuestos por la metodología se realizó la redacción del informe de investigación con sus bases en la documentación recopilada.
CONCLUSIONES
CONCLUSIONES
Se efectuó un análisis de los casos de estudio e información en cuanto a industria 4.0 y su utilización dentro de la Cadena de Suministro dentro de las distintas industrias.
Se definieron las tecnologías que componen la cuarta revolución, así como las áreas que componen a la Cadena de Suministro, para establecer su enfoque de uso dentro de la última.
Las revoluciones industriales precedentes a la presente, la cuarta revolución Industrial, marcaron el camino para el surgimiento de las nuevas tecnologías con enfoque a la innovación y automatización de las industrias.
Con respecto a la Cadena de Suministro y sus áreas componentes, se enfocaron las tecnologías pertenecientes a la industria 4.0 su aplicación dentro de la misma, así como un análisis de las tecnologías que mas impacto han tenido dentro de la cadena de suministro y como han sido enfocadas y aplicadas.
Se realizo un breve análisis de la situación en cuanto a aplicación de la industria 4.0 enfocada en la Cadena de Suministros y su avance e impacto en las industrias de México y América Latina
Lazcano Ortiz Luis Eloy, Universidad Autónoma de Baja California
Asesor:Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
IMPLEMENTACIóN EN PYTHON DE UN MOEA
IMPLEMENTACIóN EN PYTHON DE UN MOEA
Lazcano Ortiz Luis Eloy, Universidad Autónoma de Baja California. Asesor: Dr. Jesús Guillermo Falcón Cardona, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En los últimos años, el algoritmo evolutivo multiobjetivo basado en indicadores ritmos (IB-MOEA) se han convertido en una alternativa relativamente popular para resolución de problemas de optimización multiobjetivo. Los IB-MOEA son mal basados en el uso de un solo indicador de desempeño. Sin embargo, el efecto de la combinación de múltiples indicadores de desempeño para La selección de soluciones es un tema que rara vez se ha explorado. En esto papel, proponemos una hiper-heurística que combina las fortalezas y compensa las debilidades de cuatro estimadores de densidad basado en R2, IGD +, ε + y ∆p. La selección del indicador a ser utilizado en un momento particular durante la búsqueda se realiza utilizando en línea aprendizaje y una cadena de Markov. Además, proponemos un marco que tiene como objetivo reducir el costo computacional involucrado en el cálculo de las contribuciones de los indicadores. Nuestro experimental Los resultados indican que nuestro enfoque propuesto puede superar al estado MOEA de última generación basados en la referencia de descomposición (MOEA / D) puntos (NSGA-III) y el indicador R2 (R2-EMOA) para problemas con pocos y muchos objetivos.
METODOLOGÍA
El marco general de MIHPS se describe mediante el algoritmo 3. MIHPS es similar a SMS-EMOA, pero se reemplaza el DE basado en HV. MIHPS requiere dos parámetros: un conjunto de vectores de peso W para el indicador R2 y la ventana de tiempo Tw. Las estructuras Chh y los Hpool requeridos en ambos algoritmos.
La población se inicializa aleatoriamente utilizando una distribución uniforme en.
Las soluciones de P seleccionadas al azar crean una nueva descendencia utilizando SBX y operadores de mutación polinomial. Luego, la unión de P y la solución recién creada se asigna a Ψ para clasificar mediante el algoritmo de ordenación no dominado para generar un conjunto de capas {L1,. . . , Lk}, donde L1 tiene las soluciones no dominadas en Ψ y Lk
está compuesta por los peores individuos en cuanto a
Relación de dominancia de Pareto. Si la cardinalidad de Lk
es mayor que uno, se ejecuta un IB-DE. En este caso, Z, utilizado por IGD +, ϵ + y ∆p, se establece en L1. Dependiendo del IB-DE actual, el indicador contribución de cada elemento en Lk se calcula utilizando la propuesta marco con el fin de identificar los peores contribuyentes.
La solución pmin se elimina de Ψ y la población resultante se establece como la población para la siguiente iteración
y evaluado por el indicador R2. Este valor R2 se agrega a la lista
del IB-DE actual ejecutado.
Finalmente Se realizaron pruebas con los distintos indicadores de calidad propuestos y el algoritmo genetico NSGA II, se probaron los indicadores de calidad de manera individual programas en el lenguaje de programacion Phyton usando la biblioteca de funciones Pymoo.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y practicos de algoritmos geneticos y Hiperheurística evolutiva multiobjetivo basada en múltiples Estimadores de densidad basados en indicadores
aprendi mucho con el docente encargado de la estancia , el Dr Jesús Guillermo Falcón-Cardona, agradezco todo el apoyo del docente en la estancia , sus proyectos y conocimientos me inspiraron a seguir preparandome en las areas en las que se especializo el docente ya que quiero conseguir los logros que ha hecho.
Leal Cinta Lezly Guadalupe, Universidad Veracruzana
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
LA TECNOLOGíA DEL SUPERADOBE COMO SISTEMA CONSTRUCTIVO SOSTENIBLE
LA TECNOLOGíA DEL SUPERADOBE COMO SISTEMA CONSTRUCTIVO SOSTENIBLE
Leal Cinta Lezly Guadalupe, Universidad Veracruzana. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La mayor parte de las construcciones actualmente cuenta con algún tipo de sistema constructivo basado en el concreto, ya que este es un material de alta resistencia y el cual otorga soluciones respecto a las problemáticas de diseño. haciendo que este sea el material más utilizado tanto por la ingeniería civil como la arquitectura para la realización de proyectos en el mundo. Pero unas de las principales problemáticas de este material son la inmensa cantidad de residuos que este produce y el cómo estos impactan directamente a nuestro medio ambiente, siendo sumamente dañinas para nuestro planeta, por esto la importancia del conocimiento de nuevas alternativas, teniendo presente que en esta nueva era se le debe de dar un enfoque importante a la sustentabilidad, teniendo esto como consecuencia al implemento de nuevas tecnologías, las cuales se han extendido en los últimos años en respuesta a la crisis ambiental y social en la cual estamos hoy en día. Por esto es indispensable el conocer otro tipo de soluciones, mediante materiales provenientes de la naturaleza, garantizando nuestra seguridad y bienestar al brindar un diseño completamente durable y sustentable.
METODOLOGÍA
Una de las principales crisis de la actualidad es la del medio ambiente, causad en gran parte por la construcción, teniendo como consecuencia el retorno a los materiales naturales y que sean abundantes con el fin de evitar más daños en nuestro ambiente natural. Su objetivo es crear soluciones alternativas al sistema de vida existente que está apoyado por alto consumo energético, contaminación y consumista. Como principal estrategia, tratan de trabajar con la naturaleza, no contra ella.(Santos & Beirão, 2016). Considerando que los materiales que se utilizan y los más comunes de la actualidad, generan un alto impacto en cuanto a la economía, al medio ambiente y hasta incluso a la sociedad, por ende, podemos darnos cuenta de la importancia y la gran influencia que tiene la actividad de la construcción en la sostenibilidad y por lo cual su desarrollo es primordial.
Mediante el uso de materiales naturales, la eliminación de la construcción es fácilmente reutilizable; hay una reducción de adiciones químicas y materiales sintéticos. Con las correctas estrategias de diseño, es posible garantizar un edificio eficiente con buenas condiciones en cuanto a ventilación e iluminación natural.(Santos & Beirão, 2016).
Teniendo en cuenta esto se pretende dar a conocer de forma general la técnica del superadobe como un sistema constructivo sostenible. El superadobe es una forma de construcción de sacos de tierra que fue desarrollada por el arquitecto iraní Nader Khalili, este se adapta más a las áreas secas que a las regiones húmedas. Comparado con los otros tipos de construcción de tierra, el superadobe, o saco de tierra necesita menos mantenimiento, tienen un atractivo plástico, tienen una mayor velocidad de construcción y no tienen necesidad de encofrado o estructura adicional (HUNTER, 2004).
El sistema conecta los recursos tradicionales y naturales como el barro, el agua, el aire y fuego para crear casas energéticamente eficientes. Proporciona una forma eficaz para que un individuo construya una residencia en muy poco tiempo sin asistencia. El Superadobe es una especie de edificio ecológico y sistema sostenible. (Zhao et al., 2015). Cabe resaltar que esta técnica fue una contribución que se realizó a la NASA con el fin de encontrar una manera eficiente de poder construir casas en la Luna o en Marte, teniendo así una asociación con los materiales que se encuentran en su entorno.
Esta técnica consiste en un sistema constructivo que utiliza polipropileno, rafia u otros recubrimientos y contenedores, alambre de púas y tierra. Estas bolsas se van colocando en filas, que puede variar de treinta a sesenta centímetros de longitud, las cuales se van llenando de material, que en este caso es la tierra para crear muros, cúpulas y arcos, dependiendo del diseño que se tenga para cada proyecto. Las bolsas se pueden cortar al tamaño deseado y se llena con un embudo usando tierra al 20% de humedad.(Santos & Beirão, 2016). En cuanto se van llenando estas bolsas, se van apilando unas con otras hasta ir formando capas conjunto con el alambre de púas, esto sirve como un refuerzo para mejorar la estabilidad y la seguridad, logrando así formar los muros Debido a las ventajas del material natural, esta técnica se propuso para construir pequeñas construcciones para responder a los problemas de vivienda social. Justo después se intentó aplicar en edificios de diferentes tamaños y usos, como eco-villas, hoteles, exposiciones pabellones, y otros. (Santos & Beirão, 2016).
CONCLUSIONES
Las construcciones con tierra, se han enfrentado a situaciones muy adversas, puesto que la misma sociedad se ha dejado llevar por factores psicológicos los cuales se basan en preocupaciones poco fundamentadas, como por ejemplo el que no puede ser duradero o que no tengan un diseño estético o incluso que solo sean edificaciones para gente con pocos recursos, siendo esto una de los principales factores por el cual este sistema constructivo no ha podido tener el reconocimiento que se amerita. En cuanto a su sistema de construcción es muy viable puesto que este no se necesitan grandes maquinarias y puede ser terminado por varios hombres en un corto periodo de tiempo, sin contaminación y poco impacto en el entorno. En conclusión, el superadobe es un sistema económico, ecológico y energéticamente eficiente. La aplicación actual es en zonas rurales secas y de baja densidad. Pero esto podría ampliarse haciendo las correctas intervenciones. El sistema conecta la naturaleza y la tradición, esto se puede tomar con un punto de partida para la construcción de nuestro país.
AGRADECIMIENTOS
A la Dra. Elia Mercedes Alonso Guzmán y el Mtro. Adrià Sánchez Calvillo de la Universidad Michoacana San Nicolás de Hidalgo; y a la Universidad Veracruzana.
Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán. Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán. Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán. Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán. Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
El agotamiento de los recursos naturales constituye uno de los problemas más preocupantes de la actual situación de emergencia planetaria [3], a causa de la dilapidación de recursos como el agua y la energía, los cuales son vitales para el sostenimiento de ecosistemas naturales, e históricamente han tenido mucha influencia en la prosperidad y éxito de una nación [4].
El poder y la eficacia de los métodos del aprendizaje automático derivan de la capacidad de extraer patrones y crear modelos a partir de los datos. En consecuencia, la aplicación de estos métodos se vuelve un enfoque clave para utilizar los grandes volúmenes de datos que se obtiene a partir del monitoreo continuo de la demanda de agua (Smart metering), así como tratar la complejidad que subyace al encontrar patrones de hábitos de consumo o predecir la demanda de agua futura, cuando se involucran variables de tipo sociodemográfico.
METODOLOGÍA
La metodología asociada a la consecución del objetivo general se divide por actividades, de acuerdo con los objetivos específicos planteados con antelación.
Creación de una base de datos de consumidores de servicios públicos de agua de la ciudad de Pereira: la generación de la base de datos será posible mediante la realización de encuestas en hogares de la ciudad de Pereira. Teniendo en cuenta la contingencia actual derivada por el CoVID-19, se emplearán recursos digitales para tal fin. Así, la muestra que se pretende tomar consiste en alrededor de 400 hogares de distintos niveles socioeconómicos y estratos, esto con el fin de garantizar la relevancia estadística de la población elegida. La muestra tiene un 95% de confianza con un 5% de error esperado sobre una población de 149.704 suscriptores de estos servicios, que para el año 2017 fueron reportados por el sistema único de información de los servicios públicos, adscrito a la superintendencia de los servicios públicos domiciliarios a la república de Colombia.
Preprocesamiento de la base de datos. La base de datos ha sido recolectada cuenta con dos tipos de datos: categóricos y no categóricos. Por lo tanto, para extraer información relevante e identificar patrones subyacentes se implementarán algoritmos de aprendizaje de máquina supervisados y no supervisados.
CONCLUSIONES
En el transcurso de esta estancia se ha adquirido conocimiento en el área de Machine Learning Aprender en este contexto quiere decir identificar patrones complejos en miles de datos, por medio de algoritmos, ajustando las horas por medio de un plan de trabajo descrito con anterioridad con una breve introducción al entorno y al lenguaje de Python, analizando los diccionarios, estructuras de datos, Pandas, histogramas,tablas, gráficos de 2 dimensiones por medio de la librería (Matplotlib), DataFrames, bibliotecas de aprendizaje automático, preprocesamiento de las bases de datos con sus funciones, cargando bases de datos a Python métodos de agrupamiento de datos en la base de datos de consumo sostenible en sus diferentes métodos. Se puede concluir que los algoritmos arrojaron ciertos resultados, pero que la ineficiencia de los etiquetados fue lo que provocó resultados tan pobres. Esto se puede dar a entender porque aún con cinco métodos de agrupamiento, ninguno dio el nivel de acierto por encima del 50%, lo que denota la deficiencia en el etiquetado de la base de datos.
León Alvarez Victor Hugo, Instituto Tecnológico de Toluca
Asesor:Mtro. José Aparicio Urbano, Tecnológico de Estudios Superiores de Jocotitlán
METODOLOGÍA PARA SELECCIÓN DE PROVEEDORES EN UNA EMPRESA MANUFACTURERA DE LUMINARIA
METODOLOGÍA PARA SELECCIÓN DE PROVEEDORES EN UNA EMPRESA MANUFACTURERA DE LUMINARIA
Jiménez Méndez Pedro Luis, Instituto Tecnológico de Comitán. León Alvarez Victor Hugo, Instituto Tecnológico de Toluca. Asesor: Mtro. José Aparicio Urbano, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
La evaluación de proveedores es una práctica común en las empresas de manera que existen estándares utilizados por las organizaciones con el objetivo de no solo asegurar productos o servicios de calidad, sino buscar competir en un mercado cada vez más especializado y reducir así costos, mitigar riesgos e incitar la mejora continua. Enfocándose en las metodologías utilizadas para la evaluación de proveedores, se considera que las normas nacionales e internacionales son un estándar incorporado habitualmente en ellas, sin embargo, apenas el 1.83% de empresas en México poseen certificaciones de esta categoría, dejando al país por debajo de otras naciones de la región.
Las empresas en el Estado de México son conscientes de la importancia de la evaluación de proveedores y han visto en la integración de las normas internacionales una manera de minimizar costos, reducir errores e incrementar su productividad, por tal motivo, durante la estancia Verano de Investigación se analizó las condiciones de una empresa manufacturera de luminaria que desarrolló una metodología para la evaluación de proveedores.
METODOLOGÍA
La metodología empleada constó de tres fases, la primera fue el diagnóstico de la situación actual de la empresa donde se utilizó el diagrama de Pareto para identificar los elementos críticos y reconocer los problemas derivados de la falta de una metodología de evaluación de proveedores, la segunda fue la búsqueda de proveedores donde se emplearon herramientas tecnológicas de búsqueda y se construyó una base de datos con filtros como el frente, clasificación, especialidad y datos generales, mientras que la tercera se titula selección de proveedores y en ella a partir de los criterios definidos y el análisis costo-beneficio se observó el impacto económico de no contar con una metodología de evaluación de proveedores. Una vez obtenida toda la información de la metodología y la selección de criterios, se buscará implementar una segunda etapa a futuro donde se incorporarán normas internacionales a la metodología a fin de consolidar su efectividad.
CONCLUSIONES
De la presente investigación se obtuvo como producto final un artículo que recopiló los pasos para una metodología de evaluación a proveedores en una empresa manufacturera de luminaria ubicada en el Estado de México. Cabe mencionar que con la aplicación de la metodología se logró minimizar los costos y errores que afectan la eficiencia de la cadena de suministro de la empresa en un 35%. Gracias al Verano de la Investigación Científica hemos reforzado y aplicado la información académica obtenida de diversas materias de la carrera de Ingeniería Industrial.
León García María Fernanda, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
León García María Fernanda, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Mauricio Misael, Tecnológico de Estudios Superiores de San Felipe del Progreso. Vazquez Isidro Zuleny, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
PLANTEAMIENTO DEL PROBLEMA
El proceso de producción de la panela es una alternativa para la disminución de la pobreza dentro de la comunidades rurales; de acuerdo a (Silva, 2005) el aprovechamiento de las potencialidades propias ayuda a transformar a los sistemas productivos locales y mejorar la calidad de vida de la población y generar un proceso endógeno para el desarrollo local; la panela logra ser un sustituto del azúcar comercial que contiene componentes que afectan su comercialización y consumo; una de la principales características dentro de esta barreras son las propiedades fisicoquímicas se notan en la imagen del producto, debido a que su propiedades abala desde la coloración, olor, sabor y otras características que significativamente son muy notadas por el consumidor; implementar e innovar el proceso de la panela de una forma natural para la obtención de un producto de la sacarosa con mayor pureza es uno de los desafíos a aplicar, teniendo similitudes de la sacarosa con proceso de alta industrialización; contrarrestando a la pobreza con el aprovechamiento de la panela con mayor pureza.
En el proceso de cristalización se propone para la separación de la panela en solución saturada; en donde la manipulación de las variables independientes (tiempo y temperatura) nos permita obtener una mayor cantidad de cristales de sacarosa de una forma natural; de acuerdo a las similitudes de las normalizaciones de la sacarosa comercial; teniendo como pregunta de la investigación ¿Cuál es la temperatura y tiempo de anaquel de la panela en dilución saturada que permite la obtención de cristales de sacarosa con características fisicoquímicas para el consumo?
METODOLOGÍA
La investigación por sus características experimentales se ejecutó en base a un diseño de tratamientos en arreglo factorial del tipo 32 y se ejecutó un diseño de experimento completamente al azar (Montgomery, 1991); con tres repeticiones, donde el factor A, fue la temperatura de anaquel (A1: 8°C, A2:12°C, A3:16°C) y el factor B fue el tiempo de anaquel (B1: 15 días, B2:30 días, B3:45 días) por lo cual los tratamientos vienen dados por todas las combinaciones posibles entre los niveles de los factores; haciendo un total de 9 tratamientos para la obtención de cristales de sacarosa a partir de panela en dilución saturada. Se utilizaron cañas de la región de Santa Rosa de Lima, Perú, la materia prima, se seleccionaron aquellas que alcanzaban la madurez organoléptica, pues se considera que estas tienen la máxima concentración de jugo en la caña, realizando la determinación del índice de madurez de la caña, calculando los sólidos totales de la base y el extremo terminal de la caña y mediante la siguiente formula se estableció el índice de madurez.
Donde se establece que IM < 85% tierna o no madura, 85%> IM< 100% madura, IM>100 sobremadura.Al tener la materia prima, se realiza un lavado artesanal a la caña, y se somete a un molido artesanal mejor conocido como Trapiche en el Perú, aproximadamente por 30 minutos donde se extrae el jugo de 490 cañas, el jugo se somete a un proceso de evaporación, al eliminarse el agua, el producto se denomina cachas, es la miel en el punto de panela sin batido, se realiza la clarificación, obteniendo la separación de las muestras (panela liquida).En la obtención de los cristales de sacarosa a partir de la panela, como primera instancia se realiza la recepción de la panela liquida, misma que es procedida a su caracterización, para los efectos de control de calidad, posteriormente se lleva a cabo el pesado de la panela liquida, con la finalidad de establecer los cálculos de eficiencia o rendimiento; para asegurar la inocuidad del proceso y el acondicionamiento de la panela, se somete a un pasteurizado, donde el producto se llevado a 85°C, enseguida se realiza el envasado a temperatura de 85°C, en recipientes de vidrio color ámbar de 350 ml cada uno, cada muestra embazada se coloca en refrigeración, almacenándose cada uno a temperaturas (8°C, 12°C, 16°C) y tiempo (15, 30, 45 días)de acuerdo a los tratamientos.
Al cumplir el tiempo de refrigeración, los cristales son extraídos, por medio de un trasvasado del líquido no cristalizado, conservando únicamente los cristales, mismos que son sometidos a un lavado de manera rápida para eliminar restos de sacarosa diluida de la superficie de los cristales, enseguida se realiza un oreado, para eliminar restos de agua de la superficie de los cristales, por medio de un secador de bandejas, a una temperatura de 60°C; para obtener una granulometría homogénea y más fina de los cristales, que pasan por un molido, realizado por molino de tornillos regulado, finalmente los cristales son envasados en un envase de vidrio con cierre hermético y se modifica según tratamiento. En la determinación de las características de los cristales de sacarosa, se utilizan los métodos recomendados por la Comisión internacional de Métodos Uniformes para el Análisis del Azúcar (ICUMSA: International Commission for Uniform Methods of Sugar Analysis), es el organismo internacional de Normalización. Y se realizan los análisis físico-químicos de los cristales como el color cenizas conductimétricas, humedad , polarización azucares reductores factor de seguridad, densidad. Rendimiento, velocidad de solubilidad, pH, porcentaje de acidez titulable, capacidad edulcorante. Una vez obtenidos los cristales con ciertas propiedades requeridas se compararán con el producto azúcar rubia doméstica los cuales debe cumplir con las características físico-químicas y organolépticas para determinar si apto para su consumo.
CONCLUSIONES
Se trabajó el tratamiento a temperatura 16°C por un tiempo de 15 días en almacenamiento; sé logró encontrar cristales de sacarosa; con humedad de 0.18%, densidad 1.573 g/mL, rendimiento de 230 g de cristales en una muestra de 350 mL de panela; pH de 5.72; con color a 420 nm de 1478 UI, lo cual está dentro los parámetros establecidos por la ICUMSA; es necesario mencionar que aún falta la evaluación de la polarización y factor de seguridad con ello se demostrará totalmente la aptitud para el consumo; además se sabe que existe aún que ejecutar los demás tratamientos y evaluar diferencias significativas para seleccionar el mejor.
León Zamora Angela Jeneva, Instituto Tecnológico de Lázaro Cárdenas
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO.
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO.
León Zamora Angela Jeneva, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es método de análisis físico para la separación de mezclas, permite identificar y/o cuantificar los componentes en ella, la separación se lleva a cabo gracias a la afinidad diferenciada de los compuestos con la fase estacionaria.
Generalmente en todas las técnicas y tipos de cromatografía existe una fase estacionaria que puede ser un sólido y una fase móvil que puede ser un líquido o un gas dependiendo del tipo de cromatografía. La muestra que contiene los compuestos que se separarán durante la cromatografía acompañada del disolvente y evidentemente uno o varios analitos que serán el producto del proceso.
Es una técnica muy bien desarrollada, muy sencilla y rápida de gran ayuda a las industrias, por su versatilidad en muestras microanalíticas así como muestras industriales, es fácil de emplear, es una técnica poco destructiva y se puede aplicar en estudios químicos, bioquímicos, toxicológicos.
METODOLOGÍA
Clasificación de la cromatografía: Plana (en papel, capa fina), en columna: {de gases, de líquido (intercambio iónico, reparto, adsorción, exclusión, afinidad)}
Cromatografía de adsorción:
Se manifiesta por el aumento de la concentración del soluto y se basa principalmente en las diferencias en la afinidad relativa de los compuestos por el sólido utilizado como fase estacionaria. Las separaciones obtenidas se determinan casi exclusivamente por interacciones polares, siendo la fase estacionaria más polar que la fase móvil.
Partes de un cromatógrafo:
Gas portador/carrier gas: El gas portador cumple dos funciones: la primera es transportar los componentes de la muestra y crear una matriz que sea útil para el detector.
Sistema de inyección de muestra/inyector port: La inyección de la muestra es una de las partes críticas del proceso. Debe inyectarse la cantidad justa y de forma rápida para evitar que las bandas de salida se ensanchen.
Columnas/column: En la cromatografía de gases se utilizan tipos de columnas, las de relleno y las tubulares abiertas también conocidas como capilares.
Detectores/detector: El detector determina cuándo el analito salió por el final de la columna.
Las características de un buen detector son: sensibilidad, el tiempo de respuesta debe ser corto, debe tener una respuesta lineal al analito, debe ser fiable y de manejo sencillo, debe tener una respuesta semejante para diferentes analitos, amplio grado de temperaturas de trabajo
Sistema de datos de cromatografía/Detector: Un sistema de datos de cromatografía conectado a una red o a nivel de organización es un complemento esencial para cualquier laboratorio de cromatografía moderno, ya que permite un funcionamiento y un almacenamiento de datos conforme, eficaz y fiable.
Parámetros cromatográficos.
Tiempo muerto: tM: El tiempo muerto es el tiempo requerido para la elución de un componente no retenido
Tiempo de retención: tR: tiempo de retención es lo que tarda un soluto que interacciona con la fase estacionaria para emerger de la columna, medido en el máximo del pico.
Volumen de retención. VR: Es el volumen que eluye de la columna desde la inyección de la muestra hasta que se produce el máximo del pico correspondiente a una sustancia que ha interactuado con la fase estacionaria.
Volumen muerto. Vm: Es el volumen de fase móvil requerido para eluir un componente no retenido. Se puede calcular a partir del tiempo muerto y la velocidad de flujo F, en ml/min:
Volumen de Residencia. D: También conocido como volumen de demora en elución a gradiente es el volumen entre el punto en el que se encuentran los eluyentes y la entrada de la columna.
Factor de capacidad.
El factor de capacidad k´ es la cantidad más importante en cromatografía en columna. Relaciona el equilibrio de distribución de la muestra dentro de la columna con las propiedades termodinámicas de la columna y con la temperatura.
Eficiencia: Definimos a la eficiencia de una columna cromatográfica para separar un componente de otro, como el grado de ensanchamiento de bandas que experimenta un compuesto a través de la columna.
Se han generalizado dos términos como medidas cuantitativas de la eficiencia de una columna cromatográfica: altura de plato o altura equivalente de plato teórico (HETP)H, número de platos teóricos N. Eficiencia N es una medida de la retención relativa del soluto en comparación con el ancho del pico, es un parámetro útil para comparar separaciones cromatográficas efectuadas en distintas condiciones
Resolución: La resolución o grado de separación depende de la elección de la fase estacionaria, fase móvil, temperatura y longitud de columna, es una medida cuantitativa de la capacidad de la técnica cromatográfica para separar dos analitos.
CONCLUSIONES
Gracias a la presente investigación se logró conocer la historia de la cromatografía, su clasificación, los parámetros para la validación del método cromatográfico.
Se revisó la bibliografía y referencias disponibles acerca de la determinación de los residuos de insecticidas organofosforados presentes en las frutas por cromatografía de gases para detectar paratión, empleando un detector de nitrógeno/fósforo y confirmando por espectofotometría de masas con cierta temperatura empleada y eluyente n-hexano con calidad para análisis. Los insecticidas organofosforados tienen en la actualidad un papel preponderante como plaguicidas fitosanitarios a pesar de su problemática toxicológica y su monitorización en residuos en alimentos. Es importante el monitoreo de los alimentos para la determinación del grado de exposición de la población humana ya que pueden causar daños crónicos como afectación del sistema nervioso, cáncer, alteraciones hormonales, afectación del sistema inmunológico y daños reproductivos.
Leones Kligman Andres Yassir, Universidad de la Costa
Asesor:M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa
IMPLEMENTACIóN DE UN SISTEMA DE CAPTACIóN Y FILTRACIóN DE AGUA DE LLUVIA PARA USO DOMéSTICO EN UNA VIVIENDA RURAL.
IMPLEMENTACIóN DE UN SISTEMA DE CAPTACIóN Y FILTRACIóN DE AGUA DE LLUVIA PARA USO DOMéSTICO EN UNA VIVIENDA RURAL.
Leones Kligman Andres Yassir, Universidad de la Costa. Asesor: M.C. Rosalía Daza Merino, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
Miles de millones de personas en todo el mundo siguen careciendo de acceso al agua, el saneamiento y la higiene, según un nuevo informe de UNICEF y la Organización Mundial de la Salud. Alrededor de 2.200 millones de personas en todo el mundo no cuentan con servicios de agua potable gestionados de manera segura*, 4.200 millones de personas no cuentan con servicios de saneamiento gestionados de manera segura y 3.000 millones carecen de instalaciones básicas** para el lavado de manos. (UNICEF 2019)
Un informe realizado por UNICEF revela que 1.800 millones de personas han obtenido acceso a los servicios básicos de agua potable desde el año 2000, pero existen grandes desigualdades en la accesibilidad, disponibilidad y calidad de estos
servicios. Se estima que 1 de cada 10 personas (785 millones) todavía carecen de servicios básicos, incluidos los 144 millones que beben agua de superficie que no ha recibido tratamiento. Los datos muestran que 8 de cada 10 personas que viven en zonas rurales carecían de acceso a estos servicios, y en uno de cada cuatro países con estimaciones para diferentes grupos de riqueza, la cobertura de los servicios básicos entre los más ricos era por lo menos el doble de alta que entre los más pobres. (UNICEF 2019)
La problemática es mayormente presentada en las personas que viven en la parte rural como lo demuestra el informe y las estadísticas, por lo que el presente trabajo describe una propuesta de un sistema de captación de agua de lluvia para una familia que habita una vivienda con condiciones precarias y que radican en el
municipio de Naolinco de Victoria, Veracruz zona donde el agua potable no es suministrada por la falta de la red de distribución, por lo tanto, el SCALL constituye una solución complementaria que podría ayudar a combatir la escasez de agua en lugares vulnerables.
METODOLOGÍA
Inicialmente se buscó información relevante en las diferentes bases de datos, Google académico y páginas de revistas certificadas, encontrando así datos sumamente importantes, como los materiales que se pueden utilizar en el sistema de captación, como y de qué manera separar las primeras lluvias y como se puede hacer un mejor saneamiento del agua.
Seguidamente se anexo información sumamente importante de los sistemas alternativos de captación y filtración de agua lluvia para la vivienda rural, entre estas pautas importantes se destacan los más de 8 usos que se le dan a el agua recolectada y sus diferentes tratamientos, preguntas primordiales para la vida cotidiana de estas familias, tal como el consumo diario de cada persona estándar. De tal manera se identifican los lineamientos, características y los diferentes tipos de sistemas de captación y filtración por medio de agua lluvia.
Al hablar de los lineamientos nos referimos a los diferentes modelos de captación de agua, donde fue posible ver los sucesos y procesos concurridos por uno de estos (SCAPT) Donde se encontró que el agua de esta es interceptada, colectada y almacenada en depósitos para su posterior uso.
Así mismo se pudo establecer los mínimos y máximos niveles de los parámetros para el consumo de agua mediante los sistemas por medio de un ejemplo encontrado, determinando así que es de vital importancia analizar el sitio exacto en el cual se realizara el sistema para de tal manera colocar los materiales que mejor se ajustes a una limpieza y obtención de agua de calidad por medio del agua lluvia.
Finalmente se buscó información basada en la norma que rige una construcción de una vivienda en una zona rural para el país de México. Donde se encontró la LEY FEDERAL SOBRE METROLOGIA Y NORMALIZACION y la NORMA OFICIAL MEXICANA NOM-031-STPS-2011, CONSTRUCCION-CONDICIONES DE SEGURIDAD Y SALUD EN EL TRABAJO.
Gracias a estas normas fue posible obtener las diferentes pautas que hay que tener en cuenta para hacer una construcción en el país de México, tales como las unidades de medidas que se deben utilizar, el tipo de riesgo y el tamaño de la estructura, entre otras.
CONCLUSIONES
A lo largo de la estancia de verano DELFIN 2021 se obtuvieron conocimientos teóricos referentes a un sistema de captación y filtración de agua de lluvia para uso doméstico en una vivienda rural, además del entendimiento de la norma mexicana que rige las construcciones. Cabe resaltar que al tratarse de un extenso trabajo aún se encuentra en la fase investigativa para próximamente efectuar el diseño e implementación del sistema de captación y filtración.
Lesmes Morales Dioselina, Corporación Universitaria de Ciencias Empresariales, Educación y Salud
Asesor:Dr. Carlos de Jesus Fabregas Rodado, Corporación Universitaria Americana
EMPRESAS CON ALTO CRECIMIENTO EN COLOMBIA 2013-2020
EMPRESAS CON ALTO CRECIMIENTO EN COLOMBIA 2013-2020
Lesmes Morales Dioselina, Corporación Universitaria de Ciencias Empresariales, Educación y Salud. Asesor: Dr. Carlos de Jesus Fabregas Rodado, Corporación Universitaria Americana
PLANTEAMIENTO DEL PROBLEMA
De acuerdo con Gibrat (1931) autor principal sobre el crecimiento económico, propuso que el crecimiento de las empresas es un proceso aleatorio y que las tasas de crecimiento de las empresas son independientes del tamaño. Así mismo, diferentes investigaciones han encontrado que, existen diferentes teorías sobre factores a evaluar en el crecimiento económico como edad, innovación, características del emprendedor y recursos esas teorías se citan a continuación: Teoría de las gacelas: (Acs, Z., et al, 2008), teoría del crecimiento económico de Shumpeter, Teorías institucionales enfocadas al emprendimiento: Douglas North (1994, 1989) y William Baumol (1990).
Las empresas con acelerado crecimiento son un fenómeno poco frecuente (Autio, 2010) unas pocas empresas de alto crecimiento generan una gran creación de empleos en comparación con las empresas que no tienen esa capacidad (Henrekson and Johansson 2008). También se encuentran otros atributos de estas empresas que incluyen mayores niveles de productividad. (Mason, 1985), altos niveles de innovación (Coad 2010), fuertes niveles de orientación exportadora (Parsley and Halabisky 2006), altos niveles de internacionalización. Así mismo, estas empresas de alto crecimiento también tienen importantes factores que son beneficiosos al crecimiento de otras empresas formando clústeres. (Stam et al. 2009).
En el estudio del GEM que presenta altas cifras de actividad emprendedora a nivel nacional , en el caso Colombiano se ha evidenciado que los planes de desarrollo recientes muestran políticas hacia el emprendimiento, relacionado en su mayor medida por la generación de ingresos a través del autoempleo y la creación de negocios por necesidad, encontrando gran parte de la población adulta inmersa en procesos de apertura de empresas casi por lo regular, para generar autoempleo o sustentar la economía familiar pero con bajo impacto en la generación de empleos y pocas expectativas de crecimiento. caso contrario de lo que sucede en otros países que son impulsados por la innovación donde la mayoría de las empresas que se crean lo hacen por oportunidades y con la visión del potencial de crecimiento.
Es así como los países deben hacer esfuerzos para generar políticas que permitan mejorar su productividad. (Friar y Meyer, 2003) sugieren que las políticas públicas deben centrarse en promover empresas con rápido crecimiento, en lugar de hacerlo en las empresas nuevas que no tienen esta capacidad y en general son más pequeñas. Sin embargo Reynolds (2002) propone que la política hacia el emprendimiento debe dirigirse no solo a los emprendedores establecidos, sino a esos emprendedores nacientes quienes están considerando firmemente en crear una empresa y poseen unas características especiales que potenciarían el crecimiento de las mismas. De acuerdo investigadores sobre el tema de emprendimiento, la actividad empresarial de alto crecimiento es un fenómeno que presenta suficientes brechas en la investigación, lo que no permite que los formuladores de políticas públicas cuenten con suficiente información para entender el impacto de este fenómeno Autio (2007), Friar and Meyer (2003).
Shane (2008) argumentan que: necesitamos un cambio en las políticas públicas que fomenten la creación de empresas de alta calidad y alto potencial de crecimiento, razón por la que planteamos en este estudio analizar el desarrollo de empresas con alto crecimiento en Colombia a partir de la descripción e identificación de las actitudes, aspiraciones y análisis de las empresas y empresarios con alto potencial de crecimiento en Colombia.
A partir de lo anterior, en la presente investigación se pretende describir las actitudes y aspiraciones de los empresarios Colombianos y caracterizar las empresas que representan alto crecimiento en Colombia en el periodo comprendido entre el 2013 al 2020?.
METODOLOGÍA
La metodología que utilizaremos será el modelo GEM - Global Entrepreneurship Monitor desarrollado por Babson College y el London Business School. Este programa de investigación del GEM, fue diseñado para una evaluación comprensiva del rol del emprendimiento en el desarrollo económico. El modelo conceptual refleja un rango amplio de factores asociados con las variaciones en la actividad empresarial y su contexto.
Realizaremos una investigación de tipo descriptiva, para analizar el entorno competitivo del emprendimiento de alto potencial a partir del análisis de la percepción de expertos en diversos temas sobre emprendimiento y del comportamiento del fenómeno de la actividad emprendedora y sus relaciones en el ecosistema.
CONCLUSIONES
Con este estudio esperamos identificar, describir y analizar las actitudes y aspiraciones de los empresarios Colombianos junto a las características de las empresas que presentan alto crecimiento en Colombia, determinando a través de la metodología propuestas las políticas y programas públicos disponibles para su supervivencia, así mismo la disponibilidad de recursos de financiamiento para la creación y supervivencia de las nuevas empresas que se creen, analizando el papel que juega la innovación en este tipo de empresas como factor importante en el crecimiento económico del país, esperando, a partir de los resultados del estudio hacer aportes y recomendaciones sobre las políticas públicas y factores adicionales para crear un ambiente propicio para el desarrollo de empresas de alto crecimiento en Colombia.
Limon Mora Erick Andres, Universidad de Sonora
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
REHABILITACIóN DE CONCRETO CON FIBRAS DE CARBONO
REHABILITACIóN DE CONCRETO CON FIBRAS DE CARBONO
Limon Mora Erick Andres, Universidad de Sonora. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Los elementos estructurales de una edificación son de los aspectos primordiales de ella y aunque se busca su mayor eficiencia en cuanto seguridad, costo y estética no siempre es así, ya sea el cálculo estructural, la planeación del edificio o la ejecución de la construcción alguna de estas puede salir mal. En caso de ya tener construido elementos estructurales donde deberán ser reforzados; genera un aumento en costo y tiempo proporcional al aumento de reforzamiento y del avance de la obra. En la mayoría de los casos la gran mayoría de las soluciones son, tardadas e invasivas a los espacios contemplados lo cual puede llegar a casuar mucho problema para su uso establecido o arruinar la estética que se proyectó al edificio.
OBJETIVO
Evaluar en qué casos es el que se uso fibras de carbono como reforzamiento estructural y/o protección a agentes corrosivos para valorar sus características en cada caso para generar un perfil de uso para las fibras de carbono
METODOLOGÍA
Para poder entender la razón de uso de este material debemos primero comprender sus características únicas para analizar de que maneras se explotan sus ventajas en casos particulares. La Fibras de Carbono son fibras unidireccionales de alta resistencia a tensión adheridas con resinas al concreto de tal forma que asiste a su resistencia a las fuerzas, dependiendo de si se necesitan asistencia a flexión, Cortante, compresión o tensión es la manera de colocar las fibras sobre el elemento.
De las ventajas que encontramos sobre el uso de fibras de carbono como refuerzo al concreto son :
Procedimiento no invasivo
Aplicación rápida
Relación Resistencia / peso muy eficiente
Alta resistencia a tensión
Adaptabilidad en superficies irregulares
Resistencia a agentes corrosivos
Comparando con los métodos mas tradicionales que son agregando mas elementos estructurales al edificio esto elimina muchas ventajas que tendríamos con las fibras de carbono, aunque en la mayoría de los casos estaría ahorrando mucho dinero ya que el costo de estas fibras para países subdesarrollados como México es muy alto creando una diferencia de costo muy grande. Por otra parte en el uso de fibras de carbono como protección ante la corrosión se uso más en elementos ya construidos ya sea el caso donde se cambien el uso que se tenía planeado, mal desempeño de materiales o de métodos de construcción entre otros; Para este tipo de casos el factor mas importante son las resinas ,llamada diglicidileter de bisfenol o BADGE la mas usada, ya que le da la protección necesaria al concreto como un recubrimiento epóxico.
CONCLUSIONES
Los casos donde la fibra de carbono como refuerzo estructural y/o ante corrosión son casos muy particulares en el uso cotidiano de la construcción, empezando por su costo elevador en nuestro país hace que sea un material muy poco accesible para gran parte del país. Su mayor campo de acción es para al industria y edificaciones grandes donde el tiempo para repararlo con métodos mas tradicionales conlleva parar la producción por mucho tiempo, en esos casos siendo la opción mas viable el uso de fibras de carbono encontramos un gran beneficio estético y de aprovechamiento de espacios. A medida que se va popularizando este material se vuelve mas accesible para la mayoría de los constructores en México, esperando que en algún futuro hasta haya normas mexicanas sobre el uso de Fibras de carbono en la construcción.
Referencias:
Manriques Siles D.A. y Paucar Berrocal M.D.(2019) Uso de Fibras de Carbono en reforzamiento de estructuras de edificaciones, centro empresarial camino real, san isidro. [Tesis para recibir el titulo profesional, Universidad Ricardo Palma].
Peñolazo Garcia J.D. (2010), Rehabilitación de vigas de concreto usando fibras de carbono,[Tesis que para obtener el grado de maestro en ing. Civil, Instituto Politécnico Nacional].
Linares Duarte Luz Alejandra, Instituto Tecnológico Superior Purépecha
Asesor:Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México
SíNTESIS DE MATERIALES COMPUESTOS A PARTIR DE CASCARON DE HUEVO, REFORZADOS CON NANOPARTíCULAS DE PLATA PARA POSIBLES APLICACIONES BIOMéDICAS Y SISTEMAS MECáNICOS.
SíNTESIS DE MATERIALES COMPUESTOS A PARTIR DE CASCARON DE HUEVO, REFORZADOS CON NANOPARTíCULAS DE PLATA PARA POSIBLES APLICACIONES BIOMéDICAS Y SISTEMAS MECáNICOS.
Linares Duarte Luz Alejandra, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Jose Guadalupe Miranda Hernández, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
La cascara de huevo como se sabe es un desecho producido por la industria que muy pocas veces se le ve una aplicación, esta es una bioceramica compuesta de una fase orgánica y otra inorgánica. Químicamente está compuesta de 1.6% de agua,95.1 % de minerales, de los cuales 93.6% corresponden a carbonato de calcio, 0.8% de carbonato de magnesio y 0.73% de fosfato tricalcico y finalmente 3.3% de materia orgánica.
Con el carbonato de calcio se pueden formar aluminatos de calcio que ya se han visto en estudios anteriores, sin embargo, existe la necesidad de mejoras dentro de las propiedades del material para las aplicaciones biomédicas.
Por ello surge la idea de crear un material compuesto por aluminato de calcio donde se aproveche el recurso de la cascara de huevo, además de aumentar sus características y propiedades gracias a incluir otro metal que sea biocompatible para una posible aplicación mecánica y biomédica.
METODOLOGÍA
Se partió de la recolección de cascarones de huevo esto con la finalidad de obtener CaCO3, para eliminar materia orgánica estos se lavaron con agua y alcohol isopropilico para después secar con flujo de aire caliente, se trituro con la ayuda de un mortero de porcelana para obtener un polvo que después se pasó por proceso en mufla a 250°c durante 1 hora.
Siguiendo con el proceso el polvo obtenido se sometió a un proceso de molienda en un molino planetario durante 2 horas y media a 200 rpm utilizando bolas de molienda de zirconia, así como un recipiente de ágata obteniendo como resultado el carbonato de calcio.
Se realizaron diferentes composiciones para observar la mejor composición de acuerdo a las aplicaciones que en este caso se le iban a asignar, se utilizó polvos de Al2O3 y polvos de CaCO3 que previamente fueron obtenidos del cascaron de huevo, añadiendo 0%,1%,5%,10% y 15% de nanoparticulas de plata. Las mezclas se sometieron a un proceso de molienda en un molino planetario durante 4 horas a 200 rpm utilizando un contenedor de ágata y bolas de molienda de zirconia
Los polvos obtenidos se compactaron a una presión de 300MPa en un dado de acero inoxidable para obtener muestras de 20mm de diámetro y 3mm de espesor.
La sinterizacion se llevó a cabo en un horno de alta temperatura con un tiempo de 1 hora a 1500°C con un control de atmosfera con gas nitrógeno para evitar oxidación dentro del proceso. Durante el proceso se utilizó una rampa de calentamiento donde se comenzó de temperatura ambiente a 500°C en 20 minutos y se mantiene 20 minutos, transcurrido esto aumenta hasta los 1000°C en 20 minutos, manteniéndose 20 minutos para volver aumentar nuevamente hasta 1500°C en 20 minutos donde se mantiene 1 hora.
Se calculó en cada una de las muestras la densidad volumétrica y la densidad por método de Arquímedes.
La densidad volumétrica fue calculada con base a los promedios de las medidas de masa, diámetro y espesor que se obtuvieron antes y después de la sinterización en las muestras.
Para el caso de la densidad por el método de Arquímedes se realiza con la ayuda de una báscula analítica y unos aditamentos. Para determinar el valor de la densidad se basa en una fórmula
p=(A/(A+B))*(P0+Pl)+Pl
En cada una de las muestras se llevó a cabo una preparación para las siguientes pruebas.
Este proceso consistió en el desbaste y pulido, el desbaste se elaboró con lijas de tamaño de grano diferentes, este paso se realizó en una superficie plana con movimientos en una sola dirección,después se fue cambiando la lija por una de menor tamaño de grano y la muestra se gira 90 grados para eliminar las líneas hechas por la lija que se usó anteriormente, el proceso se realiza varias veces hasta llegar a la lija más fina y comenzar a pulir.
El pulido se realizó con una pulidora de la marca Le Cube para eliminar las líneas hechas por la ultima lija, el proceso se realizó en un plato plano con flujo de agua de constante para que la superficie de la muestra al final esté libre de rayas para ser observada en el microscopio.
El análisis de microscopia se realizó en un microscopio óptico de la marca Olympus-GX51 donde se pudieron analizar en las muestras los cambios estructurales, observar cómo está distribuido el metal y la distribución de poros. Obteniendo de aquí microfotografías con los lentes de 10x y 20x.
El análisis de dureza se llevó a cabo en un microdurometro, que cuenta con 2 lentes con aumentos 10x y 40x, además de una punta diamante, cada una de las muestras fueron medidas su dureza y se obtuvieron fotografías con los respectivos aumentos
CONCLUSIONES
Al final del proceso durante la estancia se lograron obtener las muestras del material donde en cada uno de los porcentajes se veían diferentes características,
Durante la microscopia óptica se observó la presencia de porosidad además de partículas de plata con diferente proporción dependiendo del porcentaje añadido.
En las muestras sinterizadas se obtuvieron las siguientes durezas promedio:
0% Plata=974
1% plata= 1084
5% plata= 1069
10% plata= 1060
15% plata=974
En la prueba de densidad volumétrica se obtuvieron los siguientes resultados promedio:
0% Plata=1.74 g/cm3
1% plata=1.79g/cm3
5% plata=1.82 g/cm3
10% plata=1.85 g/cm3
15% plata=1.91 g/cm3
En la densidad por el método de Arquímedes donde está influenciada por el tamaño, forma, número y distribución de los poros se obtuvieron las siguientes densidades promedio:
0% Plata=2.88 g/cm3
1% plata=2.87g/cm3
5% plata=2.86 g/cm3
10% plata=2.88 g/cm3
15% plata=2.93g/cm3
En cuanto al trabajo se logró sinterizar y obtener algunas de las características del material, dando una buena dirección al proyecto. Por cuestión de tiempo se planea seguir con el proyecto en un nivel más avanzado para realizar pruebas faltantes como difracción de rayos x, de biocompatibilidad y tenacidad a la fractura por mencionar algunas.
Se puede decir que se cumplió con el objetivo marcado para la estancia y obtener algunas propiedades interesantes en la síntesis del material propuesto.
Lira Meneses Aranza, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PROPUESTA DE PROYECTO DE GAMIFICACIóN "EXPRESIONES ALGEBRAICAS"
PROPUESTA DE PROYECTO DE GAMIFICACIóN "EXPRESIONES ALGEBRAICAS"
Lira Meneses Aranza, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los métodos de aprendizaje han estado siendo cada vez más revolucionarios y buscando la forma de que sea divertido y llamativo a los estudiantes aprender, de esta revolución forma parte la gamificación educativa, la cual es una técnica que utiliza herramientas de aprendizaje digitales para motivar a los estudiantes mediante recompensas o regalos en juegos educativos.
Es así que surge el presente proyecto con un enfoque hacia las expresiones algebraicas que, es una de las materias que menos estudiantes aprueban en universidad, con el fin de que este índice sea menor, ya que, un juego educativo haría que los estudiantes se interesen por aprenderlas. Se llevará a cabo en un pequeño grupo de diez alumnos del Instituto Tecnológico Superior del Oriente del Estado de Hidalgo (ITESA).
Para ello, se realiza la creación de una herramienta digital educativa, donde mediante su aplicación en diez estudiantes, se identifique si es más llamativo aprender el tema asignado (expresiones algebraicas) de esta forma.
METODOLOGÍA
El presente proyecto se llevó a cabo mediante una investigación de 3 fases, documental, experimental y evaluativa, en la que, la investigación documental consistió en la realización de la búsqueda de información en internet sobre el tema principal de gamificación, su subtema, sobre la herramienta elegida, y la asignación de tema específico, expresiones algebraicas.
Posteriormente en la fase de la investigación experimental, se llevó a cabo el diseño de la herramienta digital elegida, en este caso de Kahoot!, por lo que, se diseñó un quiz en su servidor web, y una encuesta en el formulario de Google forms para identificar si los alumnos se sentían a gusto con la herramienta o no.
Y finalmente, en la fase tres, se evaluó a los estudiantes mediante el juego en Kahoot, y se analizaron las respuestas del formulario.
CONCLUSIONES
Resultados
En cuanto al juego, se mostraron los tres primer lugares en el podio de la herramienta digital, del cual, la alumna Karen Fuentes obtuvo el primer lugar.
Por otro lado, en la encuesta, se puede apreciar que tan solo el 60% de los estudiantes, es decir, 6/10 conocían la herramienta, y a pesar de eso, ninguno conoce otra herramienta parecida. En general, 70% de los alumnos tuvieron una experiencia EXCELENTE con la herramienta, a pesar que fue la primera vez que la utilizaban para algunos, por lo que, este tipo de herramientas son útiles.
A su vez, el 30% de alumnos que tuvieron una experiencia BUENA y MUY BUENA con la herramienta, aseguran en sus comentarios que hubo problemas con internet y la herramienta, por lo que se entiende que, las fallas a distancia son causa de que las herramientas digitales tengan un menor uso.
Conclusiones
La gamificación es una técnica muy útil en el aprendizaje, por lo que, debería ser implementada con más frecuencia en las aulas, además de que se presta para cualquier edad y permite que sea divertido aprender cualquier tema.
Este proyecto, en lo personal, fue un reto para mí, ya que, no tenía para nada idea de la existencia de la gamificación, conocía herramientas de este tipo, pero no sabía que formaban parte de una técnica.
Lizarraga Sarabia Alejandro, Universidad Autónoma de Sinaloa
Asesor:Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
Lizarraga Sarabia Alejandro, Universidad Autónoma de Sinaloa. Meza Gutiérrez Juan José, Benemérita Universidad Autónoma de Puebla. Mora Rubio Alejandro, Universidad Autónoma de Manizales. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La retinopatía diabética como consecuencia de la diabetes, causada por el daño a los vasos sanguíneos en la retina, es una complicación que afecta a los ojos provocando síntomas entre los cuales se encuentran el trastorno de la visión, visión borrosa, dificultad para percibir los colores y en los casos más graves la pérdida de la visión permanente.
Parte del diagnóstico de la retinopatía diabética consiste en el análisis de imágenes de fondo de ojo, donde se observa la retina del paciente en búsqueda de la presencia de lesiones como hemorragias, microaneurismas, exudados duros y blandos. Es por esto que una de las posibles maneras de ayudar a facilitar y agilizar su detección es el hacer uso del aprendizaje profundo, a través de la creación de un modelo que sea capaz de identificar aquellas lesiones relacionadas a la enfermedad. Por lo tanto, durante el verano de investigación Científica se plantea el profundizar en el uso de un framework de segmentación semántica que es un método de traducción imagen a imagen que permite identificar regiones y estructuras en una imagen de entrada. Este tipo de método resuelve problemas de clasificación pixel a pixel, en los cuales las clases están predefinidas. El resultado de la segmentación es clasificado a detalle, y contiene más información acerca de una escena que otros métodos.
METODOLOGÍA
El trabajo realizado consiste en la puesta en marcha del framework DR-Segmentation disponible de manera libre, que cuenta con modelos predefinidos de redes neuronales UNet, HEDNet, y HEDNet+cGAN para la segmentación semántica de cuatro diferentes tipos de lesiones presentes en la Retinopatía Diabética. La base de datos de entrenamiento, las opciones de preprocesamiento de imágenes de muestra, los modelos de redes neuronales y la forma de evaluarlos dentro del framework se comenta a continuación.
Los datos de entrenamiento corresponden a las imágenes y máscaras de segmentación disponibles a través de la base de datos de libre acceso Indian Diabetic Retinopathy Image Dataset (IDRiD), la cual cuenta con un total de 81 imágenes de fondo de ojo con máscaras de segmentación para el disco óptico y las diferentes lesiones (microaneurisma, hemorragia, exudados duros y blandos) según corresponda. Las imágenes se encuentran divididas en un conjunto de entrenamiento con 54 imágenes y un conjunto de evaluación con las imágenes restantes.
Debido a que las imágenes provenientes de IDRiD, tienen diferentes intervalos de iluminación y contraste entre ellas, el DR-Segmentation framework permite al usuario aplicar diferentes tipos de preprocesamiento al conjunto de datos de entrada, que dependiendo de la calidad de las imágenes originales puede mejorar los resultados de segmentación. Los dos tipos de preprocesamiento utilizados durante el experimento fueron el balance de brillo, que consiste en forzar a cada pixel de las imágenes de entrenamiento y evaluación a tener una intensidad de píxel promedio, igual a la intensidad de píxel promedio del conjunto completo de imágenes utilizadas, y en segundo lugar el mejoramiento de contraste, para asegurar que las intensidades de los pixeles cubren un amplio rango de valores, que hacen más evidentes los detalles de la imagen. El mejoramiento de contraste se implementa mediante el procedimiento conocido como CLAHE (Contrast Limited Adaptive Histogram Equalization).
Los tipos de redes neuronales utilizados para realizar la segmentación semántica de las lesiones fueron UNET y HEDNet. Acerca de UNET es importante mencionar que es un modelo ampliamente utilizado para segmentación de imágenes biomédicas, por otro lado, el modelo HEDNet es un modelo de detección de bordes anidados de manera holística basado en redes neuronales convolucionales profundas con un mejor desempeño frente a algoritmos como los de detección de bordes de Canny, en términos de velocidad y exactitud.
Para la evaluación de los modelos se utiliza la métrica DICE, la cual representa un coeficiente de similitud entre dos muestras, para nuestro caso la similitud entre dos máscaras de segmentación, la real provista por la base de datos y la predicción realizada por el modelo.
Con el objetivo de comparar las diferentes arquitecturas y operaciones de preprocesamiento, se realizan los siguientes experimentos:
Modelo U-Net, imágenes sin preprocesamiento (0)
Modelo U-Net, balanceo de brillo (1)
Modelo U-Net, aumento de contraste (2)
Modelo HEDNet, imágenes sin preprocesamiento (0)
Modelo HEDNet, balanceo de brillo (1)
Modelo HEDNet, aumento de contraste (2)
Los anteriores experimentos fueron desarrollados para la lesión de microaneurismas por Alejandro Lizarraga Sarabia, para la lesión de hemorragias por Juan José Meza Gutiérrez, y para la lesión de exudados duros por Alejandro Mora Rubio. La lesión de exudados blandos se excluyó de los experimentos debido a que no todas las imágenes del conjunto de entrenamiento presentan esta lesión.
Los resultados obtenidos al evaluar por medio del coeficiente de DICE cada uno de los modelos se encuentran registrados en la tabla 1.
Tabla 1: https://drive.google.com/drive/folders/1zIUBSoduuiVpjt0kIY7YFBIM81GFKKga?usp=sharing
CONCLUSIONES
En cuanto a los resultados, se puede observar en la tabla 1 que al aplicar la segmentación semántica a las imágenes de fondo de ojo, los mejores resultados se obtienen en la segmentación de microaneurismas con el modelo U-Net aplicando un preprocesamiento de aumento de contraste. En general también se puede ver que en el caso de U-Net los resultados de la evaluación mejoran, si se aplica algún tipo de preprocesamiento al conjunto de imágenes de entrenamiento, mientras que a excepción de los exudados duros en HEDNet el desempeño disminuye al aplicar algún preprocesamiento. Finalmente de acuerdo con la tabla 1, se puede afirmar que durante el ejercicio de segmentación semántica el modelo U-Net es superior en todos los casos.
Lizcano García Brenda Julieth, Universidad Antonio Nariño
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
LOGíSTICA HUMANITARIA: GUíA PARA FACILITAR LA GESTIóN Y CONTROL DE DONACIONES EN EL ALMACENAJE DE UN CENTRO DE AYUDA HUMANITARIA.
LOGíSTICA HUMANITARIA: GUíA PARA FACILITAR LA GESTIóN Y CONTROL DE DONACIONES EN EL ALMACENAJE DE UN CENTRO DE AYUDA HUMANITARIA.
Lizcano García Brenda Julieth, Universidad Antonio Nariño. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Debido a la importancia de contar un plan de acción ante la situación de desastre, se despliega una situación particular de la administración de los centros de ayuda humanitaria que atenderán la gestión de ayuda de víveres y donaciones hacia los damnificados. Por lo que, la presente investigación se centró en desarrollar una propuesta de una guía para gestionar y administrar las actividades logísticas relacionadas en el almacenamiento y control de víveres o donaciones dentro de los centros de ayuda humanitaria, que pueda servir de base para en un futuro realizar un piloto y comprobar su funcionalidad.
METODOLOGÍA
La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de las prácticas en la gestión de los centros de ayuda humanitaria en situación de huracán. Contiene una revisión de 25 marcos teóricos de artículos científicos sobre las buenas prácticas de la logística humanitaria en situación de inundaciones. Posteriormente se diseñó una propuesta de una guía que puede facilitar la gestión y administración de las donaciones o víveres.
CONCLUSIONES
Como resultado se obtuvo una propuesta de diseño de la guía, que pueda favorecer la operación de los centros de ayuda humanitaria, en relación al almacenamiento y control de donaciones.Como trabajo futuro queda implementar la guía en un centro de ayuda humanitaria en situación de huracán para validar su efectividad.
Llalli Huaraca Christian, Universidad Nacional José María Arguedas
Asesor:Dra. Josefina Vergara Sánchez, Universidad Autónoma del Estado de Morelos
APLICACIÓN DE LA FOTOCATÁLISIS HETEROGÉNEA PARA LA DEGRADACIÓN DEL ACETAMINOFÉN EN MUESTRA SINTÉTICA
APLICACIÓN DE LA FOTOCATÁLISIS HETEROGÉNEA PARA LA DEGRADACIÓN DEL ACETAMINOFÉN EN MUESTRA SINTÉTICA
Llalli Huaraca Christian, Universidad Nacional José María Arguedas. Asesor: Dra. Josefina Vergara Sánchez, Universidad Autónoma del Estado de Morelos
PLANTEAMIENTO DEL PROBLEMA
La fotocatálisis con la luz solar se presenta como una alternativa sencilla y económica para el tratamiento de aguas contaminadas por contaminantes emergentes (CE). El uso de esta tecnología para degradar y mineralizar el Acetaminofén es una alternativa. El objetivo de este trabajo fue revisar la literatura referente a la descontaminación en aguas contaminadas del Acetaminofén en solución acuosa, empleando las tecnologías de Procesos Avanzados de Oxidación (PAO's) y, proponer un fotorreactor solar aplicando la fotocatálisis heterogénea con TiO2 como catalizador.
METODOLOGÍA
Se prepara la muestra sintética con Acetaminofén al 99.9 % de pureza, con una concentración de TiO2 = 0.6 g/L en un medio alcalino pH = 9, a temperatura ambiente. Se plantea un recolector solar, el cual consta de 5 módulos compuesto por tubos de vidrio transparente (SCHOTT Duran®) con 32 mm de diámetro y 1200 mm de largo; la base del recolector cubierto de lámina de aluminio, ya que permite la reflectancia de la ración UV de luz solar, empleando una bomba de recirculación y un tanque; se propone experimentar al medio día solar por que la radiación solar va directamente al sistema de recolección evitando la formación de sombras en los tubos de vidrio.
CONCLUSIONES
Como resultado se espera que las concentraciones óptimas para la degradación del Acetaminofén de la muestra sintética sean en función a los 0.6 g/L de dióxido de titanio en condiciones ambientales. Con la presente propuesta del fotocatalizador heterogéneo se espera un porcentaje superior al 80 % de degradación del Acetaminofén, al ser atacada por los radicales hidroxilo, debido a que su estructura molecular es mucho menos compleja, a comparación con otros fármacos.
Longino de Jesus Anayeli, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dra. Brenda Leticia Flores Rios, Universidad Autónoma de Baja California
UN ACERCAMIENTO A LA MINERíA DE PROCESOS DE SOFTWARE: TéCNICAS, ALGORITMOS Y RECURSOS TECNOLóGICOS
UN ACERCAMIENTO A LA MINERíA DE PROCESOS DE SOFTWARE: TéCNICAS, ALGORITMOS Y RECURSOS TECNOLóGICOS
Longino de Jesus Anayeli, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Brenda Leticia Flores Rios, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La Minería de procesos es una disciplina similar a la minería de datos, debido a que permite analizar y modelar los procesos de negocio de cualquier organización. Los sistemas de información ayudan a las organizaciones a capturar y almacenar datos de las actividades ejecutadas y proporcionan información importante sobre el rendimiento y cumplimiento de los procesos. El problema es que los miembros de equipos de trabajo no conocen o no cuentan con el conocimiento para interpretar la información de los registros de las actividades ejecutadas correspondiente a los procesos de software. En algunas ocasiones, los modelos de referencia de procesos son guías con procedimientos y modelos abstractos. En consecuencia, se presenta una gran brecha o inconsistencia entre el proceso real y el proceso oficial (Humphrey, 1995; Samalikova et al., 2011). Esta brecha puede ser apoyada o medida mediante técnicas, algoritmos o herramientas de minería de procesos, permitiéndoles corregir y mejorar el proceso requerido. De esta manera, los roles que son responsables de procesos estratégicos contarán con más información real para la toma de decisiones.
METODOLOGÍA
El desarrollo de este trabajo tiene como propósito tener una acercamiento y revisión de la literatura relacionada a la Minería de Procesos, y de esta manera obtener el conocimiento de esta nueva tecnología de apoyo a los procesos de software para lograr un nuevo descubrimiento, verificación de conformidad y/o mejora de procesos de software.
Lasa fases de la metodología que se siguió se mencionan a continuación:
1. La realización de una revisión de literatura para generar conocimiento enfocado a la Gestión del conocimiento en procesos de Software e Ingeniería de Software y así lograr un acercamiento a la Minería de procesos mediante el uso de técnicas, algoritmos y recursos tecnológicos (herramientas).
2. El análisis y la exploración de información generando una guía técnica con la siguiente estructura: Sección 1 Introducción de la Minería de Procesos (MP)- definición de MP, desarrollo de MP, propósitos/beneficios de MP; Sección 2 La descripción de Técnicas, Herramientas de MP y Algoritmos (Algoritmo Alpha (α), Algoritmo Genético, Algoritmo Heurístico, Algoritmo Difuso), Herramientas de minería de procesos (ProM, Disco, Aris PPM, Perceptive Process Mining (antes Futura Reflect), CPN Tools, Process Analyzer, Interstage Process Discovery), Minería de Procesos en prácticas del modelo de referencia CMMI-DEV: Planificación de la revisión, Ejemplo de búsqueda basado en conectores de palabras clave y lógica, Filtrado de estudios (Esquema de clasificación, Mapeo sistemático con Diagrama de Burbuja), Reportar los Resultados Minería de Datos, Registro de Eventos, Sección 3 Perspectivas de MP: Análisis de los casos de estudio, Tipos de proyectos de MP, Casos de estudio: aplicación y retos, Factores críticos para la aplicación de la minería de procesos, Desafíos y retos investigativos y, Relación con la Ciencia de procesos y la Minería de datos, sección 4 conclusiones y referencias.
3. La generación de un diagrama conceptual el cual integre cada uno de los elementos revisados en la fase anterior.
4. La elaboración de un póster para la presentación en evento académico.
CONCLUSIONES
Al realizar esta investigación, se tuvo un acercamiento a la disciplina de Minería de procesos mediante la aplicación de técnicas, análisis de algoritmos, el uso de herramientas informáticas, tanto comerciales como de acceso abierto, en función a las perspectivas de flujo de control, organizacional, de caso, de tiempo. Se implementó la metodología definida, y se revisaron los casos de estudios donde se puso en práctica la aplicación de alguno de los elementos identificados en la revisión de literatura. Los elementos se representaron por medio de un diagrama conceptual.
La investigación basada en la revisión de literatura, permitió conocer que cada sistema de información tiene una estructura diferente y no hay uniformidad en la manera que registran los registros de eventos del proceso (diferentes formatos y extensiones). De acuerdo con esto, esta investigación estuvo orientada al los ejemplo diseñados, de los casos de estudio para abarcar los tres tipos de minería de procesos (caso de estudio 1 corresponde a la aplicación de la metodología de minería de procesos en el proceso de ventas y distribución en una empresa comercializadora, caso de estudio 2 corresponde a la aplicación de la metodología y las técnicas de minería de procesos en la compra de bienes de una institución universitaria y el caso de estudio 3 corresponde a un proyecto basado en datos dado que la principal motivación era encontrar información valiosa sobre el desempeño de un proceso basado en el análisis del registro de eventos de un sistema BPMS) aplicando la metodología propuesta por Aguirre (2015) la cual consta de cuatro etapas (definición del proyecto, preparación de los datos, análisis de procesos, diseño de procesos). En los ejemplos de caso de estudio analizados se aplicaron diferentes técnicas de minería de procesos y de minería de datos como las siguientes: Algoritmo fuzzy, Árboles de decisión, Análisis de la red social y Análisis estadístico estas técnicas fueron aplicadas con el soporte de las siguientes herramientas informáticas: Disco, SPSS y Microsoft Excel.
Por último la investigación permite concluir que la Minería de procesos es una disciplina relativamente nueva en cuanto a su aplicación en contextos organizacionales, especialmente en medianas y pequeñas empresas de desarrollo de software. De igual manera, se considera que para el avance de la disciplina se requiere mayor trabajo en conjunto, entre la academia, centros de investigación y las organizaciones, basado en sus necesidades, la mejora de técnicas, algoritmos y herramientas de la ciencia de datos y la ciencia de procesos.
Lopez Alarcon Martin Elias, Universidad Autónoma de Manizales
Asesor:Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit
DESARROLLO DE APLICACIóN MóVIL CON USO DE QR Y REALIDAD AUMENTADA PARA IMPLEMENTACIóN EN TECNOLOGíAS EDUCATIVAS
DESARROLLO DE APLICACIóN MóVIL CON USO DE QR Y REALIDAD AUMENTADA PARA IMPLEMENTACIóN EN TECNOLOGíAS EDUCATIVAS
Lopez Alarcon Martin Elias, Universidad Autónoma de Manizales. Asesor: Dra. Janitzín Cárdenas Castellanos, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
La enseñanza es la actividad que ha permitido a la humanidad transmitir conocimientos valiosos a través del tiempo, y para esto, diferentes investigadores han desarrollado teorías y métodos de aprendizaje, con el fin de generar una enseñanza efectiva.
Aun así, el paso de los años ha demostrado que los métodos de aprendizaje deben estar ligados a la manera en la que el ser humano se comunica, teniendo en cuenta que la transmisión del aprendizaje siempre ocurre a través de la interacción entre individuo-individuo o en su defecto, individuo-medio (libro, jeroglíficos, etc.). Por lo tanto, se ha establecido que los métodos de enseñanza no son perfectos ni estáticos, y a raíz de eso, es necesario generar avances en materia de educación, que mejoren las carencias y deficiencias de los métodos anteriores, los cuales a su vez también evolucionan mediante la integración de las tecnologías, adaptando la enseñanza al tipo de población y a la información a transmitir.
Ahora bien, en un ámbito más específico, la comprensión de los conocimientos asociados a las asignaturas de programación suelen requerir un pensamiento abstracto, y esto a su vez implica un método de enseñanza con iguales características, lo cual se ha considerado un desafío, por lo que en el verano de investigación se pretende desarrollar una aplicación móvil orientada a la enseñanza de Estructura de Datos mediante el uso de realidad aumentada y códigos QR, con el fin de facilitar el aprendizaje de los conocimientos relacionados a esta asignatura.
METODOLOGÍA
El desarrollo e implementación de la propuesta metodológica de investigación empleada fue de tipo cualitativa, según el tiempo de aplicación de corte transversal con un alcance exploratorio y un diseño no experimental.
Para el desarrollo de la aplicación móvil, se implementó el tipo de metodología de desarrollo ágil y flexible SCRUM, la cual se basa en la creación de ciclos breves para el desarrollo, que comúnmente se llaman iteraciones o Sprint, las cuales permitieron generar versiones funcionales del producto, de una manera rápida.
Primeramente, se establecieron los requisitos del software, compuesto de los diferentes conceptos de la asignatura Estructura de datos Aplicada, que incluye a: Vectores, arreglos, matrices, listas, pilas, colas y árboles. Estos conceptos pasaron a revisión y documentación previa, con el fin de comprender a cabalidad los términos.
Posterior a eso, se procedió a establecer las actividades que se desarrollarían en cada sprint o iteración, partiendo primeramente del modelado de las figuras 3D; para esto se utilizó el programa informático multiplataforma Blender, el cual nos permitió modelar, iluminar, renderizar, animar y crear los gráficos tridimensionales asociados a cada uno de los conceptos establecidos. Ya luego los gráficos 3D fueron cargados en el motor de videojuego multiplataforma Unity, quien mediante el Kit de desarrollo orientado a realidad aumentada Vuforia, nos permitió generar la aplicación móvil, con su primera función: escaneo.
Las siguientes modificaciones realizadas en cada una de las iteraciones siguientes, estuvieron relacionadas con la creación formal de la aplicación, que incluyó: Menú, opción de descarga de códigos QR, opción de escaneo y botón salir, permitiendo a su vez una interacción usuario-maquina.
Por último, se realizaron diferentes retroalimentaciones de las versiones del producto generado, con el fin de establecer posibles mejoras de la aplicación; para esto, fue necesario el uso de los 3 pilares de la metodología SCRUM: transparencia, inspección y adaptación, con el fin de aumentar la eficacia del trabajo en equipo, y permitir un desarrollo integral del producto.
CONCLUSIONES
Durante la estancia de verano, se logró desarrollar una propuesta de innovación en el área de aplicaciones móviles con el uso de material interactivo Realidad Aumentada y codificación QR para la asignatura de Estructura de Datos Aplicadas de la carrera de Tecnologías de la Información área Desarrollo de Software Multiplataforma de la Universidad Tecnológica de Nayarit, México, que es cursada en el cuarto cuatrimestre de su formación universitaria.
La aplicación móvil cuenta con el uso de realidad aumentada educativa y modelos tridimensionales animados, los cuales generan una estimulación visual, kinésica y auditiva, resumida en cada resultado del escaneo del QR, del que se obtiene un modelo 3D con animación gráfica, interacción mediante el touch y audio informativo del concepto, permitiendo a su vez una interacción hombre-maquina.
López Bañuelos Angel Ignacio, Instituto Politécnico Nacional
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
LOS MATERIALES PéTREOS NATURALES EN LOS PROCESOS CONSTRUCTIVOS PARA LA ESTRUCTURA EN PAREDES Y CIMIENTOS DENTRO DE UNA CASA HABITACIóN EN EL MUNICIPIO DE NEZAHUALCóYOTL, ESTADO DE MéXICO.
LOS MATERIALES PéTREOS NATURALES EN LOS PROCESOS CONSTRUCTIVOS PARA LA ESTRUCTURA EN PAREDES Y CIMIENTOS DENTRO DE UNA CASA HABITACIóN EN EL MUNICIPIO DE NEZAHUALCóYOTL, ESTADO DE MéXICO.
López Bañuelos Angel Ignacio, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Los materiales pétreos naturales, considerados como minerales, rocas o piedras han sido uno de los primeros materiales empleados para la construcción y ejecución de los distintos elementos que conforman una casa habitación.
La piedra ha perdido importancia debido al Cemento y Acero ya que la construcción con piedra requiere mucho más tiempo de ejecución. Sin embargo, se puede ver su presencia y se debería de utilizar en países empobrecidos por su altísima calidad y por cuestiones económicas, haciendo de su uso un beneficio económico para la sociedad. Puede ocurrir también que no se usen rocas en construcción porqué se carezca de bancos para explotación de las mismas.
Argumentando esto, apoyamos a la idea de que las rocas o piedras son consideradas como un material resistente que normalmente las vemos en las cimentaciones de mampostería o de piedra braza, ya que es importante porque es el grupo de elementos que soportan a la estructura. Este tipo de cimentaciones hechas a base de material pétreo natural beneficia a las construcciones en caso de que el terreno sea duro, también beneficia a la comunidad ya que aparte de ser un material de calidad no tiene un altísimo costo dentro de la construcción, además de que se recomienda usar este tipo de piedra, en especial la piedra braza, por su nivel de resistencia a la tensión que es sumamente alto.
A lo largo de esta investigación se resolverá la hipótesis que dice, que si los materiales pétreos naturales son resistentes en la construcción entonces pueden utilizarse para la cimentación de mampostería de una casa habitación.
METODOLOGÍA
Se responderá a tres preguntas del tema abordado y despues se irán resolviendo a lo largo del desarrollo. Estas son:
1) ¿Como se utilizan los materiales pétreos naturales en los procesos constructivos para la estructura en paredes y cimientos dentro de una casa habitación en el municipio de Nezahualcóyotl, Estado de México?
2) ¿Qué materiales pétreos naturales se recomiendan usar en los procesos constructivos para la estructura en paredes y cimientos dentro de una casa habitación en el municipio de Nezahualcóyotl, Estado de México?
3) ¿Cómo se clasifican los materiales pétreos naturales en los procesos constructivos para la estructura en paredes y cimientos dentro de una casa habitación en el municipio de Nezahualcóyotl, Estado de México?
Los materiales pétreos como se sabe son materiales provenientes de la naturaleza, que para ser usados en la construcción llevan un proceso que realiza el hombre, ese material pétreo natural son las rocas o minerales. Pero existe una clasificación para este tipo de pétreo natural, y una definición más clara sobre las rocas. Orozco Centeno (2014) afirma:
Una roca se define como una asociación inorgánica de uno o varios minerales originados en forma natural por procesos geológicos endógenos o exógenos. Según su origen se clasifican en 3 tipos: las rocas ígneas; intrusivas y extrusivas, las rocas sedimentarias y las metamórficas. (p. 5)
Y bien como dice Centeno, las rocas tienen información guardada en su interior, algunas rocas tienden a ser utilizadas como decorativas, otras en procesos constructivos y otras las vemos en la vida diaria, pero lo importante es saber clasificarlas y conocer sus orígenes para determinar sus propiedades físicas y mecánicas y con esa información decidir sus posibles usos en la construcción de obras civiles.
Y previamente explicada la clasificación de las rocas y sus usos podemos definir a la cimentación. Es uno de los primeros pasos a realizar durante las actividades preliminares de una casa habitación, ya que es el punto inicial para empezar a construir una edificación, sin ella no habría una estabilidad ni mucho menos rigidez de la subestructura embebida en el suelo. El Doctor Ingeniero de Caminos, Canales y Puertos, Yepes Piqueras (2019) afirma:
La cimentación de una estructura es aquello que la sustenta sobre el terreno. Generalmente está enterrada y transmite al terreno su propio peso y las cargas recibidas, de modo que la estructura que soporta sea estable, la presión transmitida sea menor a la admisible y los asientos se encuentren limitados, (…). La cimentación consta de dos partes, el elemento estructural encargado de transmitir las cargas al terreno, o cimiento, y la zona del terreno (p. 2)
Para caracterizar o evaluar las rocas se hacen unos estudios en donde se clasifican las Características físicas y mecánicas de los suelos en función de; Clasificación granulométrica y Clasificación del suelo por su cohesión.
CONCLUSIONES
Se crearon 3 planteamientos del problema, los 3 fueron resueltos acorde con las investigaciones y clasificaciones que se realizaron. Esto quedó claro, sabemos que primero se analiza el tipo de roca que se pretende usar para posteriormente hacer lo que se conoce como Corte, Desbaste, Acabado y Talla o Labra del material pétreo extraído de un yacimiento.
Además, cuando empecé a retomar información me di cuenta de que el material pétreo no solo es el único material para la creación de un elemento estructural porque realmente no es suficiente, sino que, es necesario el uso de cemento, cal, varillas, estribos, alambre, arena y grava limpias y suficiente agua para lograr una masa trabajable que va a generar esa adherencia del material aglomerante con mi material pétreo natural.
Analizando las características de los terrenos también hay que ver qué tipo de pétreo es el mejor, por ejemplo, si tenemos un terreno que tiene condiciones favorables y que es un terreno duro pues es recomendable usar la piedra braza o de mampostería, si existe en los alrededores, o bien si tenemos un terreno fangoso o con el suelo blando o suelto se recomienda usar pizarra o basalto, ya que son dos muy buenos materiales pétreos, también resistentes a cargas ya que el suelo al ser inestable necesita mayor rigidez en los cimientos. La rigidez es para que los movimientos sísmicos sean absortos por la subestructura o cimentación. En contraste con todo esto los materiales pétreos naturales si son muy útiles y resistentes en la construcción sobre todo para materiales de estructura en paredes y cimientos.
López Barboza Jorge Alberto, Instituto Tecnológico Superior de Guanajuato
Asesor:Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó
MARGARET PROJECT
MARGARET PROJECT
Espinosa Roy Maria Daniela, Instituto Tecnológico de Zitácuaro. López Barboza Jorge Alberto, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Sebastian Robledo Giraldo, Universidad Católica Luis Amigó
PLANTEAMIENTO DEL PROBLEMA
Derivado de la gran influencia de información que se destaca dentro de los institutos de investigación en Colombia, así como en instituciones educativas de educación superior del mismo país, surge una principal problemática que consiste en una necesidad dentro del departamento de Vicerrectoría de la institución antes mencionada, sin embargo el problema radica en la ausencia de un sistema que contenga todo tipo de información, procesos, y analítica correspondiente para generar gráficos, teniendo en cuenta que es para visualizar que tan influyente es el investigador conforme a sus proyectos, la cual para su solución consiste en recopilar toda la información posible, en donde se destaca la participación de docentes investigadores, por ende, se determina la creación de un sistema web para determinar toda la información relevante de los investigadores, distribuyendo su información en autores, el grupo de investigación al que pertenecen, así como recopilar sus aportes en revistas científicas y sus principales aportes en la ciencia.
METODOLOGÍA
La metodología con la que se estuvo trabajando fue SCRUM la cual es una metodología ágil y flexible.
de igual manera las reuniones se llevaban diariamente con el fin de ver el progreso o soluciones de algún problema de cada uno de los compañeros, también nos permitía el cambio y el regresar a cierto punto y cambiarlo con el fin de resolver el problema que se tuvo.
Se utilizaron los datos de un Web Scrapping de los sitios de gobierno de Colombia y Google Scholar, se hizo el tratado de datos mediante RStudio para extraer la información.
Una vez que la información estaba lista pasábamos a representarla o acomodarla de tal manera de poderla representar en graficas o a manera de tablas en donde se mostraban datos como:
Grupo
Clasificación
Cantidad de artículos
Cantidad de investigadores
Líder
Correo
Área del conocimiento
Esto se hacía en RStudio mediante flexdashboard este se encargaba de interpretar nuestro código de Rstudio y transformarlo en código markdown en código HTML, esto con el fin de facilitar la forma de crear páginas web complejas.
CONCLUSIONES
Conforme a los resultados que se han ido obteniendo en el desarrollo del proyecto, cabe destacar que aun no ha sido terminado en un 100%, puesto que la organización exhaustiva de información requiere manejar bases de datos bastantes amplias.
Sin embargo, se ha logrado obtener un avance significativo al proyecto, en donde hasta el momento se encuentran una estructura de 15 grupos de investigadores, que contienen la cantidad de artículos e investigadores correspondientes, en forma de lista. También se puede observar que cada docente investigador tiene su apartado en donde se encuentra la categoría de investigación a la que pertenece, la formación y al grupo correspondiente. Otra de las observaciones que se han presentado es justamente la colección de artículos y el país donde se han publicado, el año de publicación y paginas de la revista en donde se encuentra tanto como los autores correspondientes. También se ha generado un tablero con información relevante que contiene los países top con la cantidad de información publicada y su equivalencia en porcentajes. También se encuentra una sección en donde se puede observar 6 de los 15 grupos más destacados en términos de investigadores más representativos y los 6 docentes mas destacados con mayor publicación de artículos.
Lopez Galindo María de los Angeles, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
Juárez López Maria Yaneli, Instituto Tecnológico Superior de Guanajuato. Lopez Galindo María de los Angeles, Tecnológico de Estudios Superiores de San Felipe del Progreso. Pérez Gutiérrez Juan, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La ciberseguridad es un tema cada vez más relevante en la vida de las personas y de los negocios. De hecho, con la paralización mundial debido a la pandemia por el COVID-19 el teletrabajo se extendió mundialmente y así su aplicación inmediata. La ciberseguridad trata de mitigar los riesgos que todo negocio en la red pueda tener. No es otra cosa que proteger toda la información de los equipos almacenada en cualquier dispositivo o incluso en la nube.
Por otro lado, la demanda de conectividad es irrefutablemente alta y es cada vez más difícil mantener una estabilidad entre la cantidad de clientes y la seguridad de los mismos. Por esto, es cada vez más sencillo acceder a la información que debería de ser privada; existe también un alto grado de desinformación por parte de los clientes, entre lo que es seguro hacer y lo que no. Enfatizando en este aspecto es importante que a los usuarios se les administre reglas sobre un grado de ciberseguridad, para mantenerse a salvo de los ciber ataques y así prevenir las violaciones de datos y de información.
METODOLOGÍA
El presente proyecto se desarrolla bajo las siguientes fases de funciones de Cybersecurity Framework (CSF), estableciendo cinco etapas, las cuales son: Identificar, proteger, detectar, responder y recuperar.
Identificar: En esta etapa se tiene como objetivo implementar un sistema de Seguridad perimetral (Firewall de software libre) que mantenga la información protegida y de esta forma evitar la pérdida de datos o información que pueda causar un daño grave a la empresa o institución. En esta etapa se identificaron riesgos para servidores (Windows y Linux), en servicios administrativos de correo electrónico, transferencia de archivos, conexión remota, servicio web, desde la solicitud y demanda de los clientes. Enfatizando en lo anterior, también se establecen políticas para disminuir amenazas internas y externas.
Proteger: Establecer reglas dentro del firewall que permitan el manejo adecuado de la información a través de la utilización del servidor PFSENSE con el fin de administrar la seguridad de dicha red de forma accesible y que ésta pueda ser tomada como base para la implementación en una empresa o institución en general. Aplicación de reglas en el firewall, las cuales son:
Reglas para el servicio de correo electrónico.
Reglas para el servicio de transferencia de archivos.
Reglas para el servicio web.
Reglas para el servicio de conexión remota.
Para lo cual se asignaron IP de acuerdo a los clientes que se tienen en el sistema con esto se administra un control de acceso a los servicios del sistema y de acceso a la red, así manteniendo la seguridad y navegación para evitar vulnerabilidades.
Detectar: Es esencial comenzar el proceso de evaluación sobre las protecciones que tiene tu organización. Estos deben incluir elementos como protección antivirus, políticas de seguridad, como contraseñas, detección de amenazas y agilidad de respuesta, entre otros. El propósito de esta revisión exhaustiva no es necesariamente aumentar la confianza en lo que has logrado. Este monitoreo de seguridad será indispensable realizarlo de manera continua para evitar eventos no deseados en el sistema. Mediante técnicas de escaneo de vulnerabilidades donde a partir del sistema propuesto y las herramientas Nmap y Wireshark se realizó la búsqueda de vulnerabilidades en la red del sistema, donde se identifica puertos que se encuentran abiertos, estos representan un problema ya que a partir de aquí pueden ingresar al sistema para causar anomalías.
Responder: Se analiza y se hace conocer las medidas y documentación de mitigación frente a un ataque cibernético, las acciones estipuladas y oportunas para evitar cierta filtración de seguridad. Se lleva a cabo actividades de análisis de la información basada en los eventos y planes de recuperación de la información, estipulados cibernéticamente.
Detección de notificaciones de alerta: Mediante comandos y ejecución del software del IDS, se estipula el origen de las vulnerabilidades detectadas.
Impacto del incidente: Se estipula mediante registros e historiales documentales elaborados, el impacto del evento en caso se haber sido ejecutado o infiltrado en la red.
Análisis forenses: Se realiza mediante diferentes herramientas de software y hardware, análisis forense a todos los dispositivos de red y su infraestructura en general.
Plan de acción desde fuentes externas e internas: Siendo las vulnerabilidades informadas mediante dientes medios y fuentes, se establece la normativa de recepción de información de incidentes
Una vez hecho este análisis se configuran las reglas de accesos y alertas de firewall en cada zona donde se hayan detectado puertos abiertos o vulnerados, esto hará que se generaren filtros de afección al ataque.
Recuperar: Técnicamente se deben cumplir todos los procesos que ayuden a prevenir la filtración de personas terceras, software o programas malintencionados en la red, para esto se cuenta con los controles físicos en las puertas de acceso, reglas de acceso de red mediante el filtro de firewall, router e IDS, aplicando los filtros de las fases de protección y respuesta, se estipula implementar mejoras de seguridad basadas en las lecciones aprendidas de ataques de red. Se considera un guion actualizable de todas las mejoras dependiendo la zona de red o activo.
CONCLUSIONES
Cada vez se presentan más retos en el ámbito de la seguridad de las empresas, el número de amenazas en los últimos años se ha disparado y el concepto de seguridad perimetral se ha convertido en una necesidad básica para cualquier organismo con acceso a Internet. Teniendo esto en cuenta, se desarrolló un entorno de pruebas con el fin de evaluar las vulnerabilidades dentro de la red, y comprender la función del firewall, diseñando políticas de seguridad, mismas que fueron las encargadas de administrar la red y de controlar el tráfico y el acceso de los usuarios para fijar el marco de actuación necesario, y de esta manera proteger el sistema de amenazas o en su caso reducir o mitigar el impacto que presentan los ciberataques.
López González Nayeli, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia
CARACTERIZACIóN DE DATOS DE PACIENTES DIABéTICOS
CARACTERIZACIóN DE DATOS DE PACIENTES DIABéTICOS
López González Nayeli, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Juan Carlos Olivares Rojas, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
La diabetes más que ser una enfermedad, es un problema de salud a nivel mundial. Si bien es una enfermedad compleja caracterizada por la secreción de insulina por parte del páncreas lo que contribuye a las concentraciones elevadas de glucosa en la sangre. Aproximadamente ocho millones seiscientos mil personas padecen diabetes mellitus en México, por lo que ha sido la segunda causa de muerte a nivel nacional desde el año 2019, debido que a causa de eso cobró la vida de 104 mil 354 personas.
METODOLOGÍA
Teniendo presente el problema, se instalaron las herramientas a utilizar en el proceso, las cuales fueron Python, Anaconda, Pandas, Jupyterlab, entre otras. Además, de recordar lo que es un DataSet, se realizó una investigación de DataSet de enfermedades del corazón y diabetes en distintos sitios web de fuentes confiables, obteniendo un archivo csv. Dicho archivo contiene 1000 registros de pacientes con tres clasificaciones:
No diabético.
Prediabético.
Diabético.
Lo cual nos ayudó a conocer los análisis de laboratorio (Urea, Cr, HbA1c, Chol, TG, HDL, LDL, VLDL Y BMI) y niveles con el cual un paciente puede tener o no tener diabtes, así mismo la edad y genero del paciente. Con los datos se obtuvo el valor máximo y mínimo, la moda, media y mediana de cada análisis de laboratorio y la edad promedio de los pacientes, así como que genero se destaca más en padecer la enfermedad. De modo, que se logró implementar la adecuación y estadística descriptiva de los datos. Posteriormente se analizarón técnicas de aprendizaje automático. Finalmente pruebas y ajustes al trabajo elaborado.
CONCLUSIONES
Durante la instancia de verano en modalidad virtual, se logro adquirir diversos conocimientos teóricos sobre la problematica presentada que es la enfermedad de diabetes y como poder ayudar a detectar dicha enfermedad utilizando las nuevas tecnologías. De modo que, se realizaron practicas con las técnicas de análisis de datos, obteniendo conocimientos para la mejora de dicho proyecto. Se esperan buenos resultados en modelos de análisis de datos en Python.
López Grande Jehiel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
IMPLEMENTACIóN EFICIENTE DE ALGORITMOS PARA EL ALINEAMIENTO MúLTIPLE DE SECUENCIAS DE ADN Y PROTEíNAS
IMPLEMENTACIóN EFICIENTE DE ALGORITMOS PARA EL ALINEAMIENTO MúLTIPLE DE SECUENCIAS DE ADN Y PROTEíNAS
Castaño Martínez Maria Camila, Universidad Tecnológica de Pereira. López Grande Jehiel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ulises Olivares Pinto, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El Análisis de secuencias de ADN y proteínas permite conocer la estructura molecular de los seres vivos, es por esto que, en el contexto actual resulta relevante el estudio de similitudes entre secuencias de distintos organismos, este conocimiento tiene importantes aplicaciones, incluyendo estimación de árboles filogenéticos.
La comparación entre secuencias de proteínas consiste en reconocer qué partes de estas secuencias son similares y cuáles distintas, el método más común para conseguir este reconocimiento consiste en la subdivisión de las cadenas a comparar en pequeñas subsecuencias, insertando espacios en blanco en una y otra, de tal manera en que las subsecuencias similares se encuentren exactamente en las mismas posiciones en ambas secuencias a este proceso se le conoce como alineamiento por pares, cuando se comparan más de dos secuencias se conoce como alineamiento múltiple.
Este último proceso constituye un reto debido a la complejidad computacional que conlleva, esto provoca que muchas veces el proceso de alinear múltiples secuencias con una longitud biológicamente relevante tome un gran tiempo de ejecución.
Este proyecto tiene como objetivo la implementación de un algoritmo que produzca alineamientos múltiples de secuencias con tiempos de ejecución reducidos.
METODOLOGÍA
Antes de haber comenzado con la estancia, el asesor le envió a los estudiantes un curso de 5 semanas (Coursera) sobre Bioinformática básica para que pudieran tener un acercamiento al tema principal de la investigación (Finding Hidden Messages in DNA (Bioinformatics I)) sobre como poder leer y entender el significado de las secuencias de ADN, implementar conocimientos y problemas de biología básica a la programación, y aprender a realizar algoritmos que puedan encontrar ciertas diferencias entre diferentes especies a partir de su genética.
Luego de haber completado el curso, se discutieron los conocimientos para poder seguir adelante con la estancia; uno de los principales artículos, que fue con el cual se basaron los estudiantes para la implementación principal fue MUSCLE: multiple sequence alignment with high accuracy and high throughput; con este documento, los estudiantes pudieron planear un paso a paso de lo que sería el programa principal para trabajar.
La planeación del paso a paso de esta programación se basó en el documento anteriormente mencionado, obteniendo lo siguiente:
Utilización de C + + como lenguaje para la realización del programa.
Cálculo de matriz de distancia a partir de distancia de k-meros por pares.
Comprobación y optimización de etapa de distancia de k-meros.
Estudio del método UPGMA.
Implementación del método UPGMA para agrupar la matriz de distancias produciendo un árbol filogenético.
Múltiples iteraciones con el método UPGMA.
Implementación del alineamiento progresivo siguiendo el orden de ramificación del árbol producido por UPGMA en la espata anterior.
Debe tenerse en cuenta que para este algoritmo se introdujeron distintos sets de datos con longitud y número de secuencias variables, descritos a continuación.
100 secuencias con longitud promedio de 647
500 secuencias con longitud promedio de 677
1000 secuencias con longitud promedio de 644
2000 secuencias con longitud promedio de 638
3000 secuencias con longitud promedio de 628
4000 secuencias con longitud promedio de 626
5000 secuencias con longitud promedio de 614
6000 secuencias con longitud promedio de 610
7000 secuencias con longitud promedio de 609
8000 secuencias con longitud promedio de 619
9000 secuencias con longitud promedio de 622
10000 secuencias con longitud promedio de 622
De esta forma fue posible evaluar la eficacia y velocidad de la solución, así como la medición del tiempo de ejecución.
A partir de la primera ejecución del programa, el asesor fue brindando a los estudiantes ciertas correcciones para la obtención de resultados más exactos.
CONCLUSIONES
Durante y fuera de la estancia de investigación se adquirieron conocimientos teóricos en dos campos principales: biología, genética molecular, biotecnología y programación. Así como el uso e implementación de algoritmos para poder ponerlos en práctica a la hora de la realizar un programa especializado para el alineamiento múltiple de secuencias de ADN. Además, se implementó el método conocido como UPGMA (Unweighted Pair Group Method using Arithmetic averages) y así poder obtener un árbol filogenético que permita encontrar las similitudes y diferencias entre ciertas especies, en este caso con las plantas Brassica Rapa subespecie Oleifera, Rhizoctonia solani, Colletotrichum capsici, Liriomyza sativae isolate, entre otras; sin embargo, al tener un inconveniente con el tiempo y la extensión del trabajo, no se pudo completar la parte de la inclusión de programación paralela que permitiría la ejecución de múltiples instrucciones en una unidad de tiempo, por este motivo, se cubrió parcialmente con la entrega de resultados globales. Se espera obtener más adelante la comparación del tiempo en segundos entre la implementación inicial y la inclusión de programación paralela con aplicación en bioinformática.
López Hernández Jacqueline, Instituto Tecnológico de Pachuca
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
Avila Sánchez Bryan Alberto, Instituto Tecnológico de Pachuca. Cruz Vargas Ivonne, Instituto Tecnológico de Pachuca. López Hernández Jacqueline, Instituto Tecnológico de Pachuca. Mera Campa Ammy Diana, Instituto Tecnológico de Pachuca. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
UUMBAL Agroforestal, es una empresa dedicada al establecimiento, manejo y aprovechamiento de plantaciones forestales de pino de manera sustentable. Debido a que en la empresa se presenta un desconocimiento de los diferentes indicadores de productividad, eficiencia y económicos dentro de la empresa, se detectan áreas de oportunidad en el área forestal específicamente en el proceso de producción de resina natural de pinos tropicales.
Del antecedente anterior, cabe señalar que debido a la falta de implementación de una metodología balanced scorecard, la empresa carece de un método de trabajo adecuado. Su propósito es medir la eficiencia operativa de la empresa, debido a que se han suscitado riesgos de calidad al no cumplir con las especificaciones de material y del proceso de producción del producto.
Finalmente, se logra evidenciar, que estos problemas en el proceso de operación y producción de la producción de resina, provoca cambios y pausas debido a razones inherentes al proceso.
METODOLOGÍA
La empresa UUMBAL agroforestal cuenta con cuatro fincas; Los pericos, Santa Elena, Chicoapilla y La piedra, de plantación de pino tropical para el proceso de obtención de resina, se analizó que por cada hectárea que poseen las fincas se cuenta con aproximadamente 1100 árboles con una distancia de 3 metros entre cada uno.
A partir de los datos obtenidos se definió que el proceso de producción de resina inicia después de 6 a 7 años de haber plantado el árbol, se procede con el retiro de la corteza hasta encontrar la albura de una de las caras del pino tropical para posteriormente realizar el bigote en donde se coloca la bolsa que capta la resina.
Una vez preparado el árbol se comienza a realizar el proceso de estriado que consiste en realizar una estría cada semana durante 6 u 8 semana, posteriormente se aplica una pasta estimulante en cada estría hasta a completar 7 estrías con un total de 630 gr de resina aproximadamente.
De acuerdo con la información adquirida se elaboró un Balance Scorecard el cual consiste en definir un sistema de gestión que proporciona retroalimentación sobre los procesos comerciales internos y los resultados externos con el fin de mejorar continuamente el desempeño y los resultados estratégicos.
CONCLUSIONES
De acuerdo al análisis y observación que se realizó durante la estancia de verano en el programa Delfín, se lograron adquirir conocimientos teóricos y posteriormente ponerlos en práctica, así como aplicar conceptos relacionados con productividad, eficiencia, a través del desarrollo de un Balance scorecard en el que fue posible identificar las áreas de oportunidad dentro de la empresa y así poder cumplir los objetivos orientados a la misión y visión de la empresa para garantizar una sincronización estratégica dentro de la misma.
Lopez Mercado Mayrim, Instituto Tecnológico de Tepic
Asesor:Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California
ANáLISIS DE LA MARCHA EN TRES DIMENSIONES EN MATLAB.
ANáLISIS DE LA MARCHA EN TRES DIMENSIONES EN MATLAB.
Lopez Mercado Mayrim, Instituto Tecnológico de Tepic. Asesor: Dra. Mirvana Elizabeth González Macias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La marcha humana es una actividad básica del ser humano; se podría afirmar que es una de las actividades físicas básicas más realizada durante la vida; con base a este hecho; se fortalece la idea de analizar los parámetros espaciotemporales de la marcha y cambios en la alineación articular de los miembros inferiores (cinemática). A pesar de que algunos autores sugieren que la debilidad muscular es uno de los factores que contribuye al mal desarrollo de la marcha infantil (Horsak et al., 2019).
En la actualidad se realizan estudios para el análisis de patrones de movimiento, que permiten obtener información relevante de posibles factores que modifiquen la marcha en los humanos, principalmente en los infantes.
En el siguiente estudio se analizan las variables espaciotemporales y cinemáticas de la marcha humana, utilizando un sistema de captura de movimiento 3D con el fin de identificar los cambios posturales en la marcha en infantes que realizan actividad física, con el objetivo de caracterizar y analizar biomecanicamente las variables de interés y las posibles alteraciones que modifican la marcha, mediante el software Matlab.
METODOLOGÍA
La investigación realizada tuvo un enfoque cuantitativo de los parámetros espaciotemporales (longitud de zancada, velocidad, longitud de paso y cadencia de pasos) y cinemáticos (ángulo de cadera, ángulo de rodilla y ángulo de tobillo).La evaluación biomecánica de la marcha se realizó en el Laboratorio de biomecánica y ergonomía en la Facultad de Deportes, campus Mexicali, de la Universidad Autónoma de Baja California; el cual cuenta con un sistema de captura de movimiento VICON, está conformado con 11 cámaras infrarrojas Bonita 10b, 2 cámaras de video Bonita 720c de alta velocidad, el modelo Plug in Gait utilizando 39 marcadores reflectantes. Para el registro de las fuerzas de reacción del suelo se han utilizado cuatro plataformas de fuerzas AMTI, la base datos fueron proporcionada por la Dra. Mirvana González responsable de la investigación.
Para la comprensión y análisis de cada una de las variables a estudiar en la investigación se utilizó el software Motion Kinematic & Kinetic analyzer (Mokka), el cual permitió una visualización 3D de la marcha, construyendo el esqueleto por los marcadores posicionados en puntos estratégicos de cuerpo del sujeto de estudio, así como la identificación de la posición de algunos marcadores con referencia al SubFrame.
Para el análisis biomecánico de los datos proporcionados de los marcadores orientados en los ejes X, Y, Z, utilizando la herramienta Microsoft Excel se generó un archivo con diferentes hojas para cada una de las siguientes variables: La longitud de zancada para ambas piernas, longitud de pasos, velocidad, cadencia de pasos, rodillas, cadera y tobillos; en cada uno de ellas se generaron las gráficas del ciclo de la marcha, obteniendo los resultados en la fases y subfases presentes en el ciclo de la marcha. En el caso de las zancadas se obtuvieron los valores en metros de cada una de las zancadas (fórmula de A.Winter) y pasos en ambas piernas así como sus determinados promedios; en velocidad se obtuvieron las velocidad en los SubFrame donde existieron movimiento, la velocidad promedio, la velocidad de cada una de las extremidades y la cadencia de paso por minuto.
Para el ángulo de rodillas y tobillos se graficaron los datos necesarios y se obtuvieron sus respectivas tablas con los datos de flexión y extensión en las fases de Balanceo o de Apoyo en ambas piernas. En cambio, para el ángulo cadera solamente se obtuvieron los valores de flexión y extensión. Los valores obtenidos fueron para el mismo número de zancadas.
Con los datos analizados en la plantilla de Excel, se realizo una interfaz en el software de Matlab la cual determina cada uno de los parámetros espaciotemporales y cinemáticos, vinculando una plantilla de Excel con la interfaz, obteniendo el análisis biomecánico de cada una de las variables, así como su gráfica. Con dicha herramienta el usuario de una forma más fácil e interactiva podrá interpretar los resultados obtenidos en cada una de las variables de interés.
CONCLUSIONES
En la actualidad por las circunstancias que se viven y se han vivido en los últimos 10 años se han identificado diferentes alteraciones en la marcha en niños, provocando cambios posturales, eliminando aquellas circunstancias de nacimiento, la falta del deporte o actividad física a una temprana edad a creado que los niños sean sedentarios y propensos a la obesidad haciendo que su marcha sea diferente a la de un niño de su edad, con una vida activa y saludable.
López Moreno Jacqueline, Instituto Tecnológico de La Piedad
Asesor:Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
ACCESIBILIDAD E INCLUSIóN: CONCEPTOS PARA REPENSAR LA CONFIGURACIóN DEL ESPACIO PúBLICO EN MéXICO Y COLOMBIA
ACCESIBILIDAD E INCLUSIóN: CONCEPTOS PARA REPENSAR LA CONFIGURACIóN DEL ESPACIO PúBLICO EN MéXICO Y COLOMBIA
López Moreno Jacqueline, Instituto Tecnológico de La Piedad. Sanabria Mahecha Gabriel, Institución Universitaria Politécnico Grancolombiano. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
Los espacios públicos son un factor que influyen en el día a día de las personas. Es por ello que se deben aprovechar los avances tecnológicos para que los ciudadanos puedan disfrutar de los espacios en las zonas en las que residen, teniendo las mismas facilidades de accesibilidad en los espacios y puedan desempeñarse fácilmente.
Objetivo: Realizar un análisis comparativo del diagnóstico de las condiciones de accesibilidad e inclusión en una zona pública y urbana de las ciudades de Bogotá D.C., Colombia y La Piedad de Cavadas, Michoacán, México.
METODOLOGÍA
a) Diseño de la investigación: El trabajo de investigación consistió en el análisis de la accesibilidad en zonas públicas y mercados de cada país, teniendo en cuenta la universalidad de las personas, siendo un estudio no experimental, seccional, presentándose resultados de forma descriptiva y explicativa con un enfoque cuantitativo; con la delimitación previas de las zonas de estudio en México y Colombia
Este análisis se realizó a través de una lista de cotejo conformado por tres categorías: diseño centrado en el usuario, Tecnología de apoyo y Operativos. En la categoría uno, diseño centrado en el usuario, se desglosan los apartados: cruces peatonales, señalética, rampas, acceso en puertas, pasillos, baños, banquetas y estacionamientos. La categoría dos, tecnología de apoyo cuenta con dos secciones: semáforos y teléfonos públicos. Por último, la categoría tres, donde se consideran los aspectos operativos; está integrada por las secciones: pisos, instalaciones, obstáculos, personal capacitado y barandales.
Se realizó la validación del instrumento previo a su implementación y se llevó a cabo el levantamiento de condición realizándose las mediciones correspondientes y acopio de evidencias para realizar posteriormente el análisis comparativo.
b) Sitio del estudio: El análisis se llevó a cabo en la localidad de Kennedy, Bogotá D.C., Colombia y el centro de La Piedad de Cavadas, Michoacán, México; estudiándose las zonas céntricas de cada país y dos mercados municipales.
c) Unidades de estudio: Se analizaron las zonas de estudio para corroborar si estas cumplían con las condiciones de accesibilidad e inclusión delimitadas por la lista de cotejo previamente desarrollada, ya que no todas las personas podrían circular libremente debido a alguna discapacidad física o por las condiciones de la infraestructura. Por ello, se consideró necesario investigar y analizar si aquellas personas pueden ingresar o simplemente acudir a un lugar de una forma autónoma y sin riesgo alguno.
d) Intervenciones: Para los anexos fue necesario contar con mapas y planos para ubicar la zona. En el caso de los espacios públicos fue necesario usar Google Maps para poder generar el mapa de la ubicación. En el caso de los mercados, se solicitaron a los encargados una copia de los planos. Para el levantamiento de campo fue necesario realizar mediciones y tomar fotografías para tener evidencia del estudio y determinar si se cumplía o no con las condiciones de accesibilidad e inclusión definidas previamente en el instrumento diseñado.
CONCLUSIONES
Conclusión:
Con base al análisis de las zonas y al levantamiento de requerimientos para la inclusión y accesibilidad de las personas; se identificaron varias necesidades comunes en las zonas urbanas tales como lo son las señalizaciones, los cruces peatonales deben estar bien pintados, las banquetas no estar cuarteadas o con desniveles y permitir que dos personas puedan pasar por ellas a la vez, espacios públicos, accesos a puertas sin obstáculos en ellas, baños especiales para discapacitados, pisos secos y limpios, entre otras que deben ser cubiertas con mayor atención.
De acuerdo con los resultados obtenidos de la investigación, hay varias deficiencias en cuanto a la accesibilidad de los espacios públicos, los cuales terminan resultando un obstáculo para el desarrollo y bienestar de las personas que son las directamente afectadas. El problema va más allá de la infraestructura, pues los vendedores ambulantes al trabajar en espacios públicos también requieren que se les colabore y no simplemente se les retire de aquellos lugares.
Es necesario generar un ambiente de concientización en torno a la importancia de garantizar que cada ciudadano pueda movilizarse autónomamente en espacios urbanos. Por lo anterior, uno de los primeros pasos hacia la accesibilidad e inclusión puede ser campañas de concientización, con el fin de dar a conocer las verdaderas necesidades de todos los habitantes.
Lopez Ortiz Silvia Lizbeth, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
Álvarez Campos Jesús Alberto, Universidad de Guadalajara. Lopez Ortiz Silvia Lizbeth, Tecnológico de Estudios Superiores de Valle de Bravo. Santillán Rentería Jorge Antonio, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El aprovechamiento de la energía undimotriz para generación eléctrica ha pasado desapercibida hasta hace pocos años debido a su complejo desarrollo y a sus elevados costos. En un mundo donde el grueso de las energías renovables más rentables y eficientes hoy día lo componen, eólica, solar e hidroeléctrica. (Hurtado, 2016). En Colombia la energía undimotriz es poco conocida y desarrollada, además ha sido poco investigada desconociendo el gran potencial energético que poseen las olas, sumado a la gran extensión de costas que posee el país. Para cumplir con el objetivo, se requiere conocer el potencial energético que poseen las olas, y esto fue posible con la aplicación de ecuaciones consultadas, las cuales tienen en cuenta variables como: altura de la ola, período de las olas, densidad del agua de mar, temperatura y velocidad del viento en la zona. (Zapata, 2017). Es por eso que surge la preocupación de crear tecnologías para el desarrollo sostenible, y que no represente un factor más que contribuya a los grandes problemas ambientales que hoy por hoy presenta el planeta.
METODOLOGÍA
Se tomó como base la Teoría de Oleaje Lineal.
Leyes de Euler.
Transformada de Laplace.
Se hizo un bosquejo del generador central.
Calculamos masa, peso entre otras cosas con el Principio de Arquímides.
Se utilizo software para hacer simulaciones en tiempo real tales como:
SolidWorks
Geogebra
Matlab
C++
Se hicieron algunas graficas tomando como base los datos obtenidos de las aplicaciones Nautitude y Windy.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la energía undimotriz y con base en se aprendió a calcular el potencial eléctrico que el generador absorbe sobre las olas, al igual conocimiento sobre otras aplicaciones como Nautitude, Windy, Matlab, Geogebra etc; estos para entender el comportamiento de los flotadores. Al ser una energía poco conocida aún se encuentra en investigación y sólo podemos calcular algunos datos. Para el sistema mecánico dinámico de los flotadores, se tomó en cuenta la suma de todas las fuerzas a las que está sometido el sistema, como por ejemplo; las fuerzas de empuje, fricción, inercia y del resorte. Cada una de esas fuerzas intereactúa de tal manera que se describe un modelado matemático parecido a la función de transferencia con la transformada de Laplace. Se representan las fuerzas como señales de entrada y de salida según el movimiento de las olas que dirige el movimiento del flotador.
Se espera crear una granja de mecanismos y un mecanismo debería ser capaz de alimentar un hogar.
Lopez Reyes Jair, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango
INTRODUCCIóN A LA EDUCACIóN FINANCIERA.
INTRODUCCIóN A LA EDUCACIóN FINANCIERA.
Lopez Reyes Jair, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Si bien la educación financiera es fundamental en la vida de cualquier persona, la realidad es que es un área que, por lo general, no se estudia en los colegios ni en las universidades, a menos de que sea en carreras que estén relacionadas con el tema. La falta de educación financiera afecta a las personas de todas las edades y todos los niveles socioeconómicos y puede conducir a malas decisiones financieras que tienen consecuencias negativas en el bienestar general de una persona y su hogar.
Las personas deben estar conscientes de la importancia de su formación en relación con la administración responsable del dinero, de los factores que pueden afectar sus decisiones y de las consecuencias para su bienestar. Las personas que no se educan financieramente generalmente no tienen buenos hábitos de consumo y ahorro, por lo que no cuentan con montos de dinero que sirvan para situaciones de emergencia.
Desde 2010 a la fecha un mayor número de individuos recurre al sector financiero informal. La gente desconoce las fuentes tradicionales de crédito con condiciones más favorables y terminan pagando productos y servicios financieros con altas tasas de interés.
METODOLOGÍA
Se exponen diferentes definiciones de educación financiera, representando el hilo conductor de esta investigación. Asimismo, se muestra su importancia desde el punto de vista de diversos autores, mostrando sus características con el propósito de diferenciarla de la cultura financiera.
Según la secretaria de Hacienda y Crédito Público, la educación financiera es el proceso que permite la adquisición de conocimientos, habilidades y capacidades, facilitando la toma de decisiones en la administración de recursos económicos, a través de juicios con información adecuada de productos y servicios financieros que permitan mantener las finanzas sanas y ayuden a cumplir metas de vida.
La Educación Financiera como es conocida actualmente refleja el resultado de una serie de estudios realizados por expertos en el área de las finanzas, sin embargo, a lo largo del tiempo han existido teorías económicas, las cuales pueden ser consideradas como la base de un estudio de finanzas personales que convergen en los conceptos que hoy se estudian dentro del ámbito de la educación financiera.
La educación financiera permite mantener un equilibrio en las finanzas personales, al conocer cómo operan ciertos productos y servicios financieros y hacer uso de ellos. Esto, además, favorece el logro de las metas y mejora la calidad de vida a través de la administración eficiente del dinero, de un consumo adecuado, ahorro e inversión inteligente y responsable, y de un balance entre los ingresos y los gastos de las personas. Se establece que la educación financiera mejora las condiciones de vida al tener las herramientas e información pertinentes para tomar decisiones respecto a la administración de recursos.
De modo que las personas con mayores niveles de educación financiera tienden a ahorrar más, y como con más ahorro. más dinero para invertir y crecer, se mejora el desempeño de las instituciones financieras al tener clientes más responsables et informados que demanden productos y servicios adecuados a sus necesidades y propósitos de modo que las instituciones financieras tengan que ofertar más y mejores productos y servicios a menores costos y en lugares remotos, habiendo así mayor competitividad e innovación en el sistema financiero.
México tiene uno de los porcentajes más bajos de acceso a servicios financieros, se estima que el 30% de la población nacional está bancarizada, aunque en zonas rurales, este porcentaje es tan solo del 6%. Más de la tercera parte de la población mexicana son jóvenes entre 12 y 29 años, para los cuales, la educación financiera no presenta un aspecto relevante a considerar, ya que el buscar un bienestar económico para el presente y el futuro es algo desconocido; cualquier cantidad de dinero que llegue a sus manos, se convierte en la mejor forma de satisfacer sus necesidades inmediatas. Una gran parte de la población mexicana no cuenta con acceso a los servicios financieros. La mayoría de esta población se localiza en municipios rurales y semi urbanos con menos de 50,000 habitantes, caracterizados por un panorama económico y demográfico incierto. Los grupos financieros concentran su oferta de servicios en el segmento de la población con un ingreso medio y alto, fundamentalmente a través de las instituciones bancarias; a pesar de que los segmentos de ingreso bajo no atendidos están dispuestos a pagar por productos y servicios que satisfagan sus necesidades.
CONCLUSIONES
De acuerdo con lo expuesto en esta investigación se logró adquirir conocimientos sobre la importancia de la educación financiera, así como conocer sobre educación financiera. La educación financiera nos permite entender cómo funciona el dinero en el mundo. De esta manera, se aprende a obtener, administrar e invertir el propio capital. Una persona que domine la educación financiera puede tomar decisiones informadas sobre su economía y es menos propensa a caer en deudas o problemas económicos.
Por eso es fundamental promover una cultura de educación financiera en todos los niveles de enseñanza, al mismo tiempo contar con docentes capacitados que impartan campañas más interesantes dirigidas a niños, adolescentes y familias, sobre todo, en zonas de bajos recursos.
Entonces, no solo basta con saber qué es educación financiera, sino implementarlo. Así se podrá incentivar el ahorro, la inversión en activos financieros, animar a las personas y empresas a realizar presupuestos (adquirir créditos responsablemente, prepararse frente a los riesgos financieros, etc.). Finalmente, se espera que la educación financiera promueva cambios en el comportamiento de la población, logrando que los consumidores actúen con más confianza y responsabilidad en beneficio de su propio bienestar.
López Robledo Isaac, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
CóMPUTO EDUCATIVO
CóMPUTO EDUCATIVO
López Robledo Isaac, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Al comenzar el verano iniciamos con algunas metas para poder realizar en el transcurso de la estancia. Los cuales fueron las siguientes
Realizar una investigación sobre el estado del conocimiento relacionado con Laboratorios Maker a nivel internacional.
Elaborar un artículo de la revisión de la literatura sobre los laboratorios maker para formación de ingenieros en México
Apoyar al grupo ANUIES TIC TE en la primera fase del proyecto Índice de Madurez Digital de las IES Mexicanas.
METODOLOGÍA
Como resultados se tiene lo siguiente:
Teniendo las diferentes metas ya definidas es así como comenzamos a trabajar en cada una de las actividades, iniciando con una búsqueda detallada sobre laboratorios de Maker a nivel internacional, así mismo nos da un panorama sobre las diferentes características en las cuales pueden ayudar en las áreas de ingeniería, la información como tal está más relacionada en los países europeos por lo que era poca información en las que era aplicada en lo internacional.
Al proseguir con las metas pasamos a lo que es a una búsqueda de una revista de acto impacto para que así mismo lográramos subir el artículo que se selecciono con nuestra investigadora.
Y por ultimo con el artículo seleccionado y con la información detallada se concluyó con la elaboración del artículo y las referencias consultadas en formato Apa.
CONCLUSIONES
Los resultados esperados fueron satisfactorios en los cuales se lograron las metas y así mismo se tuvo un gran aprendizaje para la realización de las mismas, por eso que con el paso de los días que fue la estancia se da la oportunidad de poder conocer nuevos temas en los cuales uno no tiene conocimiento, por la pandemia se pierde un poco la interacción más profunda para más búsqueda de información, es así que la distancia no es un impedimento para aprender ni para demostrar el potencial para realizar lo que nos propongamos.
Lopez Rodriguez Destiny Priscila, Instituto Tecnológico de Matamoros
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
Canchola Vega María del Carmen, Instituto Tecnológico de Matamoros. Lopez Rodriguez Destiny Priscila, Instituto Tecnológico de Matamoros. Resendez Martínez America Daniela, Instituto Tecnológico de Matamoros. Valenzuela Rodríguez Andrea Guadalupe, Instituto Tecnológico de Matamoros. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La industria maquiladora en la zona fronteriza del norte de México ha representado un eslabón importante en la economía de esta área desde los años ochenta y noventa. El efecto de esta actividad sobre el medio ambiente ha sido poco estudiado sin embargo se ha observado más contaminación por hidrocarburos en suelos debido a la maquila. Así, este trabajo permitirá mostrar que la fitorremediación puede lograr grandes cambios, ya que al ser esta una tecnología de diversos compuestos de procesos bioquímicos por medio de plantas y microorganismos tenemos la oportunidad de demostrar como la planta Helianthus Annuus L., puede hacer un cambio en el sitio, así como las diferentes herramientas para eliminar los hidrocarburos.
METODOLOGÍA
Para la observación del crecimiento de Helianthus Annuus L. (girasol) en suelo contaminado, se empezó por pesar 100g de suelo, en los cuales se sembraron dos semillas por maceta para elevar la probabilidad de germinación correcta. Posteriormente, se contaminó la tierra con aceite quemado de acuerdo a diferentes porcentajes de acuerdo a la NOM-138-SEMARNAT/SS-2003. Por lo tanto, se hicieron 5 muestras teniendo, 0% de contaminante, 2%, 3%, 4%, y 5% respectivamente.
Se utilizaron diferentes parámetros para medir el crecimiento de la planta. Estos fueron: porcentaje de humedad, pH, y densidad relativa del suelo.
CONCLUSIONES
Se llegó a la conclusión de que la Helianthus annuus L. es una buena opción para la fitorremediación de suelos contaminados por aceites, ya que entre más porcentaje de contaminación hubo un crecimiento más notorio. Esto, como mencionamos anteriormente, puede ser de mucha ayuda para la remediación de suelos contaminados en la zona fronteriza. Asimismo, a pesar de las inclemencias del clima, la planta que se utilizó fue muy resiliente ante los cambios de temperatura, lo cual lo hace un proyecto más viable a manera futura.
López Román Fernando, Universidad Autónoma de Occidente
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
ROBOTICA EDUCATIVA
ROBOTICA EDUCATIVA
López Román Fernando, Universidad Autónoma de Occidente. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Para este Verano Científico se realizo un proyecto donde combinamos la programación, la robótica, la educación y el reciclado, así nació el proyecto robótica educativa.
Se uso material reciclado para la elaboración de los proyectos. Por otro lado, se dejo preparada la aplicación de los proyectos a niveles educativos diferentes a través de secuencias didácticas que se desarrollaron, esto para fomentar la robótica entre los jóvenes y al mismo tiempo se adquieren conocimientos de otras materias.
Estamos seguros que la investigación cumple un rol muy importante en el desarrollo de proyectos profesionales, por lo que se necesita que los jóvenes empiecen a generar proyectos desde edades tempranas.
METODOLOGÍA
En el proyecto de robótica educativa fue posible aprender a reciclar, armar robots y aplicarlos al área educativa.
A lo largo de la duración del verano científico se logró satisfactoriamente el desarrollo de varios proyectos, se trabajo en equipo para conocer y compartir conocimientos.
Dentro de los proyectos se hizo una Prótesis de mano como herramienta en la robótica educativa, en el cual se habla de cómo este robot, elaborado con materiales reciclados puede ayudarnos en la enseñanza de una materia escolar de nivel medio superior como lo puede ser la de Anatomía, y logrando la obtención de conocimientos por parte del alumno, tanto de esta materia como de robótica.
Como segundo proyecto se elaboró una simulación en TinkerCad a raíz de un taller de la misma plataforma que se nos brindó por parte de nuestros asesores. Este proyecto fue libre y se presentó en clase de igual manera que el resto de los proyectos. El tercer proyecto consistió en el Control de giro de motores, utilizando los materiales que pudimos conseguir en casa, reciclados y de fácil acceso económico; el cuarto proyecto, fue consecuente a este, ya que se basó en la aplicación de este robot dentro de la robótica educativa mediante la creación formal de una secuencia didáctica que pudiera ser aplicada fácil y satisfactoriamente.
CONCLUSIONES
Como resultado de este proyecto, se logró la creación de distintos robots a partir de material reciclado, la documentación de estos y secuencias didácticas que permiten o faciliten el desarrollo de estos robots dentro de la robótica educativa a distintos niveles escolares. Se tuvo como contexto el de la robótica educativa y los pasos para su correcta aplicación dentro de la educación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar; así como también el cuidado al medio ambiente, y la investigación.
Fue muy significativo este verano ya que pudimos ver que la robótica y la programación tienen un sentido mas que solo hacer un robot o un programa.
Lopez Rubio Adrián Jassiel, Universidad de Sonora
Asesor:Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
COMPARATIVA DE LOS MéTODOS DE DISEñO DE PAVIMENTOS IMT-PAVE Y DISPAV-5 UTILIZADOS EN EL DISEñO DE UNA VIALIDAD A BASE RAP.
COMPARATIVA DE LOS MéTODOS DE DISEñO DE PAVIMENTOS IMT-PAVE Y DISPAV-5 UTILIZADOS EN EL DISEñO DE UNA VIALIDAD A BASE RAP.
Lopez Rubio Adrián Jassiel, Universidad de Sonora. Asesor: Dr. Jesús Murillón Duarte, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
En la actualidad la rama de la ingeniería civil destinada al diseño de pavimentos a tenido grandes avances tecnológicos, esta rama es una de las más importantes de México, debido a que las carreteras es una de las principales vías de comunicación ya que en ellas se desplazan la mayoría productos y mercancías que llegan a los diferentes estados de la república, así, de igual manera son importantes las vialidades de cada ciudad por lo que tener un diseño es importante. En México se han desarrollado métodos para obtener los diseños de pavimentos flexibles que se adapten y funcionen de la mejor manera en base a las necesidades del proyecto, los métodos más utilizados son el IMT-PAVE y DISPAV-5.
El IMT-PAVE es un software diseñado por el instituto mexicano del transporte (IMT) en coordinación con la secretaria de comunicación y transporte (SCT), mientras que el DISPAVE-5 es un programa interactivo creado por la por el instituto de ingeniería, UNAM patrocinado por la SCT, cada uno tiene sus características que los hacen únicos, pero, ¿cuál es mejor?, ¿cuál debo implementar en mi diseño?, ¿cuál es más factible? estas son algunas de las interrogantes importantes que debemos conocer y tener respuesta certera antes de aventurarnos a utilizar cualquier software o método de diseño.
METODOLOGÍA
Este resumen pretende captar y exponer lo mas importante de ambos softwares de diseño de pavimento, para entrar en contexto, es necesario saber que es un pavimento, a grandes rasgos un pavimento esta conformado por un conjunto de capas superpuestas que están diseñadas con materiales que cumplen con la normativa establecida. Los pavimentos se dividen en rígidos y asfalticos.
Pavimentos asfalticos: su característica principal es que su capa final de rodadura esta compuesta de una capa asfáltica. Se considera flexible cuando la capa asfáltica es menor a 15 cm. Cuando su capa es mayor a 15 cm es semiflexible y Semirrígido cuando tiene una base tratada (base cementada o base negra)
Pavimentos rígidos: la capa de rodadura final es de concreto hidráulico, este no cuenta con base o subbase dependiendo de la normativa de la SCT.
La estructura del pavimento:
Terreno natural: es la que se encuentra cuando se hace el desmonte
Capa de filtro: en caso de requerirla, es un mejoramiento al terreno natural a base de roca
Capa subyacente: en esta capa se puede utilizar material de corte y esta se desplanta enseguida de la capa de filtro.
Subrasante: esta es la ultima capa de las terracerías.
Subbase: es la primera capa del pavimento se realiza con material de banco que cumpla las normativas.
Base: esta capa debe de ser con materiales de banco o bien, puede ser con bases tratadas.
Rodadura: es la capa superficial de pavimento esta puede ser asfáltica, hidráulica o de adoquín.
Metodos utilizados:
IMT-PAVE
Es un software o una herramienta que nos proporciona el diseño de pavimentos mediante una metodología empírico-mecanicista, el eje central del IMT-PAVE es identificar y conocer los espectros de carga para hacer una correlación con los espectros de daño y esto se obtiene analizando los esfuerzos y deformaciones principales que se presentan en el pavimento.
Prácticamente las bases principales del software son los espesores de cada capa, las propiedades de los materiales que se utilizan en cada capa que las determinará en gran manera el módulo resiliente y el tránsito vehicular que estará definido por su espectro de distribución. El programa procede a calcular las respuestas estructurales del pavimento, y dichas respuestas se basan tomando en cuenta al pavimento como un sistema multicapa y este se apoya en la teoría de elasticidad, y dichos cálculos tienen como base principal conocer la distribución de esfuerzos, las deformaciones unitarias y las deflexiones.
DISPAV-5
Es un programa interactivo que tiene la capacidad de diseñar carreteras de alto desempeño y carreteras que se consideran de tipo normal, los métodos de calculo son mecanicistas y se fundamento es teórico-experimental, implica que los métodos de diseño que nos plantea están basados en una extensa experimentación realizada a escala tanto en campo como en laboratorio.
El DISPAV-5 considera las dos formas principales de falla:
Un modelo rígido plástico y los criterios de capacidad de carga de Terzaghi para estimar las deformaciones permanentes a largo plazo de las capas del pavimento.
Un modelo elástico para determinar el comportamiento del camino, basado en la falla por agrietamiento, tomando en cuenta la deformación unitaria critica a tensión en esas capas.
Para observar mejor que datos distintos se puede obtener de cada método, se realizaron varios diseños en ambos programas. La vialidad de estudio se realizo en la ciudad de Uruapan, Michoacan, se realizaron aforos visuales y manuales en la vialidad calzada la fuente aproximadamente de 17 días en los horarios que se consideraban con mas aforo vehicular, el aforo realizado pretendia obtener el TDPA o bien el transito mas crítico que nos diera los parametros vehicualares de diseño y estos datos poder introducirlos en ambos programas IMT-PAVE y DISPAVE-5..
Ya con el aforo vehicular, se investigó las caracteristicas de los materiales de cada capa, para poder encontrar el modulo resiliente de cada una de las capas y tomando en cuenta que la capa de base del pavimento se realizará con RAP, con estos datos, se comenzaron a evaluar diferentes diseños enn ambos programas hasta poder encontra un diseño optimo en cada herramienta y poder comparar los espesores de las capas que nos arroja cada uno y analizar cuales espesores podemos elegir para nuestro diseño.
CONCLUSIONES
Analizando la información de cada método y viendo sus fundamentos principales podemos observar que cuentan con ciertas similitudes, pero de igual manera tienen características que los hacen únicos, pero podemos ver que ambos cuentan con instituciones que los avalan y que sus fundamentos teóricos están bien respaldados, por lo tanto la elección de utilizar uno u otro depende únicamente del usuario y de la cantidad de información de proyecto con la que contemos, pero lo que es seguro que el resultado obtenido es fiable, en base al diseño podemos realizar un análisis de costos para ver que opción nos conviene mejor económicamente.
López Sánchez Saira Anel, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
Davila Contreras Eduardo, Tecnológico de Estudios Superiores de Jocotitlán. López Sánchez Saira Anel, Tecnológico de Estudios Superiores de Jocotitlán. Martínez Hernández Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Mateo Mateo Amairani, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Se ha diagnosticado que la ambigua manera de operar para la obtención de resina del pino por parte del trabajador (Resinero) es muy tardado, asociado con el rendimiento promedio de trabajo del mismo, ya que suele pasar por distintas fases antes de su obtención, lo primero que se realiza es la preparación del pino, en este punto se procede al accionamiento de manera manual, ejecutando el alisamiento y desprendimiento de la corteza más fina del pino con un rayador, y con ayuda de un estriador practicar las incisiones que originan en este caso el exudado de resina, por ende se pretende con la implementación de un diseño de herramental ergonómico, reducir tiempo de demora y facilitar el mayor flujo de obtención de resina, aumentando gradualmente la productividad, y eficiencia de la empresa respecto a la obtención de su materia prima, consiguiendo hasta un índice del 30% de efectividad comparado con el método tradicional, lo que permitirá consigo la obtención de resina pura y fina, sin residuos sólidos que alteren su composición original, permitiendo que la incorporación de herramental automatizada sea favorable al proceso de obtención de resina garantizando seguridad en el proceso.
El fin de estudiar esta área de oportunidad que se ha observado en la empresa UUMBAL Agroforestal. Ubicada en la región Sur de Veracruz, es optimizar el proceso de recolección de resina con la ayuda de herramientas automatizadas con el fin de mejorar la productividad y el rendimiento empresarial.
Con la ayuda del software SolidWorks, será posible la creación del prototipo específicamente de un estriador y rayador, ya que son las herramientas principales que hacen posible la obtención de resina, cumpliendo del mismo modo con las especificaciones, tolerancias, diámetros, longitud y profundidad de corte según lo establecido como protocolo de operacionalidad, así como el requerimiento general de los materiales que componen al prototipo, evaluando las técnicas de instrucciones realizadas como mecanismo inherente al proceso.
METODOLOGÍA
Según su finalidad, dicho proyecto de investigación se clasifica como una investigación aplicada, debido a que aborda un problema de la vida real, y pretende dar respuesta a las diferentes áreas de oportunidad, dicho lo anterior se llevara a cabo una serie de pasos sistematizados con el fin de cumplir con los objetivos establecidos al inicio. Por ende, se plasmarán los pasos que se llevaron a cabo para la ejecución de dicho diseño de prototipo de herramental.
Se realizó bajo un modelo de seis etapas para el diagnóstico y diseño principal del herramental específicamente de un estriador y rayador. A continuación, se describe cada etapa de la metodología.
1.- Conocer la Empresa UMMBAL Agroforestal
Primeramente, como punto importante se debe identificar el proceso productivo de recolección de resina para así tener la descripción del uso del herramental que utilizan los colaboradores y todo lo que aborda el proceso generando un conocimiento más amplio abordando tanto debidamente los tiempos para la productividad de la resina.
2.- Análisis de los procesos productivos de herramental
Inspeccionar cada componente individualmente del herramental para la recolección de resina y cómo interactúan para producir resultados para ver cómo se genera el rendimiento en cuanto al tiempo de la recolección de este para así conocer la capacidad del proceso y ver que beneficio se está generando a la productividad en cuanto a su uso.
3.- Diseño de herramental ergonómico
Obtener datos nominales en cuanto al herramental utilizado, mediciones de las operaciones realizadas para poder diseñar el bosquejo del herramental ergonómico tomando como puntos clave, desempeñar con eficacia la función que se pretende de ella, proporcionar las dimensiones del usuario y de la herramienta y por último reducir la fatiga y lesiones del colaborador.
4.- Implementación de diseño de prototipo
Se podrá implementar el uso del prototipo con mejoras, dentro de la empresa UMMBAL Agroforestal, específicamente de un estriador y un rayador, que cumpla con las especificaciones de corte, profundidad y longitud, así como la operación de cosecha, evaluando la funcionalidad y aprovechamiento para valorar su exitosa aplicación
5. Caracterización del diseño de herramental
Se realiza un diagnostico general de los tiempos requeridos para cada operación además de evaluar y analizar minuciosamente el rendimiento total y la productividad, así como el nivel de fatiga del operador y/o resinero.
6. Análisis de mejora
Se realiza una evaluación de resultados de beneficios obtenidos tras las mejoras aplicadas, así como una comparación de las herramientas tradicionales ocupadas actualmente por la empresa y las que se añadieron como mejora, proyectando resultados de uso y componentes del herramental establecido para las operaciones de estriado y rayado.
CONCLUSIONES
Durante este periodo de investigación se tuvo la oportunidad de poder colaborar en la realización del herramental para la extracción de resina en el Agroforestal UUMBAL Veracruz. El proceso de elaboración de este trabajo fue sumamente interesante ya que se dio a conocer todo el proceso acerca de la extracción de resina. Se observó que los colaboradores estaban expuestos a sufrir de fatiga a través de su jornada laboral debido al desgaste físico que los herramentales exigen.
Esto ocasiona que no se obtenga el rendimiento esperado durante la jornada de trabajo, con el diseño de nuevo herramental se pretende aumentar la productividad a través de un diseño más ergonómico y mecanizado que permita al colaborador tener un menor desgaste físico para tener un mayor rendimiento y que esto se vea reflejado en la productividad de extracción de resina.
López Sarmiento Stefhany Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
López Sarmiento Stefhany Guadalupe, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
InnovaCamping es un proyecto que busca nuevas formas de enseñanza, para sensibilizar el área de emprendedores y formulación de proyectos dirigidas para jóvenes entusiastas, líderes y creativos.
A partir de ejercicios de creatividad, tormenta de ideas y trabajo en equipo se descubrirá la importancia de tener un espíritu emprendedor e innovadora.
METODOLOGÍA
Entendiendo al sistema "Como el grupo de componentes que pueden funcionr recíprocamente para lograr un propósito común. Son capaces de reaccionar juntos al ser estimulados por influencias externas. El sistema no esta afectado por sus propios egresos y tiene límites específicos por sus propios egresos y tiene límites específicos en base a todos los mecanismos de retroalimentación significativos" [Spendding 1979]
La metodología aplicada se denomina "Entrepreneurship", permite utilizar la lógiva de aquel individuo que forma parte de un sistema común y que este se ve afectado por diferentes condiciones. Dentro de la metodología se enfoca la homeostasis y la sinergia.
Durante día y medio los equipos desarrollarán una idea de negocio en los siguientes rubros:
I+C = Entreoreneur
I. Durante el Paso 1 "Mi modelo de Emprendimiento", el participante identificará sus principales caracterísiticas que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
II. En el Paso 2 "Mi modelo de Creatividad e Innovación", el participante determinará su nivel de creatividad e innovación para el emprendimiento.
III. En el Paso 3 "Mi modelo de Negocio", el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
IV. Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con los principales variables que determinaran la viabilidad de su idea de emprendimiento.
Metodología pra el desarrollo del modelo
I + C = Entrepreneur:
1._ Estudio del Arte
2._ Funfamentación Teórica
3._Identificación de Variables
4._ Desarrollo de Cuestionarios
5._Recolección de datos
6._ Desarrollo del Modelo
CONCLUSIONES
1._ Capacitar a alumnos de distintas universidades como (Universidad Politécnica de Chiapas, Universidad Autónoma de Chiapas, Instituto Tecnológico de Tuxtla Gutiérrez y la Univerdad Valle del Grijalva)
2._ Desarrollo del Modelo para generación de Ideas.
3._Desarrollo de Cedulas de Evaluación de Ideas.
4._Acuerdos entre empresas regionales como "Guardianes del Arco" del municipio de Cintalapa de Figueroa, Chiapas.
5._Acuerdo de colaboración para llevar a cabo las sedes de futuros campamentos empresariales en el ejido General Lázaro Cárdenas del Municipio de Cintalapa de Figueroa, Chiapas.
6._ Estudio de Factibilidad económica-financiera del Modelo.
7._ Acuerdos de colaboración entre las dependencias de gobierno de Estatal y Federal.
Lopez Timaran Nathalia Fernanda, Universidad Católica de Colombia
Asesor:Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero
ANáLISIS DEL COEFICIENTE DE BALASTO VERTICAL PARA UNA ESTRUCTURA
ANáLISIS DEL COEFICIENTE DE BALASTO VERTICAL PARA UNA ESTRUCTURA
Lopez Timaran Nathalia Fernanda, Universidad Católica de Colombia. Asesor: Dr. Roberto Arroyo Matus, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
El coeficiente de lastre Ks es un parámetro, que se define como la relación entre la presión que actúa sobre el punto p, y el asiento y que se produce, es decir, Ks = p / y. Este parámetro tiene un tamaño de peso específico, aunque depende de las propiedades del terreno no es la misma constante, pues también depende del tamaño del área donde se aplica la carga al suelo.
Todo análisis estructural es necesario conocer las deformaciones asociadas con las cargas que se presentan al momento de ser transferidas a un terreno natural. Para realizar el análisis estructural de las fundaciones se modela el suelo representándolo por un número infinito de resortes cada uno de los cuales no es afectado por el otro. La constante que define la fuerza-desplazamiento del resorte se denomina coeficiente de balasto, que puede ser vertical u horizontal, dependiendo de la dirección de la fuerza que se esté analizando.
Es oportuno indicar que el coeficiente de balasto no es un parámetro propio del suelo, sino que el mismo depende de las dimensiones de la fundación y las propiedades mecánicas del terreno. Esto se debe a que al cargar una fundación se generan esfuerzos en la masa de suelos los cuales dependen del tamaño y la geometría de la fundación.
METODOLOGÍA
Para analizar el coeficiente de balasto puede ser vertical u horizontal.
El coeficiente vertical es un parámetro utilizado para identificar las deformaciones en los suelos producto de las cargas que transmite una zapata o losa a los niveles geotécnicos sobre los que se apoya. Estas deformaciones son de tipo instantáneo, por lo que no se computan los asientos por consolidación de los terrenos cohesivos blandos o compresibles.
Este coeficiente representa la rigidez frente al asentamiento del terreno: un valor alto supone un suelo rígido sobre el que los asientos son menores y, un coeficiente bajo supone un suelo blando y supone grandes deformaciones, así se tiene en cuenta que la tensión transmitida al terreno por una placa rígida con la penetración de la misma en el suelo.
El cálculo del coeficiente balasto inicia con ensayo de placa de carga sobre el terreno. la placa con más frecuencia de uso esta disponible en diámetros de 30, 60 o 76,2 cm. De tal forma que el coeficiente generalmente se representa con una k y con un subíndice que determina las dimensiones de la placa.
Donde:
K30: Módulo de balasto para placa de 30 cm.
Ks: Módulo de balasto de referencia para las dimensiones de la losa.
L: Longitud de la losa
B: ancho de la losa
El coeficiente horizontal se utiliza para estimar la presión horizontal de tierras que se opone al movimiento de pantallas o pilotes. Éste normalmente es determinado a través del valor N del ensayo SPT, de la resistencia al corte sin drenaje; también puede ser determinado desde el módulo de elasticidad E, teniendo en cuenta el diámetro, inercia y módulo de elasticidad del pilote y como datos del terreno, el módulo de elasticidad y el coeficiente de Poisson.
Donde:
Es: Módulo de elasticidad del suelo (MN/m2).
ν: Coeficiente de Poisson del suelo (adimensional).
D: Dimensión menor del pilote o pantalla (m).
Ep: Módulo de elasticidad de la estructura (MN/m2).
Ip: Momento de inercia (m4)
CONCLUSIONES
Durante la estancia de verano se logró fortalecer conocimientos teóricos sobre el coeficiente balasto en las estructuras civiles teniendo en cuenta las fuerzas generadas dentro de un área determinada, sin embargo, durante la extensa investigación se identifica que el comportamiento del coeficiente de balasto vertical es muy costoso para desarrollar a una obra estructural pequeña en cambio es más necesario realizarlo para una obra estructural de mayor área. El coeficiente de balasto horizontal es necesario y mucho más fácil de encontrar ya que los elementos que necesitan los determina el suelo.
Lopez Trespalacios Alejandro Luis, Universidad Nacional Abierta y a Distancia
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
TENDENCIAS DE APLICACIONES ANDROID CON GEOLOCALIZACIóN Y SEGURIDAD PARA UBICAR PERSONAS Y OBJETOS EN LATINOAMéRICA
TENDENCIAS DE APLICACIONES ANDROID CON GEOLOCALIZACIóN Y SEGURIDAD PARA UBICAR PERSONAS Y OBJETOS EN LATINOAMéRICA
Lopez Trespalacios Alejandro Luis, Universidad Nacional Abierta y a Distancia. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
Las aplicaciones móviles se han vuelto fundamentales en nuestras vidas, por que utilizamos aplicaciones en teléfonos y en computadores, de estas podemos mencionar: las redes sociales, los correos electrónicos, las compras por internet, banca en línea, las aplicaciones de taxis, las de rastreos entre otras, (Saltos, 2020).
En el transcurrir de los años hemos visto la creciente oferta de aplicaciones en las tiendas de los dispositivos, y más en Android que ha permitido el crecimiento, en latinoamérica ha venido aumentando la demanda de aplicaciones con sistema de geolocalización permitiendo el rastreo en tiempo real de personas que la han necesitado, por motivos de ubicación, conocer las coordenadas de algún sitio, para que lleguen otras personas y otras por seguridad, evitando secuestros, otros usuarios las utilizan para rastreo de animales u objetos y hasta para ubicar vehículos o encomiendas, en el presente trabajo, se busca analizar las tendencias de aplicaciones Android con geolocalización y seguridad para ubicar personas objetos y animales en Latinoamérica, que se están utilizando con mayor frecuencia y que permiten la ubicación en tiempo real.
La presente investigación nos permitirá entender el comportamiento del uso que se le está dando a las aplicaciones que utilizan geolocalización, permitiendo tener mayor seguridad en la ubicación de personas y de los objetos, comparando la tendencia en latinoamérica y de cómo estas han venido evolucionando a lo largo de los años.
METODOLOGÍA
El dogma de la investigación permite a partir de sus escuela establecer que el ser humano a través de la razón puede conocer la verdad absoluta, siempre y cuando utilice para ellos, algunos métodos y ordenes establecidos, permitiendo partir desde un punto de vista, adoctrinar el conocimiento, asegurando que es absolutamente posible el contacto entre el subjeto y el objeto, permitiendo indagar y conocer el conocimiento desde diferentes puntos de vista, ofreciendo fundamentos y bases respecto a un sistema, más allá de la investigación, la crítica y el intercambio de opiniones.
Los investigadores Chavira García & Arredondo López, 2017, definen Por aplicaciones todas aquellas aplicaciones móviles (App en inglés), como el software descargado e instalado en el teléfono móvil, tableta, laptop, PC, antes de ser usado, permitiendo ser desarrolladas por programadores, que utilizan las capas de la infraestructura del sistema operativo para que pueda establecer una relación y así, optimizar el desarrollo de las mismas, concluyendo que es de gran valor conocer como está compuesto, primero el sistema operativo, y conocer todas las herramientas internas que tienen los dispositivos móviles , como son su hardware, González et al. (2014) afirma que las compañías que crean sistemas operativos desean aplicativos que sean únicos a su sistema operativo y que le permitan sacar mucho beneficio de sus características especiales del equipo móvil. (Aplicaciones Nativas), y para todo esto se necesita la creación de la aplicación usando el lenguaje y marco de desarrollo propias del proveedor como, por ejemplo, utilizando Eclipse con Java para Android. En el mercado latinoamericano existen distintos tipos de aplicaciones como las hibridas y las aplicaciones web, que también están siendo utilizadas, para la geolocalización.
Para (Fernandez, 2018) el sistema de desarrollo de aplicaciones basados en la geolocalizacion, se apoya en principio en una herramienta conocida como A-GPS o Assisted Global Positioning System, que ayudan al sistema de geolocalización a no consumir mucha batería y aprovechar las antenas de las telefonías móviles, el software del teléfono determina la posición alternando entre los datos del satélite GPS y la posición mediante el A-GPS para determinar la posición en tiempo real, ayudan así a mejorar la precisión de este sistema y poder abarcar hasta un rango de 50 mts.
Esta investigación se apoyó de técnicas y se utilizaron bases de datos para la recolección de la informacion, que en gran mayoría son artículos científicos, libros y revistas de interés, se analizaron estudios de tesis que abarcan investigaciones de criminalidad en latinoamérica y como la tecnología ha permitido la reducción de las desapariciones, además se conocieron datos exacto de como los operadores como Samsung, motorola entre otros han mejorado las capas de desarrollo en sus teléfono para así poder aprovechar la tecnología de geolocalización, aprovechando las cuentas de correo y poder configurar y obtener datos precisos de estos dispositivos.
CONCLUSIONES
Con el presente trabajo, podemos concluir que en latinoamérica debido, a distintos factores como el secuestro, los robos, la perdida de objetos, han podido ser rastreados, gracias a la utilización de aplicaciones con geolocalización en dispositivos Android, y estos dispositivos han permitido la creciente demanda de estos servicios tanto a nivel personal como empresarial, las personas preocupadas por llegar a cierto lugar desconocido se ubican en el mapa, y otras piden la ubicación hacia donde tienen que llegar,
Es así como cada empresa está desarrollando sus propias aplicaciones en estos dispositivos personalizados permitiendo gestionar no solo la posición en coordenadas, sino que la integran con otras herramientas, también podemos concluir que latinoamérica ha sido uno de los continentes que han sufrido secuestros para estafas y la geolocalización ha permitido desmantelar organizaciones por medio de su ubicación.
Lorenzana Silva Andrés, Universidad Autónoma del Estado de México
Asesor:Dr. Uzziel Caldiño Herrera, Universidad Autónoma de Ciudad Juárez
INFLUENCIA DE LA GEOMETRíA DEL áLABE EN LA GENERACIóN DE ENTROPíA EN TURBINAS DE ENTRADA RADIAL PARA SISTEMAS ORC
INFLUENCIA DE LA GEOMETRíA DEL áLABE EN LA GENERACIóN DE ENTROPíA EN TURBINAS DE ENTRADA RADIAL PARA SISTEMAS ORC
Lorenzana Silva Andrés, Universidad Autónoma del Estado de México. Asesor: Dr. Uzziel Caldiño Herrera, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Cuando la temperatura o la potencia térmica disponible en la fuente de energía de un sistema de potencia es limitada, resulta atractivo utilizar un ciclo de potencia versátil, adecuado a las condiciones. El Ciclo Rankine Orgánico (ORC) resulta ser una opción realmente versátil, ya que permite producir electricidad desde una variedad amplia de fuentes de energía.
Al realizar la selección de un sistema ORC se deben considerar aspectos como las pérdidas de energía, el fluido de trabajo, la geometría del álabe; y con ello, el impacto que tiene el sistema sobre el medio ambiente. La problemática principal es identificar la opción con la geometría más adecuada, la que mayor eficiencia térmica (trabajo mecánico con respecto al calor de entrada) proporcionará, y a la vez, la que menores pérdidas de energía generará (entropía generada). En el Verano de Investigación se opta por estudiar una muestra de diseños de la geometría del álabe para una turbina de entrada radial, lo cual permite identificar y seleccionar la opción más adecuada y versátil para su implementación en un verdadero sistema de potencia.
METODOLOGÍA
Se planteó la realización de un algoritmo que permite obtener la desviación que hay entre el diseño y el comportamiento de la dirección de la velocidad relativa del fluido de trabajo (R245fa); así como la generación de entropía, para las distintas geometrías. Se tomaron las condiciones iniciales:
Tin = 333 K, Temperatura de entrada a la turbina.
Peva = 436 kPa, Presión de evaporación.
Para la realización del algoritmo se utiliza la librería de acceso libre CoolProp. Esta librería proporciona las variables de estado dadas dos propiedades intensivas del fluido, lo cual ayuda de manera significativa en el desarrollo de las fórmulas del algoritmo en Excel.
En ANSYS se evalúan los distintos diseños del álabe, este arroja diez datos de salida (Entalpía total, Presión total, Temperatura total, Presión, Temperatura, Velocidad radial, Velocidad axial, Velocidad transversal, Vorticidad y Dirección del flujo) para el fluido de trabajo a lo largo de los distintos marcos meridionales del álabe (se consideran 21 marcos meridionales, más la entrada y la salida) para cada diseño.
Los datos anteriores permiten programar el algoritmo con las operaciones correspondientes a la dirección de la velocidad relativa real, es decir, la dirección que el fluido sigue en los marcos meridionales del álabe; esto en conjunto con el ángulo de velocidad relativa ideal, es decir, el diseñado previamente, permite calcular la desviación porcentual entre ambas direcciones. La desviación se ve reflejada en un diagrama que muestra el impacto de cada diseño. Complementariamente, se obtiene la entropía total generada con ayuda de la librería CoolProp para cada marco meridional.
Se busca identificar cuáles son las geometrías cuyas desviaciones porcentuales son las menos significativas. Lo mejor sería que el flujo siga la dirección del álabe, sin embargo, con el movimiento rotacional continuo de la turbina y la dirección original del flujo, esto no es posible, así que la idea es reducir las desviaciones, no evitarlas, viendo por la disminución de las pérdidas de energía y por el aumento en la eficiencia térmica.
Para la selección del diseño más efectivo se consideran los siguientes parámetros:
Porcentaje máximo de desviación
Entropía generada
Teniendo la selección del diseño más adecuado, se puede proceder con la materialización del sistema. De igual forma, se pueden desarrollar nuevas geometrías, buscando siempre una mejora continua en la eficiencia térmica.
CONCLUSIONES
Como fruto del Verano de Investigación, se adquirieron conocimientos sobre Turbomaquinaria e Ingeniería térmica, los cuales se pusieron en práctica con el algoritmo mencionado en la metodología. Este algoritmo arrojó resultados distintos según la geometría diseñada para el álabe. En particular, se percibió que cuando se ponían a prueba diseños donde predominaban ángulos de velocidad relativa menores a 20°, se obtenían las mayores desviaciones; es decir, el ángulo diseñado en los marcos meridionales difería de manera significativa con el ángulo obtenido con la simulación en ANSYS.
De manera general para las condiciones iniciales, la entropía total generada tiende a aumentar en promedio en incrementos de 1.3 J/kgK, considerando que la entropía total en los marcos meridionales aumenta en valores entre 1778 y 1810 [J/kgK]. La generación de entropía se comporta con un incremento del 0.07% cada marco meridional, lo que significa que el flujo que atraviesa la turbina presenta un aumento de entropía del 1.6% con respecto al intervalo de entropía mencionado. No son incrementos realmente significativos, sin embargo, es indispensable cuidar que los diseños evaluados no representen aumentos mayores.
Lozano Diez de Sollano Guadalupe, Instituto Politécnico Nacional
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MÉXICO
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MÉXICO
Lozano Diez de Sollano Guadalupe, Instituto Politécnico Nacional. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Se puede que hay un retraso en la implementación de la industria 4.0 en México y aunque hay estados los cuales pudieron crecer en la digitalización de la industria; aun existe el déficit de los recursos humanos enfocado en la industria 4.0 ya sea en teoría como en práctica. Al no existir la suficiente difusión de vocaciones relacionadas al tema, así como el apoyo económico a las instituciones que imparten materias relacionadas a este tema, existe una deficit en ofrecer aspirantes lo suficimiente capacitados para las industrias regionales.
METODOLOGÍA
La tesis realizada se presenta para el estudio de caso en el Estado de México y las instituciones que tienen la posibilidad de impartir la enseñanza de la industria 4.0. Por lo que la metodología aplicada para conocer un poco más de lo que ofrecen varias instituciones fue por medio de una encuesta la cual primeramente era conocer al encuestado sobre su sexo, profesión, carrera de estudios y el tiempo de experiencia en la industria 4.0, ya sabiendo esto, se comienza las preguntas respecto a los factores para los docentes, para los estudiantes, sobre los planes de estudio, la infraestructura y equipos que las instituciones tienen, el mercado laboral, el liderazgo y políticas públicas regionales, así como la sostenibilidad que la enseñanza de la industria 4.0 les aporta. Esta encuesta fue con respuestas cerradas como totalmente desacuerdo, en desacuerdo, ni de acuerdo, ni en desacuerdo, de acuerdo, totalmente de acuerdo, esto respondiendo a aseveraciones las cuales podían ser resueltas con dichas respuestas. Siendo de esta forma la manera en que los ingenieros pudieron dar su opinión. Al finalizar dichas encuestas, se realizaron gráficas por cada pregunta hecha para observar el comportamiento general de cada una para un análisis de datos apropiado y así poder llegar a una conclusión.
CONCLUSIONES
Con base a los resultados obtenidos en las encuestas realizadas a los ingenieros del Estado de México y CDMX, se obtuvieron las gráficas anteriores donde se pueden resaltar los siguientes puntos:
Sigue existiendo mucha diferencia en cantidad con respecto a la mujer en el sector de Ingeniería. Sin embargo, ya es mayor que en años anteriores.
La carrera predominante en los encuestados fueron los ingenieros industriales. Y en general, teniendo una experiencia de entre 2 a 5 años en la Industria 4.0.
El área de mayor énfasis en la industria es la automatización y la robótica, aunque la mayoría tenían varias opciones al mismo tiempo.
Ahora bien, por parte de los factores que se tomaron en cuenta, se pueden resumir con las siguientes opiniones propias junto con los resultados de las encuestas:
La mayoría opinó que no existen suficiente profesionales de la industria 4.0 para enseñar sobre este tema; así como, los pocos profesionales que existen, no están al tanto de todas las necesidades de la región sobre este tema. Sin embargo, tienen la disposición de intentar cubrir esta necesidad siendo instructores en cursos.
Aunque está en una opinión imparcial respecto de que exista la suficiente inversión económica para poder cumplir con la enseñanza del tema. Ya que aunque se tenga el incentivo social, así como la actualización de conocimientos sobre el tema, es necesaria la parte económica como apoyo.
Debido a la gran aceptación por parte de los jóvenes hacia la nueva tecnología y la necesidad que ya se ha vuelto el saber al respecto de este tema, se considera que los jóvenes si están interesados en aprender sobre el tema. No obstante, muchos se quedan en lo básico de la tecnología, por la poca difusión de las vocaciones tecnológicas y ciencias en esta región.
Además de que dicho tema en la parte de la enseñanza, los jóvenes para poder estar motivados a aprenderlo, necesitan los cursos más prácticos para que puedan entender de qué se trata lo que aprenden y posteriormente puedan implementarlo a una industria en la vida real. A su vez, el poder ver los cursos de manera práctica también comprenden que al saber sobre este tema pueden tener una remuneración económica mayor al estar laborando, ya que se esta por encima de la media en conocimientos.
Ahora bien, para la parte de los planes de estudio, definitivamente se deben incrementar las ofertas de programas educativos relacionados a la industria 4.0 y de igual manera, actualizarlos; ya que pueden existir mayor cantidad de programas pero sin tener las nuevas actualizaciones de este tema y con esto, es un gran error ya que la tecnología hoy en día avanza a pasos agigantados. Además de que deben realmente enfocarse en el sector productivo, la parte laboral. Mostrar verdaderamente lo que sería al trabajar en dicho sector con la industria 4.0 implementada.
Las instituciones tienen muy poca renovación en los equipos que se ocupan para la enseñanza de industria 4.0 ya que es una gran inversión económica; por lo que resulta difícil estar renovando los equipos. Además de que en las instituciones públicas, la mayor parte dependen de algunas donaciones de empresas hacia la escuela.
Por otra parte, se necesita un mayor espacio para las máquinas y por lo general es una o dos máquinas para un grupo mayor de 15 alumnos; es entonces que se puede observar que no siempre porque se tengan las máquinas se aprende de una manera tan apropiada si el grupo es mayor que la posibilidad de trabajar personalmente la máquina.
Dicho lo anterior, se entiende que no hay suficientes aspirantes realmente capacitados para las vacantes relacionadas con industria 4.0. Por lo que la industria general requiere de programas de educación continua como capacitaciones para poder estar al corriente con este tema.
Sin embargo, cuando se está especializado en Industria 4.0, al inicio no es tan fácil encontrar un trabajo el cual sea remunerado de la manera justa que debería de ser. Pero por otra parte, existe la posibilidad de crecer de manera profesional en dicha empresa e ir subiendo el sueldo.
Adicionalmente, se observa que el conocer los conceptos de la industria 4.0 puede favorecer al cuidado de la seguridad y salud ocupacional, el cuidado del medio ambiente; permite ahorrar recursos a las organizaciones, ya que se hacen procesos más eficientes y directos; existe la oportunidad de ser innovador y con ello, pueda promover la inversión económica nacional y extranjera.
Lozano Pérez Edith, Universidad de Guadalajara
Asesor:Dr. Oscar Jaime Ramos Negrón, Instituto Tecnológico Superior de Las Choapas
TéCNICAS ELECTROQUíMICAS PARA LA EVALUACIóN DE LOS PROCESOS DE CORROSIóN
TéCNICAS ELECTROQUíMICAS PARA LA EVALUACIóN DE LOS PROCESOS DE CORROSIóN
Lozano Pérez Edith, Universidad de Guadalajara. Asesor: Dr. Oscar Jaime Ramos Negrón, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
El fenómeno de corrosión consiste en el proceso de deterioro de materiales metálicos mediante reacciones químicas y electroquímicas, debido a que estos materiales buscan alcanzar un estado de menor potencial energético. La corrosión tiene muchas repercusiones a nivel económico, de seguridad y de conservación de materiales, por lo que su estudio y mitigación es de suma importancia.
METODOLOGÍA
Resistencia a la polarización
De acuerdo con la norma ASTM G 59-91 Práctica estándar para realizar medidas de resistencia a la polarización potenciométrica, se indica que se debe usar un puente salino que acerque el electrodo de referencia a 2 o 3mm de la superficie del electrodo de trabajo, se registra el potencial de corrosión después de 5min.
Posteriormente se aplica potencial de 30mV más negativo que el potencial registrado. Luego de un minuto, se inicia un barrido en dirección anódica a 0.6V/h (10mV/min), registrando el potencial y la corriente continuamente. Terminado el barrido cuando se alcanza un valor de 30mV más positivo que el potencial de corrosión.
Finalmente se grafica la curva de polarización y se determina gráficamente la resistencia a la polarización, como la tangente a la curva en el origen de la gráfica (∆E=0)
Espectroscopía de Impedancia Electroquímica
Una vez definido el sistema electroquímico, este se debe analizar ajo una excitación alterna de baja amplitud (menor a 5mV), para asegurarse de que la corriente neta sea cero y la relación entre corriente y potencial se encuentre acercada a la linealidad.
El equipo de medición correspondiente esta constituido por un generador/analizador de funciones que analiza y aplica señales sinusoidales, en un amplio rango de frecuencias, a un potenciostato de alta velocidad de respuesta y sensibilidad.
El potenciostato aplica la señal sinusoidal que corresponde al electrodo de trabajo en la celda electroquímica. La respuesta del electrodo medida por el potenciostato es alimentada al analizador de funciones digital, el cual determina la respuesta de impedancia y el ángulo de fase correspondientes a cada frecuencia estudiada. No obstante, es posible utilizar un potenciostato manual, de manera general, la captura o registro de los datos, el almacenamiento y la manipulación de los mismos se efectúa en una computadora dedicada.
Los datos obtenidos de estos ensayos son reportados por los equipos en dos formas:
Módulo de impedancia (|Z|) y el ángulo de fase (ϕ)
Componente real de impedancia total (Z’) y componente imaginaria de la impedancia total (Z’’)
Estos datos a su vez pueden expresarse en los gráficos de Nyquist y Bode, luego se analizan por el método gráfico y mediante cálculos simples se puede llegar a parámetros como la velocidad de corrosión.
Además, es posible hacer un ajuste de los datos obtenidos, a la respuesta de circuitos equivalentes para llegar a diferentes parámetros eléctricos que son utilizados para obtener información tanto de velocidades de corrosión como sus mecanismos.
Ruido Electroquímico
Esta técnica puede realizar la medición del ruido electroquímico de potencial y corriente, para el primero se realizan oscilaciones del potencial de corrosión de un electrodo respecto al electrodo de referencia, por otro lado, el ruido electroquímico en corriente se obtiene midiendo las oscilaciones de corriente entre dos electrodos nominalmente idénticos o de un electrodo bajo control potenciostático. Estas mediciones se pueden llevar a cabo simultáneamente.
La mayor información se obtiene de las oscilaciones en baja frecuencia (menor a 10 Hz). La técnica analógica de registro continuo más sencilla es utilizar un graficador, se realiza un registro de la variación de potencial y corriente en el tiempo, a esto se le conoce como series de potencial/corriente tiempo o simplemente series de tiempo.
Una vez obtenidos los datos se pueden analizar mediante distintos métodos, entre los que se encuentran: series de tiempo, métodos estadísticos, dominio de frecuencia, análisis discriminante, análisis de pulsos de descarga y análisis de ruido de descarga aplicado a ruido electroquímico.
CONCLUSIONES
A lo largo de la estancia de verano principalmente se adquirieron conocimientos teóricos; se abordaron los conceptos básicos de instrumentación, identificación de variables físicas involucradas en un sistema electroquímico, mediciones de voltaje y corriente, se llegó a una breve introducción de las técnicas más comunes para la medición de los procesos de corrosión, estas herramientas serán de utilidad para comprender conceptos más complejos en un futuro cercano. El proyecto es extenso y aún se requiere trabajar con el desarrollo del conocimiento empírico para la instrumentación correspondiente a la medición de corrosión en campo.
Luciano López Lizbeth, Universidad Politécnica de Atlacomulco
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
EVALUACIóN DE LOS PARáMETROS CARACTERíSTICOS DE UN CALENTADOR SOLAR
EVALUACIóN DE LOS PARáMETROS CARACTERíSTICOS DE UN CALENTADOR SOLAR
Luciano López Lizbeth, Universidad Politécnica de Atlacomulco. Vázquez Figueroa Lorena Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los calentadores solares son dispositivos que utilizan la luz del Sol para calentar fluidos. Están constituidos por un termotanque y el panel solar que puede tratarse de una superficie plana o de un conjunto de tubos al vacío donde se almacena energía usando superficies conductoras que se recubren con pintura especial para aumentar la absortancia del material y así el fluido circule y se caliente. El sistema puede funcionar a través del efecto termosifónico que es generado gracias al gradiente de temperatura o por flujo forzado.
Las ventajas del uso de un calentador solar son múltiples, ya que se aprovecha una energía limpia, económica y ampliamente disponible en nuestro país, pues según una publicación de Guillermo Cárdenas Guzmán de Ciencia UNAM en estados como Chihuahua se alcanzan los 5.8 kWh/m2. Con este proyecto buscamos comprender mejor el funcionamiento de los calentadores solares para así, identificar áreas de oportunidad.
METODOLOGÍA
Se establecieron valores meta para distintas variables y se evaluaron las alternativas de construcción para alcanzar estos valores. Para ello, se realizaron tablas con algunos parámetros que determinan la eficiencia de los calentadores, así como gráficas que muestran la relación entre ellos. Se mencionarán algunos:
Radiación Solar Global (Ig): Incluye la radiación recibida del disco solar y la radiación difusa dispersada al atravesar la atmósfera.
Área
Potencia Incidente (Pinc): Es la radiación solar perpendicular a los rayos del Sol. Considera lo que sería recibido por un módulo que realiza el seguimiento a la perfección el sol.
Absortancia: Relación entre el flujo de radiación absorbida por una superficie y la radiación total incidente.
Potencia Absorbida (Pabs): Es la potencia que puede ser transformada en trabajo.
Calor específico (Cp): Cantidad de calor que por kilogramo necesita un cuerpo para que su temperatura se eleve en un grado Celsius.
Caudal: Volumen de agua que atraviesa una superficie en un tiempo determinado.
Temperatura de entrada (Tin)
Temperatura de salida (Tout)
Los valores objetivo fueron la radiación solar global, temperatura de salida y caudal y se evaluó el resto de los parámetros con ayuda de las expresiones siguientes:
Pinc=Ig*Área…(1)
Pabs=Absortancia*Pinc…(2)
Q=m*Cp*(Tf - Ti)…(3)
La expresión (1) relaciona la potencia captada por un panel dependiendo de su superficie y de la radiación incidente. La (2) considera que dada una cantidad de energía incidente sobre el panel para que esta pueda convertirse en energía útil debe evaluarse la absortancia. Finalmente, la fórmula (3) da una relación entre el calor absorbido y la temperatura final de un fluido de masa m con calor específico Cp. Al dividir entre el tiempo se obtiene una ecuación que muestra que la potencia absorbida va a generar un cambio en la temperatura de una sustancia con calor específico Cp y un caudal determinado. Estos parámetros pueden ser modificados con distintos fines. A continuación, se muestra lo realizado:
Se seleccionaron para estudio cuatro estados de México: Sonora, Ciudad de México, Veracruz y Oaxaca tomando en cuenta su nivel de radiación en las cuatro estaciones del año en W/m2 según datos reportados por Smartbitt Technologies, Energía Solar en el año 2017. Posteriormente se tomaron cuatro diferentes medidas para el área dependiendo de la cantidad de tubos que contiene cada uno de los calentadores solares (8, 10, 12 y 15 tubos). Además, se consideró un valor de absortancia de 0.8 (valor común en los materiales con los que se fabrican los conductores en los calentadores). El calor especifico que se utilizó para dicho estudio fue el del agua de 4180 J /kgK.
Se estableció como objetivo alcanzar las temperaturas de 65°C (valor común de los calentadores de temperatura baja) y 90°C. Se consideraron valores de radiación global de 1000 W/m2, 840 W/m2 (valor máximo de 2016) y 600 W/m2 siendo este el mínimo alcanzado en diciembre de ese año (lo anterior según el Informe de la Calidad del aire de la Ciudad de México). Además, se consideraron absortancias de 0.8 y 0.9. Para el estudio se usaron agua y aceite (con calor específico de 4.18 kJ/kg K y 1.8 kJ/kg K a 25°C) y densidad para el aceite de 910 kg/m3. Se calculó la relación área de captación-caudal considerando una temperatura de entrada de 25°C.
Finalmente, otro parámetro a considerar es el caudal. En un calentador común con flujo forzado pueden alcanzarse flujos de hasta 17 lpm. En este caso se fijó alcanzar 5 y 10 lpm y se encontró la relación entre el área y la temperatura de salida. Se usaron rangos de área desde 2 hasta 12 m2 y temperaturas de salida desde 50°C hasta 75°C con los mismos datos de absortancia, radiación global y temperatura inicial que los anteriores.
CONCLUSIONES
Con el análisis anterior logramos comprender de mejor forma los factores que intervienen en la eficiencia de un calentador solar. Es importante considerar la zona geográfica y la estación del año pues al ser parámetros que no podemos controlar nos permiten evaluar de qué forma deben manipularse el resto de las variables para alcanzar una temperatura final determinada o calcular costos. Por otro lado, una vez que se establece una temperatura de salida la relación caudal-área queda determinada bajo una relación lineal directa que depende de la absortancia y del fluido de trabajo. También se encontró que la temperatura y el área guardan una relación lineal y esto puede hacerse más eficiente si se considera el aumento en la absortancia o el uso de fluidos con calor específico bajo. El caudal guarda una relación inversa con el aumento de temperatura, por lo tanto, cuando lo disminuimos podemos obtener mayores temperaturas, a costa de un mayor tiempo en el proceso de calentamiento. Todo lo anterior muestra que aún es posible explotar mucho de este recurso renovable.
Luis Morales Ximena, Instituto Politécnico Nacional
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
DETECCIóN DE HIDROCARBUROS AROMáTICOS POLICíCLICOS (HAP) EN ALIMENTOS, POR MEDIO DE CROMATOGRAFíA DE LíQUIDOS DE ALTA RESOLUCIóN (HPLC).
DETECCIóN DE HIDROCARBUROS AROMáTICOS POLICíCLICOS (HAP) EN ALIMENTOS, POR MEDIO DE CROMATOGRAFíA DE LíQUIDOS DE ALTA RESOLUCIóN (HPLC).
Luis Morales Ximena, Instituto Politécnico Nacional. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los hidrocarburos aromáticos policíclicos (HAP) son compuestos formados por anillos bencénicos de carbono e hidrogeno.
Especialmente los benzopirenos son compuestos que representan un problema de salud para las personas que consumen alimentos que no completaron su proceso de combustión. Como pueden ser aceites, cereales, carnes asadas, pescados a la parrilla, entre otros alimentos que están sometidos a altas temperaturas.
Estos compuestos son clasificados como carcinógenos y afectan significativamente al organismo que consume alimentos en dichas condiciones.
Para la detección de HAP en alimentos a la parrilla se puede utilizar la cromatografía de líquidos de alta resolución (HPLC) UV-VIS ya que la cromatografía es la técnica analítica con mayor utilidad y efectividad para la solución del problema, donde se podrá identificar las concentraciones de HAP que tienen los alimentos
METODOLOGÍA
La cromatografía se clasificó según su método de operación, tamaño de partícula, su afinidad con las diferentes fases y características particulares de cada una de ellas, con la finalidad de obtener resultados eficientes en el estudio del analito en una muestra.
Se desarrollaron diversos tipos de cromatografía, por mencionar algunos esta la cromatografía en papel, cromatografía de reparto, cromatografía de adsorción y cromatografía de capa fina.
La cromatografía de líquidos más empleada actualmente es la cromatografía líquida de alta resolución (HPLC) de adsorción la cual tiene muchas aplicaciones en diversas áreas industriales y de investigación por su alto rendimiento y adaptabilidad en el análisis esperado.
La cromatografía de adsorción se realiza en fase normal o en fase reversa, las cuales tienen sus propias características que ayudan a elegir los solventes adecuados en el análisis de cada fase.
La fase reversa se realiza con una fase estacionaria no polar y una fase móvil polar, por ello los compuestos que eluyen de la columna con mayor velocidad son los compuestos polares debido al carácter polar del solvente de la fase móvil, por el contrario, se quedarían retenidos en la fase estacionaria por tener un carácter no polar.
La cromatografía de líquidos HPLC tiene un sistema integrado por diversos componentes que cumplen con funciones específicas.
Se tiene un reservorio de solventes: en esta parte se encuentran los solventes con un 99% de pureza en un frasco de vidrio perfectamente sellado para no dejar entrar partículas que pueden contaminar a la fase móvil, para acarrear a los analitos y transportarlos hasta la fase estacionaria.
Es importante que el equipo cuente con una bomba la cual hace pasar la fase móvil en un flujo constante a través de la columna, se debe colocar la presión correcta para no tener variaciones de presión y dañar el equipo.
En el inyector pasa el flujo de la fase móvil y se introduce la muestra por una parte del inyector. Es conveniente programar el modo Split para inyectar poco a poco la muestra y no saturar la columna y la reproducibilidad de la muestra sea correcta.
La separación de los analitos se lleva a cabo en la columna que usualmente tiene paredes de acero inoxidable.
En el detector se lleva a cabo el análisis de la muestra al eluir de la columna, donde se obtienen las concentraciones de los analitos o las propiedades físicas de cada uno en un cromatograma. El detector más empleado es el UV-VIS por sus aplicaciones en general, ya que detecta cualquier longitud de onda de 190-800 nm.
En el registrador se obtiene el cromatograma con los picos correspondientes a cada analito detectado en la muestra de estudio.
Se analizo un método cromatográfico de la detección de hidrocarburos aromáticos policíclicos en alimentos como aceites y comida a la parrilla obtenido de una referencia donde especifican que las concentraciones más altas de hidrocarburos aromáticos policíclicos, en especial los benzopirenos se encuentran en comida a la parrilla.
Para la validación del método cromatográfico se empleo un sistema de HPLC fase reversa, ocupando un detector UV-Vis para una mejor calidad en los resultados.
Se utilizo un inyector con una válvula Rheodyne, para que la muestra pasara a través de la columna ODS, el sistema se llevo a cabo en condiciones isocraticas tomando en cuenta la absorción a 254 nm. A través de las curvas de calibración se obtuvieron las concentraciones de los hidrocarburos. Los parámetros para la validación del método fueron la selectividad, la linealidad calculada por medio de mínimos cuadrados, se ocuparon los límites de detección, límites de cuantificación, por lo cual fue un método sensible, con reproducibilidad de las muestras.
La detección de benzopireno en los alimentos es importante ya que este compuesto es carcinógeno, por ello en esta investigación se revisaron referencias de su detección por HPLC, para detectar diferentes HAP en alimentos cocinados a la parrilla. Las referencias indican que en todas las muestras estudiadas después de asar a la parrilla se detectó el aumento o la formación de los hidrocarburos aromáticos policíclicos.
CONCLUSIONES
En este verano de investigación se adquirieron conocimientos teóricos acerca de los fundamentos de la cromatografía de líquidos y gases, estas técnicas analíticas son de gran importancia por sus aplicaciones en diversas áreas del conocimiento.
Se consultaron referencias de un método cromatográfico empleado para la detección de los hidrocarburos aromáticos policíclicos en alimentos, debido a que los HAP representan un problema de salud, especialmente los benzopirenos por sus propiedades fisicoquímicas.
La modalidad en la que se llevó a cabo el verano de investigación no favoreció para que realmente se experimentara y se obtuvieran los resultados esperados, sin embargo, se revisó una referencia de la problemática a resolver.
Luján Natarén Rosalinda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño
DESEMPEñO DEL PROCESO DE ACOPIO DE CAFé PARA PEQUEñOS PRODUCTORES UBICADOS EN ZONAS DE ALTA PRODUCTIVIDAD EN LA PROVINCIA DE LENGUPá
DESEMPEñO DEL PROCESO DE ACOPIO DE CAFé PARA PEQUEñOS PRODUCTORES UBICADOS EN ZONAS DE ALTA PRODUCTIVIDAD EN LA PROVINCIA DE LENGUPá
Arreola Galindo Arely, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Luján Natarén Rosalinda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Mg. Jaime Trujillo Manrique, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
De acuerdo datos del comité departamental de cafeteros de Boyacá la provincia de Lengupá representa el 25.24% del total de cafeteros del departamento, en su mayoría son pequeños productores superando el 95% de pequeños productores, bajo esta condición se identifican diferencias logísticas y en procesos para los dos tipos de caficultores, para el caso de pequeños productores los costos más representativos se asocian a mano de obra, transportes e infraestructura, por otra parte los grandes caficultores se ven afectados por los costos de agroinsumos, sumando a esta situación condiciones de tipo logístico que presentan deficiencias en infraestructura, costos, coordinación y desempeño de procesos.
Los procesos identificados en los pequeños productores involucran cultivo, procesamiento y en algunos casos no realizan el proceso de comercialización directamente, sin embargo la mayoría de los cultivadores efectúan el proceso de venta en acopio y una pequeña parte de la producción es destinada a la comercialización directa, para el caso de los procesos de cultivo se realizan siembra de semillas obtenidas principalmente del comité departamental de cafeteros, estas semillas son adaptadas a las condiciones de la región y proveen rendimientos mejorados a partir de la selección y procesos de mejoramiento desarrollados por CENICAFE, los granos que son sembrados tienen una viabilidad superior al 90% en germinación y una vez cumplen su ciclo de entallamiento y estabilidad bajo condiciones de abono, humedad y seguimiento controlado que involucra abono, poda y control de plagas, se trasladan a las áreas de cultivo para iniciar el proceso de siembra y reemplazo de los árboles que están finalizando su ciclo productivo, esta actividad de reemplazo de cultivos tiene un periodo de baja producción durante los primeros dos años, presentando mejoras en rendimiento al final de los dos años y alcanzando su máximo productivo entre el tercer y cuarto año.
Luego de los procesos de cultivo y siembra se presentan los asociados a transformación de los granos en pergamino, para llegar a este producto finalizado por el pequeño productor se desarrollan actividades de acopio y almacenamiento, resguardo y control, en esta fase se seleccionan los granos y se efectúan procesos de despulpado, fermentación, secado y empaque, una vez cumplida la fase de procesamiento se almacenan por pequeños periodos para ser trasladados al centro de acopio regional o municipal que propia y apoya el desempeño de los caficultores.
La problemática asociada al acopio de los granos procedentes del cultivo está representada en las limitantes en instrumentos para garantizar el adecuado embalaje y ubicación en las zonas de transporte, posteriormente manejo de cargas, distancias entre zonas de transporte y bodega de acopio, así como los debidos cuidados para el producto y el personal involucrado en las operaciones; bajo los conceptos de proceso se identifican variables modificables a partir de la gestión operativa determinada para las diferentes actividades involucradas en el proceso, no se identifican estudios que permitan establecer aportes previos para esta problemática en la provincia de Lengupá, mejorando la capacidad del proceso, orientando actividades operativas o desarrollando mejoramientos en las actividades.
METODOLOGÍA
La investigación corresponde a la clasificación descriptiva exploratoria, determinado las condiciones del proceso de acopio para pequeños productores que se ubican en las zonas de alta producción de la provincia de Lengupá, el desglose metodológico se realiza en tres etapas; la primera diagnostico del proceso, la segunda determinación de los factores de la problemática y la tercera planificación de mejoras en las actividades operativas.
CONCLUSIONES
El estudio permite concluir que existen elementos de coordinación del proceso de acopio de cultivo que son mejorables y cuyas características están determinadas por la configuración de las actividades posteriores a la recolección, se espera demostrar la existencia de factores críticos dentro de este proceso, la viabilidad de mejoras para la problemática puede incidir en condiciones operativas de esta fase para los pequeños productores que representan más del 95% en la zona de Lengupá y de los cuales existen alta densidad ubicada en la zona de alta producción.
Luna Garcia Angelica, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan José Cabello Eras, Universidad de la Costa
EVALUACIÓN DEL MARCO LEGAL Y LAS ACCIONES EN MATERIA DE EFICIENCIA ENERGÉTICA EN MÉXICO Y SU VÍNCULO CON LA INVESTIGACIÓN.
EVALUACIÓN DEL MARCO LEGAL Y LAS ACCIONES EN MATERIA DE EFICIENCIA ENERGÉTICA EN MÉXICO Y SU VÍNCULO CON LA INVESTIGACIÓN.
Hernández Sánchez Saúl, Benemérita Universidad Autónoma de Puebla. Luna Garcia Angelica, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan José Cabello Eras, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
La Eficiencia Energética juega un papel importante en el camino hacia el Desarrollo Sostenible, según lo reconoce la Agenda 2030 para el Desarrollo Sostenible, en la que en el Objetivo de Desarrollo Sostenible 7 se aborda el acceso a la energía asequible, segura, sostenible y moderna, para lo cual la EE es uno de los factores claves y su promoción e implementación cobra suma importancia para aprovechar las oportunidades de ahorros energéticos y contribuir a reducir la demanda de energía contribuyendo a que el suministro de energía sea suficiente, disminuyendo las emisiones de Gases de Efecto Invernadero y reduciendo la demanda de inversiones para aumentar la oferta de energía. En este sentido, los aspectos de legislación en materia de Eficiencia Energética y su relación con los diferentes programas e iniciativas implementados en los sectores público y privado para la transición y adopción de la Eficiencia Energética en México, son aspectos clave para verificar el nivel de concordancia entre los resultados obtenidos y las acciones implementadas por cada país, en este sentido se vuelve objeto de estudio la legislación y la implementación de acciones en México para contribuir a alcanzar el Desarrollo Sostenible mejorando la Eficiencia Energética.
METODOLOGÍA
La metodología del trabajo de investigación consistió en una investigación documental en diferentes motores de búsqueda como lo son Scopus® y Google Académico®, introduciendo términos de búsqueda como:
(Energy efficiency or Efficient use of energy)
AND
(Government or secretariat)
AND
(Mexico or Mexican government)
AND
(Program* or initiative* or law* or legislation)
De los resultados arrojados por las diversas búsquedas, se procedió a hacer la selección de información que fuera de utilidad para el tema central de la investigación, según la siguiente metodología:
-Seleccionar las dos primeras páginas de resultados de la búsqueda: Por relevancia según el algoritmo del motor de búsqueda.
-Seleccionar artículos de acuerdo al título y resumen: Verificando concordancia y relevancia sobre su contenido de acuerdo al tema de investigación.
-Seleccionar la información relevante.
-Confirmar la información obtenida además de complementarla con la información presentada por las páginas web oficiales del gobierno mexicano.
Una vez recabada la información, se procedió a elaborar el análisis comparativo entre las diferentes referencias obtenidas y su contenido, descartando así la información que no cumpliera con los objetivos de la investigación y a su vez profundizando en aquella que sí aportaba con los objetivos establecidos.
CONCLUSIONES
La relación existente entre los diferentes programas de Eficiencia Energética y su proyección en el desarrollo y comportamiento del indicador de intensidad energética primaria en México ha dejo entre ver la implementación, crecimiento, desarrollo y evolución de las mejoras realizadas en materia de eficiencia energética durante mediados de la década de 1990 y hasta 2015, subdividiendo este periodo en tres etapas importantes: 1993 a 2001, 2001 a 2012 y 2012 a 2015.
El primer periodo fue en el cual se presentaron problemáticas que afectaron al incremento de la eficiencia energética, generando una tendencia al alza en el comportamiento de diversos indicadores, sin embargo, fue a mediados de la década de 1990 que se comenzaron a presentar signos de recuperación de la crisis a la cual México hacía frente.
La segunda etapa en la cual México atravesó dos crisis económicas que impactaron la productividad, generando un comportamiento irregular en diversos indicadores y destacándose por ser el periodo con los niveles productivos más bajos en las últimas tres décadas.
Por su parte, este último periodo ha presentado resultados favorables en materia de eficiencia energética, a pesar de las constantes fluctuaciones del precio de exportación de petróleo crudo, esta etapa se caracteriza por ser la más productiva de las últimas tres décadas.
Cabe mencionar que fue en el periodo comprendido entre 1995 a 2015 que diversos sectores económico productivos han evolucionado en cuanto la intensidad energética de cada uno de ellos, presentando reducciones de 45.9%, 15.6%, 10.9% y 5.6% para los sectores: Residencial, Industrial, Comercial y Servicios, así como Transporte, respectivamente; mientras que el sector Agropecuario presentó en el mismo periodo un aumento del 37.7%, de tal forma que en el mismo periodo, de 1995 a 2015, se registró un incremento de 1% anual en la intensidad eléctrica final, tomando en cuenta dicho incremento desde 1995 hasta 2015 se estima un incremento en el consumo de energía eléctrica de aproximadamente 90%.
Dejando entre ver, una vez más, la relación entre las intensidades de consumo de los diferentes sectores, el valor agregado de estos y el cambio evolutivo en cuanto la adopción e implementación de diversos programas e iniciativas de carácter público y privado de estos últimos años, factores que impactan de forma directa en el comportamiento del indicador de nivel de intensidad energética de la energía primaria, reflejo de la Eficiencia Energética en México.
Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional
Asesor:M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional. Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional. Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales. Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional. Asesor: M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El autismo es un trastorno del neurodesarrollo caracterizado por ser un trastorno para toda la vida y presentar alteraciones de la interacción social, comunicación verbal, no verbal, el comportamiento restringido y repetitivo; generalmente los signos se observan durante los dos o tres primeros años de vida, actualmente se conoce como Trastorno del Espectro Autista (TEA).
La medición de los lapsos de atención en niños con Trastorno del Espectro Austista(TEA), ha ido tomando un papel muy importante, ya que en ellos el nivel de atención suele ser muy bajo debido a que se encuentran lidiando con una gran cantidad de estímulos del entorno. Lo que les genera estrés y potencia que se alteren, por lo que su nivel de atención es variante.
Con la detección de estos lapsos de atención (sostenida, dividida y alternante, en las modalidades visual y auditiva) se pretende coadyuvar en el aprendizaje de personas con TEA al interactuar con medios de aprendizaje tales como aplicaciones de software y otros tipos de actividades didácticas, con lo cual se puede mejorar el diseño de escenarios de aprendizaje y por lo tanto, la calidad de vida.
METODOLOGÍA
La base de datos se obtuvo a partir del registro de señales electroencefalográficas de un paciente con Trastorno del Espectro Autista que fueron adquiridas por medio del uso del dispositivo inalámbrico EPOC+ de 14 canales. Se realizaron tomas de muestras para la identificación de los lapsos de atención en el paciente al desarrollar distintas actividades de aprendizaje. El EPOC+ se utiliza en conjunto con el software EmotivPro para recopilar, analizar y almacenar métricas de datos cerebrales.
Los registros de las señales se utilizaron para la creación de archivos .mat correspondientes a cada uno de los 14 electrodos del dispositivo gracias a la herramienta Importa Data de MATLAB para su posterior procesamiento. Como primer punto, se realizó el escalamiento de la señal considerando la resolución de 0.51 uV proporcionada por el fabricante. Posteriormente, se eliminó la línea isoeléctrica de las señales empleando el comando detrend que nos permite restar la media de los datos.
Una vez obtenida la base de datos, se utilizó el software libre EEGLab proporcionado por UCSD, el cual se anexa a la plataforma de simulación MATLAB para el procesamiento de señales electroencefalográficas, en donde, primeramente se registraron las posiciones de los electrodos del dispositivo, para posteriormente hacer el análisis completo de las señales. Se realiza a continuación la identificación y clasificación de los artefactos presentes en la señal EEG para su posterior eliminación. Esto se puede hacer gracias al módulo de Análisis de Componentes Individuales (ICA, por sus siglas en inglés) de EEGLab.
Una vez eliminados los artefactos, se analizaron las señales para obtener la Densidad Espectral de Potencia por medio de un programa en MATLAB con la finalidad de analizar y detectar la mayor actividad eléctrica presentes en ciertas bandas de frecuencia (bandas Beta) y que es coincidente con los lapsos de mayor atención para cada una de las actividades realizadas.
CONCLUSIONES
El procesamiento de señales EEG puede determinar el nivel de atención que se presenta al desarrollar una actividad de aprendizaje con una persona con TEA, además obtener una medición cuantitativa de cada sesión y, de esta manera, saber el impacto de la actividad. Asimismo, también se puede saber si le es clara la instrucción, esto es muy importante sobre todo en las personas con TEA no verbales. De esta forma, se pueden diseñar o adaptar escenarios de aprendizaje personalizados, mejorando su bienestar y calidad de vida, para en un futuro lograr una inclusión laboral en su vida adulta.
Macdonal Lizcano Dieter Jazen, Instituto Tecnológico Superior de Los Ríos
Asesor:M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
Guerrero Ceron Isarel, Instituto Tecnológico de Pachuca. Macdonal Lizcano Dieter Jazen, Instituto Tecnológico Superior de Los Ríos. Nahuatt Hernandez Doris Yanel, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
El aumento de personas enfermas se ha visto incrementando los últimos años ya sea por causas internas o externas, entre ellas están las enfermedades digestivas que son trastornos del aparato digestivo.
En México las enfermedades gastrointestinales son uno de los principales problemas de salud en México, ya sea por la ingesta de líquidos o alimentos contaminados, afectando principalmente a la población infantil, aunque también están los casos de enfermedades digestivas por causas de alimentos que tienen ciertas reacciones adversas como puede ser el gluten que son: dolor persistente en la zona abdominal, diarrea frecuente, dolor de cabeza, fatiga, estreñimiento entre otros.
El problema de esta proteína es que se encuentra en el trigo, que es la base en la elaboración de harinas y se usa en la comida mexicana siendo esto un producto indispensable, estas enfermedades se conocen como “enfermedad celiaca”. En México se estima que más del 2% de la población padece esta enfermedad, mientras que el 0,9 % alergia al trigo y la sensibilidad al gluten no celiaca varia de 1 hasta 25% en ciertos grupos de poblaciones
METODOLOGÍA
Encuesta: La encuesta permitió conocer las motivaciones, actitudes y opiniones de los individuos, con relación a la oferta de un nuevo tipo de harina elaborada a base de harina de coco. La encuesta que se aplicó está estructurada: Si consume harina, gustos por tipos de harina, lugar y frecuencia de compra, precio que paga por kilo; expectativas por la oferta de una nueva harina en el mercado. al igual que sus subproductos, además si presentaban problemas con algunas proteínas que poseían son la glucosa y que otras variantes presentan.
En base a los resultados se observó que el 29% de los entrevistados presentan problemas con el gluten, por lo que se comparó el trigo el ingrediente más utilizado en harinas y consumido por la población de Balancán, Tabasco.
Siendo el coco el más recomendable, por su alto grado de vitaminas como son: ácido fólico, vitamina C, vitamina E, magnesio. Una vez obtenido los datos y considerando los beneficios se procede a la transformación del fruto entero (carne) a un polvo blanco fino.
A continuación, se presenta detalladamente paso a paso el proceso productivo:
Recepción de materia prima: En este primer paso se recepta la materia prima, que está comprendida por los cocos secos, mismos que son almacenados.
Verificación de materia prima: Una vez receptada la materia prima se procede a la verificación de la misma, en donde se inspecciona de que el coco no esté abierto o en mal estado.
Lavado: Luego de haber inspeccionado los cocos, se procede al lavado del mismo eliminando toda impureza, al mismo tiempo ablanda la cascara del coco.
Pelado del coco: Consiste en sacarle la cascara externa al coco, para lo cual se hace uso de un cuchillo, una vez sacada la cascara se procede a partir el coco a la mitad, quedando listo para la extracción de la pulpa.
Extracción de la pulpa: se realiza manualmente con el uso de un cuchillo.
Deshidratación de la comida de coco: Una vez obtenida la pulpa se procede a la deshidratación de la misma, para ello se usa un horno deshidratador, en donde la pulpa de coco es colocada en bandejas y permanece por 60 minutos.
Molido: Concluida la deshidratación, se procede al molido, donde luego de eso se obtiene la harina.
Verificación de materia prima molida: Una vez obtenida la harina de coco se procede a la verificación de la misma, para garantizar la calidad del producto, así como sus características idóneas.
Dosificación, empacado y etiquetado: Aquí se procede a realizar una dosificación, es decir separar la cantidad exacta de producto que ira dentro de cada funda para proceder a empacar la harina de coco y se realiza el etiquetado con toda la descripción del producto.
Almacenamiento: El almacenamiento se lo realizara en un lugar que esté libre de humedad y exceso de calor.
Salida del producto: Elaborado y etiquetado el producto, queda listo para su respectiva distribución en las bodegas y autoservicios de la ciudad de Balancán, Tabasco.
CONCLUSIONES
Elaborado el presente Proyecto de Factibilidad para la Implementación de Harina de Coco en la Ciudad de Balancán, Tabasco, se ha llegado a establecer las siguientes conclusiones:
El proyecto está elaborado con el fin de promover el desarrollo empresarial con un producto nuevo e innovador en el mercado del municipio, creando fuentes de trabajo además se considere en su dieta diaria la harina de coco. Debido a que es una alta fuente de proteína, libre de gluten, siendo ideal para personas hipo alergénicas.
Que los consumidores opten por este nuevo producto como lo es la harina de coco misma que estará a disposición en bodegas y autoservicios más cercanos a su domicilio de calidad, higiene y buen precio, ofrecida por una nueva empresa local.
Madrigal Mendoza María Victoria, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
DESARROLLO E IMPLEMENTACIóN DE UN PROGRAMA DE EDUCACIóN CONTINUA EN LA INGENIERíA EN ADMINISTRACIóN DEL ITST.
DESARROLLO E IMPLEMENTACIóN DE UN PROGRAMA DE EDUCACIóN CONTINUA EN LA INGENIERíA EN ADMINISTRACIóN DEL ITST.
Madrigal Mendoza María Victoria, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
El Instituto Tecnológico Superior de Tacámbaro contaba con aproximadamente 1050 alumnos y durante la pandemia se ha visto un gran impacto en la reducción de los alumnos que abandonaron sus estudios por lo que no ponían el mismo interés al estar trabajando en línea y algunos otros por la falta de herramientas de tecnología y comunicación, hoy en día el instituto tecnológico superior de Tacámbaro cuenta con 720 alumnos inscritos esto quiere decir que un 31.42% dejaron de estudiar y un 68.57% se encuentran estudiando.
Debido a que no existe un interés por aprender más allá de lo que se imparte. ¿es posible que los aprendizajes cada día son menores en los alumnos de educación superior?
METODOLOGÍA
Se han estado utilizando distintas maneras de aprendizaje y estrategias para poder brindarles a los alumnos de diferentes grados de la carrera de ingeniería en administración y así puedan obtener un aprendizaje eficiente, por lo que necesitamos interés de los alumnos para que puedan adquirir conocimientos.
El Instituto Tecnológico Superior D e Tacámbaro, se enfrentan a una serie de retos como el surgimiento de nuevos paradigmas en métodos y medios de enseñanza, como la educación a distancia, por la situación que se está viviendo por el virus SARS- coV-2 (COVID-19) y la enseñanza a través de medios de comunicación virtual, debido a la falta de capacidad para atender la oferta educativa y la baja cobertura geográfica. Por ello se considera oportuno buscar y proponer alternativas de solución a esta problemática.
En el Instituto busca alternativas de solución para que los estudiantes obtengan conocimientos a través de sistemas de administración de cursos, en base a entrevistas echas a empresarios que requieren egresados de la carrera de ingeniería en administración, estas entrevistas nos arrojaron que los cursos de capacitación necesarios son:
1. Curso de Excel avanzado
2. Cursos de Inventarios
3. Cursos de Nominas
4. Curso de Aspel coi
5. Curso de Contpaq
Cabe mencionar que estos 5 cursos se impartirán uno cada semestre.
El curso de Excel avanzado
Se brindará de forma presencial o línea por lo que el curso se impartirá durante el semestre agosto- diciembre del año 2021, los días sábados con un horario de 5 horas al día, con un costo aproximadamente $1050.
Curso de Inventario
Se podrá brindar de forma presencial o en línea, el curso se impartirá en el semestre enero-julio del año 2022, los días sábados con un horario de 5 horas al día, con un costo de $2000.
Curso de Nominas
El curso se brindará de forma presencial o en línea, se estará brindando este curso en el semestre agosto-diciembre del año 2022, los días sábados con duración de 15 horas, con un costo de $4000.
Curso de Aspel Coi
El curso de Aspel Coi, incluye nivel básico, intermedio y avanzado se brindará de forma presencial o en línea, se estará impartiendo este curso en el semestre enero- julio del año 2023, los días sábados con duración de 4 horas al día, con un costo de $800.
Curso de Contpaq
El curso de Contpaq se brindará de forma presencial o en línea, se estará impartiendo este curso en el semestre agosto - diciembre del año 2023, los días sábados con duración de 5 horas al día, con un costo de $2500.
El diseño de estos cursos deberá estar estructurados empleando las siguientes estrategias, que se estarán considerando para que los estudiantes tengan un aprendizaje eficiente:
Ensayos
Control de la comprensión
Ejercicios de aplicación
Mapa mental
Mapa conceptual
Evaluación
Por lo que se llevaran acabó los cursos en donde se les brindara información efectiva para que vayan desarrollando habilidades.
En los cursos se expondrán temas que les facilite su aprendizaje de una manera eficiente.
Los ensayos permiten que los estudiantes memoricen y establezcan relaciones y puedan recordar con gran facilidad los datos de acuerdo con las diferentes formas de registra u obtener la información que se aprende.
En control de la comprensión se harán preguntas para ver si están comprendiendo los temas expuestos.
Los ejercicios de aplicación nos daremos cuenta si fue factible los temas expuestos.
Mapa mental, es una estrategia de organización del aprendizaje hecha mediante un diagrama que se adopta para la representación de palabras, ideas, tareas y dibujos, u algunos otros conceptos relacionados y construidos alrededor de una palabra clave o de una idea central.
El mapa conceptual, es una herramienta gráfica que permite representar las relaciones de conceptos de un mismo dominio mediante conectivos verbales, para posibilitar la comunicación del conocimiento, y contribuye asimismo al aprendizaje significativo.
Evaluación nos servirá para saber si se comprendió y todo lo referente a ello.
Dichas estrategias en el ámbito académico conllevan a que el estudiante se convierta en autónomo, independiente y autorregulado, capaz de aprender a aprender.
Aprender a aprender de cierta manera implica una gran capacidad de reflexionar en la forma en que se aprende actuar en consecuencia, autorregulando el proceso de aprendizaje mediante el uso de estrategias flexibles y apropiadas que se transfieren y adaptan a nuestra situación.
Estas estrategias de apoyo permiten a quien estudia mantener la voluntad y la concentración propiciando el aprendizaje; de esta forma se reduce la ansiedad, mientras la atención se dirige hacia la tarea, ayudando a la organización del tiempo dedicado al estudio.
CONCLUSIONES
Se considera que los cursos se tomaran al ser impartidos por la empresa contrada con la finalidad de reproducirlos para generaciones de alumnos subsecuentes. Es de vital importancia la relación de empresarios y el Tecnológico, así como la comunicación abierta para conocer sus necesidades y buscar los mecanismos para satisfacerlos. Se obtuvo la información de los empresarios para la programación a dos años priorizando a aquellos cursos con más demanda.
Maldonado Maldonado Kevin Alejandro, Instituto Tecnológico de Chilpancingo
Asesor:Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
DISEñO DE BASE DE DATOS DE CONOCIMIENTO
DISEñO DE BASE DE DATOS DE CONOCIMIENTO
Maldonado Maldonado Kevin Alejandro, Instituto Tecnológico de Chilpancingo. Mesino Vega Edgar Said, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La gran diversidad de plantas ornato en el mundo resulta un desafío para poder identificar con exactitud cada una de estas plantas incluso para personas que están entrenadas en el campo de la botánica, debido a la inmensa cantidad de información que se puede obtener de las plantas es imposible para un ser humano poder acceder a esa información de forma inmediata y trabajar con ella.
METODOLOGÍA
nuestro aporte será específicamente para las plantas de Ornato y una particularidad que nos ayudó a encontrar el Agrónomo Ernesto Mesino, fue que nos enfatizó que una de las utilidades que podrían ser de gran ayuda,
Es que pudiéramos agregar un campo de descripción que ayudara a saber los distintos usos que se le puede dar a la planta por ejemplo:
Algunas plantas son de fruto y otras plantas llegan a ser para adorno y se pueden distinguir si es para adornar interiores o exteriores por lo tal describiremos a continuación la forma que se recopilaron las ideas y se estructuro la base de datos.
Primero fuimos desglosando la informacion obtenida por los agrónomos e informacion en internet y nos enfocamos en sacar las identidades entre las cuales están:
Nombre_Planta
Temperatura
Colores
Imagen
Ficha_tecnica
Imagen_ficha
Nombre_Planta: como atributos los campos de nom_comun y nom_cientifico también agregamos el campo de Id_nombre como identificador único.
Temperatura: se decidió crear los campos de Tem_min_temperatura para la temperatura mínima, Tem_max_temperatura para su temperatura máxima de la planta y el respectivo identificador para cada registro el cual nombramos Id_temperatura.
Colores: se decidió colocar los campos color_follaje para el color del tallo y color_flores para el color de la flor o flores, a esta entidad también agregamos su correspondiente identificador llamado id_colores que nos ayudara para cada registro
Luego se trabajó con la entidad imagen la cual será la entidad encargada de almacenar las distintas perspectivas en fotos sobre cada tipo de planta para esto agregamos los siguientes atributos:
Imagen que nos ayudara a almacenar las imágenes este campo será de tipo Blob ya que es el adecuado para almacenar archivos de imágenes.
También se le agrego su respectivo identificador llamado id_imagen
Ficha_tecnica: los campos de ficha tecnica fueron id_ficha de tipo INT, id_nombre_planta de tipo INT, exposicion_de_luminosidad de tipo varchar, id_temperatura de tipo INT, riego_recomendado_varchar, plagas_enfermedades de tipo varchar y por ultimo descripcion de tipo varchar
Imagen_Ficha: sus atributos son: id_ficha de tipo Int, id_imagen de tipo Int, imagen_No_Conocida tipo TINYINT
CONCLUSIONES
En el presente trabajo de investigación mi compañero y yo realizamos de manera eficiente, de acuerdo al planteamiento del problema el cual se presentó ante el docente el cual fue desarrollar un identificador de plantas de ornato con inteligencia artificial y bases de datos de conocimiento, con el cual se a podido adquirir un conocimiento más amplio sobre las áreas de investigación de los temas de plantas de ornato, con el que por investigación propia se recopiló la informacion necesaria para la realización del proyecto, identificador de plantas de ornato, ayudados de dos profesionales en el área de la agronomía para tener informacion más exacta para las bases de datos de conocimientos, que fue la parte en la que mi compañero y yo estuvimos trabajando en el proyecto, logrando así cumplir con los objetivos de desarrollar una estructura que contenga las entidades, atributos y relaciones necesarias para abastecer las necesidades del proyecto de reconocimiento de plantas.
Entre las complicaciones que se tuvieron fue que el tema era nuevo para nosotros y no teníamos el conocimiento adecuado para generar las entidades correspondientes para el proyecto, como también el trabajar a distancia por la situación actual se complico ya que no pudimos contactar a mas personas relacionadas con la materia que nos pudieran aportar mayor información.
Para concluir esta a sido una primera experiencia relacionada con el campo de la investigacion que nos a dado la oportunidad de aprender del trabajo colaborativo de la mano de un profesional en el campo de la investigación, dándonos la pauta de que en un futuro podamos desarrollar en su totalidad este proyecto, así como cualquier otro tema que se pudiera investigar.
Maldonado Romero Cristian Alan, Universidad de Sonora
Asesor:Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
ANÁLISIS TÉRMICO DE MATERIALES Y SISTEMAS CONSTRUCTIVOS EN LA CLIMATIZACIÓN DE EDIFICIOS EN IBEROAMÉRICA
ANÁLISIS TÉRMICO DE MATERIALES Y SISTEMAS CONSTRUCTIVOS EN LA CLIMATIZACIÓN DE EDIFICIOS EN IBEROAMÉRICA
Maldonado Romero Cristian Alan, Universidad de Sonora. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El sector de la construcción, donde como ingenieros o profesionistas contribuimos, afecta de gran manera al deterioro ambiental de nuestro planeta, ya sea en cualquiera de sus distintas fases, como la fabricación e implementación de los materiales, influyendo en emisiones de CO2, afectación en el confort térmico y el consumo energético. Es por ello que necesitamos adoptar nuevas o mejores decisiones en la selección y uso de los materiales y sistemas constructivos para la resolución de estos problemas.
En México existe una gran variedad de materiales comúnmente utilizados en la construcción, sin embargo, la mayoría no corresponden a materiales o sistemas constructivos totalmente convenientes, según el impacto ambiental que generan y el confort térmico en cada clima, debido a esto se debe identificar y analizar los materiales y sistemas constructivos convencionales utilizados en los edificios y viviendas.
METODOLOGÍA
A partir del diagnóstico del bioclima de las diferentes localidades de Iberoamérica con BIOSOL , se registraron los datos obtenidos y así partir como base para la aplicación del método de los grados días. Se eligieron todos los bioclimas existentes en México y algunas de las principales ciudades de Iberoamérica. Se utilizó este método para analizar, según las propiedades térmicas, cada material y sistema constructivo comúnmente utilizado en la construcción de edificios y viviendas. Por último, se utilizó la metodología de Kecebas (2012) para calcular el consumo energético anual , en función de los requerimientos de climatización, a partir de este cálculo en base a IPCC (2006) se obtuvieron los factores de emisión de CO2 para cada localidad a diagnosticar y así obtener las emisiones de CO2 producidas anualmente.
CONCLUSIONES
De acuerdo a los resultados obtenidos en el análisis térmico de materiales y sistemas constructivos convencional y de alternativas, se puede concluir lo siguiente: para el caso de los sistemas constructivos convencional, el bloque de concreto hueco de 20 cm con acabado exterior de 2 cm de espesor y un acabado interior de aplanado de yeso con 1 cm de espesor es el más eficiente para todos los casos, obteniendo los resultados de consumo energético y emisiones de CO2 más bajos en comparativa con los demás materiales o sistemas constructivos; para el caso de alternativas, se utiliza el mismo material, es decir, el bloque de concreto hueco, sin embargo, se mejora añadiéndole una capa de aislamiento térmico de EPS (Poliestireno expandido) de 2 cm de espesor y para los acabados exterior e interior, se utiliza mortero de cemento-arena reciclado y aligerado, este sistema constructivo mejora notablemente su coeficiente global de transferencia de calor (U) lo que permite así, mejoras en la eficiencia energética y la reducción de emisiones de CO2.
El consumo energético y la producción de emisiones de CO2 van directamente relacionados con los requerimientos de climatización y así mismo, con los grados días. En función de los resultados obtenidos, la localidad con mayor requerimiento de climatización en enfriamiento es Colima, Colima junto a Villahermosa, Tabasco, localidades que se caracterizan por su clima cálido semihúmedo y húmedo respectivamente, para el caso de climatización en calentamiento Bogotá, Colombia requiere en mayor cantidad el uso de climatización por calentamiento, esto es, por ser un clima semifrío.
Malvaez Colin Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
ANáLISIS Y EVALUACIóN DE METODOLOGíAS Y ENFOQUES DE CARACTERIZACIóN A LA FATIGA DE MATERIALES COMPUESTOS LAMINADOS.
ANáLISIS Y EVALUACIóN DE METODOLOGíAS Y ENFOQUES DE CARACTERIZACIóN A LA FATIGA DE MATERIALES COMPUESTOS LAMINADOS.
Malvaez Colin Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
El fenómeno de fatiga esta presente en la mayor parte de estructuras en ingeniería.Debido a esto, el estudio de modelos que, definan la influencia de la fatiga en las propiedades mecánicas de los materiales, se han formulado para predecir el efecto que tendrá y como resultado definir parámetros de diseño que mejoren la confiabilidad de los materiales. Si bien el fenómeno de fatiga se comenzó a estudiar hace mas de 100 años, la introducción de nuevos materiales como son los materiales compuestos ha obligado a la comunidad científica ha desarrollar modelos y enfoques de caracterización a la fatiga que se adapten a la complejidad de estudio de los materiales compuestos.
Entre los diferentes enfoques de caracterización a la fatiga se encuentra el modelo de degradación de rigidez o de rigidez residual, este enfoque plantea que los mecanismos de daño desarrollados por la fatiga (por ejemplo, fractura de matriz, delimitaciones, ruptura du fibras etc.) reducen progresivamente las propiedades elásticas de los materiales, como consecuencia se ha adoptado una relación entre el grado de reducción de rigidez y el daño que sufre el material durante cargas cíclicas, siendo este parámetro de relación una alternativa para definir el estado del material durante pruebas de fatiga.
METODOLOGÍA
A partir de un exhaustivo análisis de artículos científicos referentes a la rigidez residual, se opto por tomar el articulo de Li et al quienes presentaron como resultado de investigación pruebas de caracterización de rigidez residual para laminados con diferente secuencia de apilado, en el articulo se toma en cuenta modelos de acumulación de daño basados en en el degradación de rigidez, a partir de los cuales se obtiene un modelo de predicción de la degradación de rigidez en el material. Como metodología de investigación se pretende analizar los resultados experimentales Li et al para establecer una relación entre la secuencia de apilado con la degradación con la hipótesis, si se elige una secuencia de apilado que disminuya el progreso de perdida de rigidez entonces se podrán obtener laminados mas resistentes a la fatiga.
CONCLUSIONES
Se puede concluir el enfoque de rigidez residual es un método que puede ser aplicable a diferentes variables, pues no depende significativamente de los tipo de amplitud, secuencia o aplicación de la carga, ademas este método de caracterización presento buenos resultados para materiales compuestos con diferente material de refuerzo ademas que la secuencia de apilado de capas no presenta ninguna dificultad para caracterizar la fatiga por este método.
También se puede establecer que la adición de diferentes orientaciones de fibras en el estratificado no presenta cambio relevante significativo de la rigidez critica del material, sin embargo, se puede ver que con una orientación de fibras variada en el laminado, se presenta una segunda etapa de degradación con una menor pendiente en comparación con laminados que presentan solo uno o dos tipos de orientación, se puede asumir que estos es debido a la interacción de los mecanismos de daño con los diferentes grados de orientación de fibras.
Mandujano Pérez Humberto Primitivo, Instituto Tecnológico de Comitán
Asesor:Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez
DESARROLLO DE MATERIAL DIDáCTICO Y MEDICIóN DE FUERZA AGARRE Y TORQUE EJERCIDAS POR UNA MUESTRA DE HABITANTES DE LA CIUDAD DE COMITáN DE DOMíNGUEZ, CHIAPAS
DESARROLLO DE MATERIAL DIDáCTICO Y MEDICIóN DE FUERZA AGARRE Y TORQUE EJERCIDAS POR UNA MUESTRA DE HABITANTES DE LA CIUDAD DE COMITáN DE DOMíNGUEZ, CHIAPAS
Hernández Morales Nayeli Guadalupe, Instituto Tecnológico de Comitán. Mandujano Pérez Humberto Primitivo, Instituto Tecnológico de Comitán. Asesor: Dr. Juan Luis Hernández Arellano, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La escasez de datos de fuerza de agarre y de torque en la zona sur de la República Mexicana, centrándose en el estado Chiapas es inexiste debido a que la falta de interés de realizar estos tipos de estudio en el estado a significado un atraso de conocimientos en el área de ergonomía y también con relación al área de diseño, debido a que diversos diseñadores no cuentan con una fuente de información para apoyarse para realizar ciertas investigaciones de diseño donde requieren datos referenciales de fuerza para desarrollar de manera óptima para probar sus prototipos.
Por otro lado, en las aulas, cuando se enseña la materia de ergonomía existe una baja o nula aplicación práctica de dichos temas. Existen diferentes causas, por ejemplo, el tema no se encuentra contemplado en el plan de estudios, los tiempos programados para contenidos teóricos y prácticos son cortos, que el docente tiene bajo o alto conocimiento, cargos administrativos, y/o no se explica bien o que simplemente los alumnos pierden el interés de los temas por la falta de estructura de procedimientos o se le es difícil comprender los existentes.
A experiencia propia, la mayor problemática que se presenta en este tipo de deficiencias académicas es la falta de procedimientos para manipular los equipos de medición, por lo que durante el verano de investigación se recopilará y se estructurará información para detallar paso a paso los procedimientos para analizar tareas mediante la técnica de video análisis propuesta por Gómez-Bull, K. G., Hernández-Arellano, J. L., & Ibarra-Mejía, G. (2015).
Los objetivos del estudio son desarrollar material didáctico para uso en aulas y medir las fuerzas de agarre y torque en una muestra de habitantes de la ciudad de Comitán de Domínguez en el estado de Chiapas.
METODOLOGÍA
Revisión bibliográfica
Se realizó una revisión bibliográfica de los procedimientos en cuestión, en el cual se analizó y comparo para poder explicar paso a paso dicho procedimiento de medición.
Desarrollo de manuales
Una vez, identificado los procedimientos, se estructuró dicho manual con cuatro prácticas: fuerza de agarre en tres técnicas, pinzamiento y torque a nivel de la muñeca utilizando ambas manos sin apoyo fijo y la técnica de video análisis de tareas. Las practicas tiene la siguiente estructura: título, introducción, propósito, objetivos, tiempo estimado para realizar la práctica, conceptos a dominar para desarrollar la práctica, materiales, procedimiento y por último la sección actividades y preguntas.
Selección de la muestra
Se consideraron los siguientes criterios para selección de la muestra a conveniencia:
No haber presentado lesiones en miembros superiores en el último año
Tener entre de 18 y 60 años
Radicar en la ciudad de Comitán de Domínguez
No presentar síntomas de COVI-19
Adicionalmente, se consideraron las siguientes medidas sanitarias:
Uso de gel antibacterial y cubrebocas en todo momento durante la participación
Limpieza de los equipos después de ser usados por cada participante
Mantener sana distancia
Medición de fuerzas
Se realizan mediciones a través de uso metodología para la medición de agarre y torque haciendo uso del protocolo de Caldwell, así también se hace uso de un protocolo de sanidad para desinfectar los instrumentos al momento de ser utilizados para medir.
CONCLUSIONES
Al cierre de la estancia de verano, se logró realizar la medición de fuerzas de agarre y torque a un total de 22 participantes (12 mujeres y 10 hombres) con una edad promedio de 36 años. Los promedios obtenidos de fuerza de agarre para cada mano para hombres y mujeres fueron mano derecha 25.27 Kg, mano izquierda 24.69 Kg. Los promedios obtenidos de fuerza de torque para cada mano para hombres y mujeres fueron mano derecha 3.35 Nm, mano izquierda 3.2 Nm. Los promedios generales para hombres y mujeres fueron. Fuerza de agarre hombres: 28.9 Kg, mujeres, 19.3 Kg. Fuerza de torque 4 Nm, mujeres, 2.6 Nm.
Durante la estancia de verano se logró adquirir conocimientos teóricos, es decir, se elaboró un manual pequeño para prácticas de ergonomía con los temas fuerza de agarre, pinzamiento y torque, además de la técnica de video análisis de tareas, en el cual, se establecieron procedimientos más claros para que tanto los alumnos como docentes puedan ejecutarlos con pocos conocimientos previos, facilitando su comprensión.
Ahora bien, en los conocimientos prácticos, se ejecutó y midió fuerza de agarre con una sola técnica y torque con el equipo de medición correspondiente en una muestra poblacional en Comitán de Domínguez, sin embargo, al ser un extenso trabajo aún se encuentra en la fase la recolección y no se pueden mostrar los datos obtenidos. Se espera poder generar una base de datos de las fuerzas analizadas.
Manríquez Herrejón Edgar, Instituto Tecnológico de Morelia
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
SISTEMA DE RECONOCIMIENTO FACIAL PARA ACCESO A ESPACIOS FíSICOS
SISTEMA DE RECONOCIMIENTO FACIAL PARA ACCESO A ESPACIOS FíSICOS
Manríquez Herrejón Edgar, Instituto Tecnológico de Morelia. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En el ingreso a espacios físicos existe siempre el riesgo de que accedan personas no deseadas como ladrones o personal no autorizado en ciertas áreas, por lo que el tener un mejor control sobre la administración de dichos accesos es necesario para garantizar que no haya intrusiones que conlleven a un robo de objetos o daños a los inmuebles, entre otros agravios. Existen sistemas de seguridad que ya utilizan el reconocimiento facial como método de acceso, pero no garantizan una efectividad completa, ya que pueden darse falsos positivos o sufrir una falsificación de identidad.
Ante dicha problemática, se plantea desarrollar un sistema de reconocimiento facial aplicado al control de acceso a espacios físicos que cumpla con una alta precisión en el reconocimiento, buscando una nula aparición de falsos positivos, así como un tiempo corto de respuesta, además de evitar falsificaciones de identidad. Para ello se implementará un sistema de reconocimiento facial con redes neuronales convolucionales, haciendo uso de una Raspberry Pi y un Neural Compute Stick para cumplir con los objetivos planteados de precisión, eficiencia y seguridad. El uso del Neural Compute Stick propicia una ventaja aún mayor, pues permite trabajar en el borde y no en la nube, por lo que los datos e información almacenada se almacenaría y trabajaría de forma local, sin riesgo de que se filtre en internet.
METODOLOGÍA
Se utilizó una laptop con procesador Intel, en la que se instaló Ubuntu 20.04 para el desarrollo de scripts y algoritmos para el sistema de reconocimiento facial. Esto con la finalidad de tener mayores ventajas al generar scripts, así como una mayor facilidad en el uso de OpenVINO, siendo también conveniente para una futura replicación/uso en Raspberry Pi OS con el Neural Compute Stick.
Se instaló OpenVINO y las dependencias necesarias, además de adquirir noción de su uso y, con base en ejemplos provistos por Intel, se desarrollaron scripts de python y bash para utilizarlos en conjunto con modelos preentrenados de reconocimiento facial y antispoof, para ejecutar fácilmente todo el proceso, desde la adición de nuevos rostros a la base de datos, hasta la ejecución del reconocimiento facial con la verificación de los resultados obtenidos para decidir si se brinda acceso a la persona en cuestión.
Se realizaron pruebas con 6 personas usando la webcam integrada del ordenador. Se obtuvieron resultados y se realizaron observaciones y conclusiones.
Queda pendiente para continuar con el proyecto la implementación con Raspberry Pi y el Neural Compute Stick, así como selección de materiales y componentes externos para la implementación del control de acceso (parte física). Cabe mencionar que lo realizado en computadora puede implementarse de manera sencilla en una Raspberry Pi junto con el Neural Compute Stick siguiendo los pasos indicados en la página de Intel, debido a que OpenVINO permite realizar una fácil conversión de los modelos entre los dispositivos de procesamiento de su marca. La implementación con dichos dispositivos permitirá obtener resultados más acertados, así como realizar mejoras en el algoritmo utilizado, acorde con los componentes que se decidan utilizar.
CONCLUSIONES
Para el algoritmo desarrollado en computadora, se concluye que este es funcional ya que su respuesta es rápida y tiene un alto porcentaje de eficiencia general (77%), con un porcentaje de reconocimiento facial de 100% que es mermado por falsos negativos del algoritmo antispoof. El sistema puede mejorarse para que presente una mejor eficiencia en cuanto a su precisión y su rapidez. Se usaron modelos preentrenados de redes neuronales provistos por Intel, por lo que podría desarrollarse un modelo propio que cumpla mejor con los objetivos específicos planteados para el sistema.
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las tecnologías de reconocimiento facial, inteligencia artificial y redes neuronales, además de experiencia en programación en python. Se adquirió también noción del uso de OpenVINO para el trabajo con modelos de redes neuronales.
Manzanares Muciño Andrea Angélica, Instituto Tecnológico de Sonora
Asesor:Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez
CARACTERIZACIóN DE SISTEMAS FOTOVOLTAICOS USANDO INTERNET DE LAS COSAS (IOT)
CARACTERIZACIóN DE SISTEMAS FOTOVOLTAICOS USANDO INTERNET DE LAS COSAS (IOT)
Manzanares Muciño Andrea Angélica, Instituto Tecnológico de Sonora. Asesor: Dr. Hector Ricardo Hernandez de Leon, Instituto Tecnológico de Tuxtla Gutiérrez
PLANTEAMIENTO DEL PROBLEMA
A día de hoy, en diversos lugares se están adoptando los sistemas fotovoltaicos para la generación y distribución de energía, por lo que el monitoreo y mantenimiento efectivo son importantes para conocer el rendimiento y rentabilidad de esos sistemas, esto comúnmente se realizaba trasladándose hasta el sistema fotovoltaico y revisando los medidores físicos o transmitiendo dicha información por cable, sin embargo, el IoT ha llegado para cambiar y facilitarnos estas acciones haciendo uso de comunicación desde el dispositivo al usuario y viceversa de forma inalámbrica y por medio de internet, por lo que la cuestión se encuentra en cómo se puede adaptar las tecnologías de IoT en un sistema fotovoltaico, cuáles son las variables de interés a medir en un sistema de energía solar, reconociendo los avances que otros investigadores han realizado en el campo e implementando un prototipo funcional a escala de este instrumento.
Existen dos opciones para las tecnologías IoT, una es construir un sistema fabricado completamente como un dispositivo IoT o que se le adapten sensores y actuadores de manera externa a un sistema o tecnología ya existente, para este trabajo se maneja la segunda opción haciendo uso de una celda fotovoltaicas común para representar un módulo fotovoltaico comercial, debido a que la primera opción se trataría de diseño y manufacturación de un módulo fotovoltaico que integre los componentes necesarios dentro del módulo mismo, lo cual no se es capaz de ejecutar con los recursos y equipamiento poseído.
De lo último mencionado, la construcción de este prototipo tiene la limitante de recursos e instrumentación. Por ser un trabajo realizado desde el hogar con recursos personales, el sistema será de baja potencia.
OBJETIVO
Diseñar y construir un prototipo electrónico que permita el monitoreo en tiempo real de las variables características de un sistema de generación fotovoltaico usando Internet de las Cosas (IoT).
METODOLOGÍA
1. Recopilación de información e investigación de la teoría de la recolección de energía basada en sistemas fotovoltaicos con monitoreo de variables características usando IoT. Verificar trabajos similares apoyados en registros e información (Estado del Arte).
2. Diseñar y construir un prototipo electrónico aplicado al sistema de recolección de energía fotovoltaica con acceso remoto de datos vía IoT.
3. Desarrollar un procedimiento de pruebas de funcionamiento del sistema de monitoreo fotovoltaico en su conjunto, mediante gráficas de comportamiento de sus variables características.
CONCLUSIONES
La tecnología IoT facilita en gran medida el monitorizar un artefacto o sistema, de haber sido una comunicación por cableado se habrían tenido más problemas de instalación por la distancia entre la zona con el sistema fotovoltaico y la zona de monitorización de la información.
El objetivo de medir variables de interés de un sistema de energía solar como lo son la temperatura, humedad, iluminación, voltaje de la celda fotovoltaica y voltaje de la batería, además de percibirlas por medio de internet fue alcanzado, sin embargo, se presentaron problemas por la estabilidad y ancho de banda del servicio de Internet en cuestión, lo cual es importante para no perder información, por ello también existen alternativas de comunicación inalámbrica cuando no existe buena recepción por Wifi, como es por medio de la red móvil.
Se demuestra que es una forma efectiva de monitorear la eficiencia de un sistema fotovoltaico desde la comodidad, al no tener que revisar el artefacto de forma física a menos de mostrarse mediciones anormales en las gráficas de información. Es entonces que, al analizar los datos de voltaje del panel fotovoltaico y voltaje en la batería, se determina que el prototipo de sistema fotovoltaico aislado de la red eléctrica no es el más eficiente, sin embargo, la parte del prototipo encargado de los sensores y comunicación a internet si lo es.
Las cuestiones que afectaron al sistema fotovoltaico aislado fueron haber sido instalado en el interior del hogar, pero, como ya se mencionó, corría riesgo encontrarse fuera, además, no este sistema no cuenta con un MPPT que se encargue de encontrar el punto óptimo de operación para entregar la mayor potencia posible a la batería. Por último, se puede agregar el hecho de ser un sistema estático, o sea, no tiene la capacidad de seguir la trayectoria del sol para aprovechar en mayor medida la irradiación solar.
Para la mejora de un sistema fotovoltaico con IoT, se recomienda realizar la medición de la corriente, de esta forma sería posible el cálculo de potencia proporcionada por la celda solar. Para el circuito de baja potencia implementado se necesitaría el INA219, es bueno para medir corrientes bajas. Para medir corrientes mayores a un Amper existen las opciones del sensor de corriente Efecto Hall y el no invasivo. El hecho de tener grandes voltajes en la celda no significa que la corriente incremente siempre, lo importante es la potencia que entrega, es por ello que se necesita del voltaje y la corriente.
En el mercado existen controladores de carga para sistemas fotovoltaicos de potencia media para el hogar, estos están preparados para conectar directamente un panel de energía solar a su entrada y suelen agregar un MPPT que es capaz de mantener al sistema en su punto óptimo de operación, en este proyecto se tuvo que armar un dispositivo similar con módulos existentes en el mercado sin MPPT. Es por lo anterior que el hecho de presentar un voltaje en las terminales no significaba que entregara suficiente corriente o potencia para cargar a la batería. Las celdas fotovoltaicas presentan una curva de potencia que cambia según la irradiación solar, además esta curva presenta un punto óptimo de operación y para llegar a este se coloca una resistencia equivalente con la cual se extrae la máxima potencia, por esto la importancia del MPPT.
El prototipo continua instalado y presentando situaciones y variables detectadas por las mediciones desde la plataforma ThingSpeak.
Manzanarez Castro Ilce, Universidad Autónoma de Guerrero
Asesor:Dr. Ramiro Ahumada Cervantes, Universidad Autónoma de Occidente
INDICADORES DE VULNERABILIDAD Y ADAPTACIÓN AL CAMBIO CLIMÁTICO
INDICADORES DE VULNERABILIDAD Y ADAPTACIÓN AL CAMBIO CLIMÁTICO
Manzanarez Castro Ilce, Universidad Autónoma de Guerrero. Asesor: Dr. Ramiro Ahumada Cervantes, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Los cambios en las condiciones climáticas han causado problemas significativos recientes a nivel local, principalmente a la población rural, ya que este sector depende considerablemente de las actividades económicas primarias para subsistir y tiene pocas alternativas laborales en la región. Por tal motivo, se requiere el diseño y aplicación de metodologías a pequeña escala, con la finalidad de detectar las áreas más vulnerables y los factores que influyen en su vulnerabilidad.. En la región se observan ingresos económicos medios, altos porcentajes de población menor de seis años, baja cobertura vegetal, viviendas en condiciones normales, existe una alta dependencia económica hacia las actividades primarias y las actividades generadoras de ingresos no son muy variadas.
METODOLOGÍA
La identificación de los indicadores se realizó considerando que estos pudieran ser aplicables al nivel de las localidades rurales y que la información para cuantificarlos pudiera ser obtenida de manera sencilla. La mayoría de los indicadores se obtuvieron de la literatura consultada en materia de vulnerabilidad al cambio climático (Shah et al., 2013; Chen et al., 2013; Monterroso et al., 2014; Ahmed et al., 2014; Ahumada-Cervantes, 2017), y algunos por la experiencia propia del equipo de trabajo.
En total se identificaron y utilizaron 21 indicadores; de estos, 5 corresponden al componente de exposición, 9 al componente de sensibilidad y 7 al componente de capacidad adaptiva. Cada uno de los componentes (exposición, sensibilidad y capacidad adaptativa) se dividió en tres subcomponentes con sus respectivos indicadores. Se describió cada uno de los indicadores para facilitar su comprensión y cuantificación
De los 21 indicadores, 6 se cuantificaron a partir de fuentes de datos ya existentes: el censo de población y vivienda 2020.
En este orden de ideas, se determinó un tamaño de muestra para la aplicación de 125 encuestas, la repartición por localidad se llevó a cabo de manera proporcional (Tabla 2).
Para desarrollar el índice de vulnerabilidad lo primero fue normalizar el valor de cada uno de los indicadores, para eliminar las diferentes escalas y hacerlos comparables entre sí
Lo siguiente fue asignar peso a las variables. En este sentido y con la finalidad de totalizar todas las variables y obtener el valor de influencia de cada indicador sobre la vulnerabilidad final (Eakin y Bojórquez, 2008; Monterroso et al., 2014), se decidió asignar el mismo peso a todos los indicadores.Posteriormente, se procedió a calcular el valor de cada uno los componentes (exposición, sensibilidad y capacidad adaptativa). El cálculo de cada uno de ellos se realizó mediante sumas algebraicasUna vez que se obtuvo el valor de los tres componentes, se utilizó la fórmula 6 para obtener el valor de vulnerabilidad ante el CC de cada comunidad.A mayor grado de exposición y sensibilidad mayor vulnerabilidad, a mayor grado de capacidad adaptativa menor vulnerabilidad. Es por ello que el componente de la capacidad adaptativa se resta de uno en la fórmula 6.Finalmente y con el propósito de jerarquizar el nivel de vulnerabilidad de cada comunidad, se llevó a cabo una normalización de los valores obtenidos de vulnerabilidad en una escala de 0 a 100. Posteriormente, los valores se dividieron en cinco intervalos y se les asignó un indicador cualitativo de vulnerabilidad. En este sentido, las comunidades cuyo índice corresponde a valores entre 0 y 20 se clasificaron con vulnerabilidad muy baja, los valores entre 20 y 40 corresponden a vulnerabilidad baja, los valores entre 41 y 60 son equivalentes a vulnerabilidad media, los valores entre 61 y 80 se traducen en vulnerabilidad alta y finalmente, las comunidades con valores superiores a 80 se asignaron con vulnerabilidad muy alta. El mismo método se utilizó para jerarquizar los componentes de exposición, sensibilidad y capacidad adaptativa.
Se desarrolló un análisis estadístico utilizando el coeficiente de correlación lineal de Pearson y la prueba t de Student con la finalidad de determinar los indicadores con mayor influencia en la vulnerabilidad.
La correlación lineal de Pearson see realizó con el propósito de determinar la relación lineal que guardan los indicadores individuales, los subcomponentes y los componentes con la vulnerabilidad y conocer el aporte de cada uno de ellos a la vulnerabilidad total.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la vulnerabilidad y adaptación al cambio climático y así ponerlos en práctica realizando indicadores de vulnerabilidad, así como un análisis estadístico, A mayor grado de exposición y sensibilidad mayor vulnerabilidad, a mayor grado de capacidad adaptativa menor vulnerabilidad., obteniendo los siguientes resultados de las comunidades rurales de Guasave Sinaloa.En nivel de exposición de las nueve comunidades, cinco de ellas son altas como son las cruces, las ladrilleras del burrión, el pitahayal sabinas del burrión y la esmeralda, dos de ellas muy alta es Vicente guerrero y Javier rojo Gómez, y dos muy bajas, Chino de los López y las Pitahayitas.En Nivel de sensibilidad de las nueve comunidades dos son muy altas, las cruces, y Vicente Guerrero, dos son medias, chino de los López y Javier Rojo Gómez, dos de ellas son bajas, Las ladrilleras del burrión y sabinas del burrión y tres son extremadamente bajas, el pitahayal y las pitahayitas y la esmeraldaEn nivel de capacidad adaptiva cinco comunidades como son chino de los López, Ladrilleras del burrión, el Pitahayal, pitahayitas y sabinas del burrión cuentan con un nivel muy alto, y dos comunidades Javier rojo Gómez y la esmeralda con un nivel alto, Vicente guerrero con un nivel bajo, y las cruces con un nivel muy bajo.En vulnerabilidad de las nueve comunidades dos localidades son muy altas como son las cruces y Vicente guerrero, mientras chino de los López, las ladrilleras del burrión, el pitahayal, las pitahayitas, sabinas del burrión, y la esmeralda están en un nivel muy bajo, y Javier rojo Gómez en un nivel medio.
Marcial Aparicio Carlos Moises, Instituto Politécnico Nacional
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PENETRACIóN DE IONES CLORURO EN CONCRETO ARMADO
PENETRACIóN DE IONES CLORURO EN CONCRETO ARMADO
Marcial Aparicio Carlos Moises, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
El concreto armado consiste en cemento, agua, agregados (arena y grava) y acero. Es un material muy utilizado en la construcción civil y habitacional en México, ya que es muy fácil de elaborar y económico.
Las estructuras de concreto reforzado al estar expuesto al ambiente, sufren un deterioro tanto en la pasta de concreto como en la armadura. Uno de los fenómenos que causa la corrosión del acero es la penetración de iones de cloruro presentes en el ambiente y con mayor presencia en los mares. Es un proceso que conforme más pasa el tiempo, afectará más la construcción hasta el punto de provocar fallas estructurales y en el peor escenario provocar el colapso de la edificación.
METODOLOGÍA
Los cloruros provocan la corrosión son los que se desplazan a través de la red de poros que tiene el concreto por naturaleza. Cabe resaltar que los iones cloruro que generan la corrosión del acero son los cloruros libres ya que estos son capaces de penetrar hasta el acero.
Es necesario que las construcciones tengan un recubrimiento considerable, ya que esto ayuda a que los cloruros tarden más en penetrar. Los cloruros pueden estar presentes desde el mezclado del concreto, ya que al añadir el cemento con agua, es posible que contengan iones cloruros. Otra causa es que la construcción al estar expuesta en la cercanía de los mares hará que haya una presencia mayor de iones cloruros. Estos iones penetran hasta el acero destruyendo una capa de óxido ferroso y/o férrico, dando inicio al proceso de corrosión.
Los iones penetraran el recubrimiento de la pasta de concreto hasta llegar a la capa de óxido ferroso y/o ferrico generando una corrosión del fierro. Generando consigo reacciones química de óxido-reducción.
Los factores que influyen en la penetración de los iones cloruros son:
Porosidad
Recubrimiento del concreto
Ambiente
Curado del concreto
Concentración de agua/cemento al preparar el concreto
La ley de Fick ayuda a conocer la concentración de iones cloruro. Se presentan tres muestras las cuales tienen una relación agua/cemento 0.66, 0.5 y 0.4 respectivamente. Al sumergirlas en un electrolito con iones cloruro y observar su comportamiento se aprecia que a mayor relación agua/cemento (a/c) habrá una mayor penetración de los iones cloruro trayendo consigo un daño mayor a la estructura.
CONCLUSIONES
La corrosión del acero se debe a muchos factores, pero la relación agua/cemento al elaborar los concretos y las condiciones del medio de exposición. Es determinante la cercania a a la línea de costa en la cantidad de iones cloruro que se depositan sobre la superficie del concreto y pueden penetrar al interior de la pasta.
Los resultados de la investigación fueron meramente teóricos debido a la presencia del virus SARS-CoV-2.
REFERENCIAS
VILLAGRÁN ZACCARDI, Y.A.V.Z. (2012). ESTIMACIONES del INGRESO DE CLORURO EN HORMIGÓN y de la DESPASIVACIÓN LOCALIZADA DE ARMADURAS (Doctor en Ingenieria). Universidad Nacional de La Plata, La plata. Recuperado de: https://core.ac.uk/download/pdf/301067852.pdf
Arteaga Larios, C.R.A.L. (2018). ESTUDIO DE LA PENETRACIÓN DE CLORUROS EN CONCRETOS ELABORADOS CON DIFERENTES TIPOS DE CEMENTO Y ADICIÓN DE NANOTUBOS DE CARBONO (Maestro en Construccion). Instituto Tecnologico de Chetumal, Chetumal, Quintana Roo, México. Recuperado de: https://outlook.office365.com/mail/deeplink
Valdes, C. V. A., & Martinez Hernandez, E. M. H. (2005). Influencia de la penetración de Iones Cloruros en el Hormigón Armado a diferentes relaciones Agua/Cemento y Condiciones de Exposición. REDALYC. https://www.redalyc.org/pdf/1816/181620511008.pdf
SantaMaria Diaz, N. K. S. D. (2006). Resistencia a los cloruros en el concreto armado. Resistencia a los cloruros en el concreto armado, 49-57. http://www.scielo.org.co/pdf/ring/n23/n23a6.pdf
Maria Marin Sonia, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo
LOS NANOMATERIALES EN LA INDUSTRIA TEXTIL.
LOS NANOMATERIALES EN LA INDUSTRIA TEXTIL.
Maria Marin Sonia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gerardo Antonio Rosas Trejo, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Nanociencia y Nanotecnología.
El concepto de nanotecnología estudia el diseño, caracterización, producción, aplicación de estructuras, controlando la forma y el tamaño nanométrico [1]. Esta importante e incipiente rama de la ciencia, está tomando cada vez más relevancia en las áreas de la medicina, construcción, textil, electrónica, entre otras.
Métodos de preparación de los nanomateriales.
En la actualidad existen varios métodos de preparación, la forma a preparar las nanopartículas depende de los objetivos que se quieran alcanzar; es necesario tomar en cuenta la estabilidad física y química del agente activo, toxicidad, así como otras características [8].
Las técnicas de preparación de nano materiales se pueden dividir en dos top-down es decir descendentes o bottom-up ascendentes; el método descendente consiste en la división del material hasta llegar a la escala nanométrica; en esta técnica, se pueden usar procesos físicos tales como molienda o desgaste mecánico, métodos químicos, la volatización en conjunto con la condensación [9]. Básicamente, la técnica descendente consiste en regresar un material con dimensiones micrométricas o de mayor tamaño a escala nano. Por otra parte la técnica ascendente consiste en la fabricación de nanomateriales a través de la utilización de los átomos o entidades moleculares ya sea en fase gaseosa o solución para la preparación o edificación del nanomaterial [9].
METODOLOGÍA
Aplicaciones en la industria textil.
Dentro de la industria textil la nanotecnología es una ciencia de gran importancia para la producción de nuevos productos con nuevas propiedades extraordinarias [18]; se ha logrado el desarrollo de nano fibras, nano polímeros, nanocompuestos, nano hilos, nanotubos, nano colorantes, nano aditivos entre otros; su aplicación se puede dividir según los procesos productivos de la industria textil es decir: nanotecnología en fibras, nanotecnología en hilatura y tejido, y nanotecnología en acabado [19]. En la industria textil se han utilizado nanopartículas de plata, para lograr un textil con propiedades antimicrobianas; las partículas de óxido de zinc (ZnO) han logrado propiedades antibacteriales y protección ultravioleta en telas de algodón; también se han utilizado nanopartículas de óxido de silicio (SiO2) y plata (Ag) dando propiedades de superhidrofilicidad y antibacteriales a la lana, mientras que en algodón le otorga propiedades de hidrofobicidad; las nanopartículas de óxido de titanio (TiO2) lograron dar propiedades de hidrofobicidad en seda, propiedades de autolimpieza en poliéster y algodón [20]. Estas propiedades que logran obtener los textiles por las nanopartículas incrementan la producción mundial; sin embargo, en Latinoamérica la producción se puede considerar como marginal dado que en varios países como en el caso de México se desarrolla lentamente [21].
Tipos de sustratos textiles.
Las características que se otorguen al sustrato textil dependerán de la utilización que se le quiera dar; existen varias presentaciones de los textiles, la clasificación más notoria que se le otorga es según su origen de la fibra: pueden ser de origen natural o hechas por el hombre; entre las de origen natural encontramos las celulósicas, las proteicas y las minerales; las celulósicas pueden encontrarse en semillas (algodón), tallo (lino, ramio, yute, cáñamo), hoja (sisal, abacá) y fruto (coco); mientras que las proteicas pueden ir desde lana (borrego), pelo (vicuña, llama, camello) y filamentos (seda); por otro lado se encuentran los minerales (asbesto). Entre las hechas por el hombre o modificadas por él, se encuentran las artificiales (lyocell) y sintéticas; entre las sintéticas podemos encontrar poliuretanos (spandex, lycra), poliolefinas (polietileno, propileno), polivinílicas (cloruro de vinilo, alcohol de polivinilo), poliacrilonitrilo (orlón), poliamidas (nylon), polietiericas (dacrón) [22].
CONCLUSIONES
Tipos de nanopartículas aplicadas en la industria textil.
Las nanopartículas que pueden ser aplicadas a los textiles, dependen de la utilidad final del producto; en la actualidad se han logrado propiedades como repelente de insectos, antimicrobianos, tintes, ignífugos, cosméticos, efectos policromáticos, termo cromáticos, etc. [23]. Entre los nanomateriales que pueden ser agregados a los textiles tenemos a los nanoalambres de plata para sustrato de algodón, el cual da cualidades de alta conductividad eléctrica, resistencia a la luz ultravioleta, actividad antibacteriana y super-hidrofobicidad. Las nanopartículas de dióxido de titanio para sustratos como algodón y lana; da propiedades semiconductoras, foto catalíticas, antibacteriana y superficie auto-limpiable; por otro lado, las nanopartículas de cobre en nylon pueden dar características anti-funguicidas y antimicrobianas. Las nanopartículas de oro en lana seden propiedades como la resistencia a la luz ultravioleta y colores más estables. Las nanopartículas de plata son usadas generalmente en algodón, poliéster, poliamida, seda, nylon entre otras sintéticas; para lograr actividad antibacteriana y anti-funguicida. Las nanopartículas de óxido de titanio y oxido de silicio para sustratos de poliéster y algodón, ofrecen excelentes propiedades ópticas, estabilidad térmica, mayor tiempo de vida, baja toxicidad y protección ultravioleta. Las nanopartículas de óxido de aluminio en poliéster logran una mayor resistencia mecánica, gran capacidad de carga y desgaste [20].
Conclusiones
Se conoció que existe una variedad de nanopartículas que pueden ser utilizadas en la industria textil con diferentes aplicaciones dependiendo del tipo de sustrato utilizado.
Marin Rodriguez Guillermo, Universidad Veracruzana
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS DE PAVIMENTOS CON CONCRETO HIDRáULICO Y ENREJADO MODULAR DE PLáSTICO
ANáLISIS DE PAVIMENTOS CON CONCRETO HIDRáULICO Y ENREJADO MODULAR DE PLáSTICO
Marin Rodriguez Guillermo, Universidad Veracruzana. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Actualmente en Veracruz el sistema de pavimentos más frecuente es el concreto hidráulico, utilizado en la restauración de avenidas, carreteras y en ciertas calles principales de pocas colonias. Es frecuente ver pavimentos en concreto hidráulico debido a su sencilla construcción y eficacia comprobada, sin embargo, por las variables climáticas encontradas en Veracruz, este tipo de pavimentos llegan a agrietarse y expandirse por el calor y la humedad. Podemos optimizar este sistema convirtiéndolo en un pavimento permeable, ecológico y flexible, agregando Adoplastic al diseño del sistema, este, es una rejilla modular ensamblable con alta resistencia de carga brindando soporte en la estabilización de suelos, cuyo objetivo es reducir el volumen total del concreto utilizado y eliminando por completo el acero, reduciendo el costo total de la obra. (Adoplastic.mx, 2021)
El municipio de Medellín en Veracruz ha autorizado este tipo de sistemas para la pavimentación de sus calles, sin embargo, al ser un sistema innovador y nuevo no es utilizado en otros municipios del estado. Parte del objetivo de este documento es analizar esta tecnología y concluir su eficiencia
METODOLOGÍA
Diseño del sistema
La rejilla de plástico modular se coloca previo al colado del concreto para pavimentos, dicha rejilla modular es prefabricada con un área total estándar de 40cm x 40cm, con un espesor de 4 cm y la capacidad de carga de este módulo es de 200 toneladas/m2 con una vida útil calculada de 25 años. Este módulo es diseñado y laborado para piso por lo tanto su resistencia a comprensión es de 430 kg/ cm y una resistencia de temperatura -50 a 80 grados centígrados. Se puede solicitar el presupuesto y el número de rejillas que se utiliza por metro cubico de concreto en la página del proveedor oficial.
Aplicación y usos del sistema
Se inicia con la preparación y compactación del terreno, se debe asegurar que logre un 95% con PVSM, estableciendo niveles y límites de trazo en el área de instalación. Es importante contar con los resultados previos del estudio de mecánica de suelos del lugar donde se llevará a cabo la instalación de este sistema. Para el correcto funcionamiento de las rejillas se debe contar con una base de un mínimo de compactación al 95%.
Se inicia la colocación y armado de la rejilla a partir de la esquina izquierda del área donde se instalará, asegurándose de colocar los machos de la rejilla apuntando a la parte exterior del área del proyecto. Se coloca de izquierda a derecha. En caso de contar con cuadrillas de trabajadores, se pueden armar módulos de hasta 5 rejillas por persona para poder hacerlo de manera descendente. Las rejillas deben quedar perfectamente niveladas entre sí para lograr un acabado uniforme. En caso de que la superficie compactada no esté perfectamente nivelada se puede utilizar un poco de arena de construcción para nivelar cada una de las rejillas.
Antes de que se instale la rejilla, el área necesita contar con las guarniciones perimetrales ya que la misma debera estar contenida. En caso de no contar con delimitación física del área o guarniciones externas se deberán hacer guarniciones ahogadas alrededor del perímetro del área de instalación. En ambos casos se debe dejar una junta constructiva alrededor de todo el perímetro de por lo menos 2cm, se recomienda rellenar esta junta constructiva con alguna colchoneta o material elástico que permita el trabajo de dilatación y contracción de la plancha de concreto con la que se construirá, se recomienda por cada 15 metros lineales de instalación de la rejilla de plástico. Se humedece el área y la rejilla donde se aplicará el concreto.
Se rellenan las rejillas de plásticos con la mezcla de concreto a ras del borde superior de la rejilla. El excedente de concreto se deberá quitar mediante el proceso.
Posterior al colado una vez fraguado el concreto, este se humecta con agua o con producto de línea para el proceso de curado de acuerdo con las especificaciones del fabricante.
¿Por qué es un piso ecológico?
Se fabrica con plástico 100% reciclado.
El piso es permeable, por lo que el agua regresa al subsuelo, preservando así el recurso más importante del planeta.
En aplicaciones permeables no genera calentamiento del suelo como el concreto y asfalto.
En aplicaciones de concreto reduce considerablemente el impacto de la radiación.
Su uso en la construcción de vialidades urbanas y residenciales mejora la imagen y temperatura del entorno.
Las rejillas de plástico se pueden rellenar con materiales que permiten la permeabilidad tales como grava, gravilla y pasto. • Contribuye en obtener beneficios sociales, ambientales y económicos. (AIP rejilla de piso, 2021)
CONCLUSIONES
Al ser un sistema de plástico, este puede ser reciclado, siendo un material ecológico, sustentable y su alta resistencia de cargas y buen comportamiento a la compresión lo hace optimo como tecnología aplicada en asfaltos, Al usarse con concreto, genera ahorros importantes en su volumetría, ya que el grosor de la cama de concreto baja a 4 cm, y ya no se necesita usar malla, ni varilla.
Brinda una solución rentable en el desarrollo de infraestructura rural y urbana, su fácil aplicación optimiza los tiempos de trabajo por su diseño de ensamblaje.
Agradecimientos
Al Dr. Molina Navarro Antonio por su ponencia titulada Comportamiento térmico del concreto hidráulico en Veracruz expuesta el día 29/07/2021 en el congreso de verano de investigación.
Referencias
Adoplastic.mx. (26 de 07 de 2021). Obtenido de https://www.adoplastic.mx/
AIP rejilla de piso. (2021). Obtenido de https://pisopermeable.com/
Marín Velásquez Eliana Salomé, Universidad Autónoma de Manizales
Asesor:Dr. Lloyd Morris Molina, Universidad Católica de Pereira
ACCIONES PARA EL FORTALECIMIENTO DE LA COMPETITIVIDAD EN INICIATIVAS CLÚSTER, MEDIANTE LA UTILIZACIÓN DE LA ADMINISTRACIÓN DE OPERACIONES
ACCIONES PARA EL FORTALECIMIENTO DE LA COMPETITIVIDAD EN INICIATIVAS CLÚSTER, MEDIANTE LA UTILIZACIÓN DE LA ADMINISTRACIÓN DE OPERACIONES
Felix Alba Silvestre, Tecnológico de Estudios Superiores de San Felipe del Progreso. Marín Velásquez Eliana Salomé, Universidad Autónoma de Manizales. Asesor: Dr. Lloyd Morris Molina, Universidad Católica de Pereira
PLANTEAMIENTO DEL PROBLEMA
La competitividad indica cómo se han de administrar los recursos de las empresas, para maximizar su productividad y hacer frente a las exigencias de un mercado cambiante sujeto a procesos de globalización y expansión de las empresas.
La Secretaría de Planeación Departamental de la Gobernación de Risaralda en su Visión 2032, plasmados en el Plan Regional de Competitividad (PRC), por medio de los análisis propuso que la región del Eje Cafetero conformada por Risaralda y otros departamentos amerita encontrar una dinámica económica significativa, razón por la cual el enfoque del gobierno regional es hacia el desarrollo endógeno para el
mejoramiento de las capacidades regionales y la consolidación del clúster
Metalmecánica-Turismo-Agroindustria
El mayor reto de este proyecto es ayudar al fortalecimiento de las actividades realizadas por las MiPymes de Risaralda para formar una proyección creciente de competencia y apogeo a nivel departamental estableciendo técnicas de pronósticos y planeación agregada que capten las necesidades del sector empresarial y que logren la relación entre industria y academia con el objetivo de garantizar un enriquecimiento mutuo que permita la generación de ideas y el alcance de objetivos.
METODOLOGÍA
Este estudio fue realizado en el marco del proyecto: Acciones para el fortalecimiento de la competitividad en MiPymes - Risaralda, mediante la utilización de la administración de operaciones, proyecto financiado por la Universidad Católica de Pereira; el cual, tiene como objetivo el desarrollo del módulo de operaciones en software empresarial que contenga los tópicos de Pronósticos y Planeación Agregada; también enfatiza en la necesidad de realizar un contacto con el sector empresarial para la realización de entrevistas para conocer la manera en la que realizan su proceso productivo.
Para la realización del módulo de operaciones en software empresarial, se efectuó una revisión bibliográfica sobre los tópicos Pronósticos y Planeación Agregada en diversas herramientas de búsqueda de información como: Science Direct, Redalyc, Scielo, Jstor, Google Scholar. La información adicional fue encontrada en los recursos bibliográficos de la biblioteca de la Universidad Católica de Pereira. La información recolectada en la búsqueda se utilizó para un artículo de revisión y el modelo se efectuó el lucid chart con formato preguntas con de objetivo de generar un proceso adecuado para cada una de las empresas.
Para el contacto con el sector empresarial, se realizaron contactos vía telefónica a la Base de Datos entregada por la Cámara de Comercio de Dosquebradas compuesta por múltiples empresas de los sectores de: Alimentos, Metalmecánicos, Confección, Muebles, Eléctricos, entre otros, con el objetivo de solicitar un espacio presencial, virtual o telefónico para la realización de la guía de entrevistas aprobada por parte del comité técnico del proyecto que contenía 6 diferente tópicos que permitirán mostrar de forma clara la manera en la que los empresarios realizaban sus procesos productivos. El análisis de datos se generó por medio de una matriz que permitió hacer seguimiento a las respuestas de las empresas y que es la base para la realización de los artículos de revisión.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos que permiten la implementación de los tópicos de Pronósticos y Planeación Agregada en MyPimes, siendo un factor de suma relevancia para las profesiones de los pasantes. A su vez, se generaron modelos interesantes que permiten acercar el conocimiento técnico de la académica con la experiencia adquirida en algunos casos de manera empírica que poseen las MyPimes de Dosquebradas de los distintos sectores productivos.
Para el artículo de revisión realizado sobre Planeación Agregada se revisaron 53 artículos que poseen relación con el tema. La construcción del articulo está en curso y se considera un aporte fundamental para la investigación de este tópico.
El modelo de planeación agregada se efectuó con base en la revisión de la literatura y teniendo como referencia las encuestas realizadas con el objetivo de generar un modelo que se acerque a las necesidades de los empresarios, se tuvo en cuenta, los espacios con los que cuentan en la empresa, tanto para el posible almacenamiento de producto terminado (cambiar niveles de inventario), como para la colocación de nuevos puestos de trabajo (trabajadores a tiempo parcial). Los intereses del sector relacionados con la intención de despedir o contratar colaboradores, teniendo en cuenta la dificultad para la consecución de mano de obra (variar el tamaño de fuerza laboral), entre otros aspectos que permiten realizar un modelo que se acerque a las necesidades y entendiendo las limitaciones de las MiPymes.
En el acercamiento con las empresas pudimos observar discrepancias entre la Base de Datos emitida por la Cámara de Comercio de Dosquebradas y la realidad; inicialmente se contaba con 282 registros, de los cuales después de eliminar los repetidos, las empresas cerradas y trasladadas a otros departamentos, se logró observar que se generó un descenso de 17,73% ocasionando que la población de empresas sea 232 y que los tamaños de muestra varíen. Se hicieron 216 llamada y se entrevistaron 25 empresas de los sectores de Alimentos, Confección, Metálicos y Muebles de las 55 que se habían proyectado hacer durante todo el proyecto, por lo cual este resultado puede evidenciar que se obtuvo un gran avance que permitió tener un cumplimiento de 45,45% en las encuestas a realizar y de 93,10% en las llamadas a realizar.
Mariñelarena Gómez Ezequiel, Instituto Tecnológico de Nuevo Laredo
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PROPUESTA DE GUíA METODOLóGICA SEIS SIGMA PARA PYMES EN áREA DE SERVICIO
PROPUESTA DE GUíA METODOLóGICA SEIS SIGMA PARA PYMES EN áREA DE SERVICIO
de Lira Rivera Alanis Samara, Instituto Tecnológico de Nuevo Laredo. Mariñelarena Gómez Ezequiel, Instituto Tecnológico de Nuevo Laredo. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se centró en conocer las buenas prácticas documentadas de la implementación de seis sigma en el sector de servicios, desde el punto de vista Nacional e Internacional, asimismo, se diseñó una propuesta de una guía que pueda servir de base para la implementación de la metodología DMAIC. Por lo que, el problema que se abordó fue la necesidad de difundir la metodología seis sigma de manera genérica en los distintos sectores, entre ellos el de servicios; ya que se identificó la falta de instrumentos de dominio público para implementar la metodología 6 sigma en las PYMES, de manera sencilla y práctica.
METODOLOGÍA
La metodología es de tipo cualitativa, ya que la intención fue conocer la difusión de la metodología seis sigma como estrategia competitiva en los casos documentados, contiene una revisión de 50 marcos teóricos de artículos científicos las buenas prácticas de calidad seis sigma documentadas a nivel nacional e internacional. Asimismo, comprende la integración de las buenas prácticas en un cuadro comparativo y el diseño de una propuesta de guía metodológica para en un futuro fomentar su implementación de una forma sencilla y práctica.
CONCLUSIONES
Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma a nivel nacional e internacional. Asimismo, una propuesta de guía metodológica para fomentar la implementación de seis sigma en el área de servicios.
Marino Escandón Perla Eulogia, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
OBTENCIÓN DE MATERIALES COMPUESTOS A PARTIR DE TELA DE MEZCLILLA POSCONSUMO Y RESINA EPOXI.
OBTENCIÓN DE MATERIALES COMPUESTOS A PARTIR DE TELA DE MEZCLILLA POSCONSUMO Y RESINA EPOXI.
Marino Escandón Perla Eulogia, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Efraín Rubio Rosas, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
Actualmente la industria textil se posiciona como la segunda industria más contaminante a nivel mundial. La contaminación por la industria textil se puede encontrar desde la fase de producción de una fibra ya que para ello se hace uso de la tierra, fertilizantes y pesticidas que con el paso del tiempo producen tierras infértiles. (Dobilate, Mielda, Mileriene, & Saceviciene, 2017). El exceso de recursos e impacto ambiental son los principales factores producidos por la tendencia de la moda rápida, comúnmente llamada Fast-fashion; en la cual no existe un correcto manejo de los desechos textiles o una segunda vida para aquellos que aún son útiles.
Greg, 2019 en su artículo titulado “Environmental Prospects for Mixed Textile Recycling in Sweden” hace referencia a que la producción per cápita de fibra a nivel mundial ha aumentado de 5,9 kg en 1975 a 13 kg en 2018, un incremento debido a la sobredemanda generada por una sobrepoblación. De la cual en países como: “Estados Unidos, generan aproximadamente 40 kg de desechos textiles anualmente por persona; para China, la cifra correspondiente es de 19 kg. Suecia es un país rico en el que el consumo de textiles ha alcanzado los 22 kg por persona y año”.
En la actualidad, un gran número de residuos textiles se eliminan mediante incineración y entierro, lo que provoca una grave contaminación ambiental. Por ejemplo; la producción de un par de jeans requiere alrededor de 1800 galones de agua; una camiseta cuesta 700 galones. Tratar volúmenes tan grandes de aguas residuales es costoso, si es que se trata. Por lo tanto, el reciclaje de desechos textiles en productos con valor agregado, es un tema de interés. La importancia del reciclaje y biodegradabilidad de las fibras textiles ha surgido como una forma de contribuir significativamente a la reducción de impacto ambiental; al ahorro de agua, energía y por supuesto ahorro en los costos de producción. El presente proyecto surge de la inquietud de re-utilizar desechos pos consumo de prendas de mezclilla y darles una aplicación útil. Esto debido a la demanda de la fibra en la creación de mezclilla, de tal manera que la industria textil el algodón junto con las fibras de poliéster se ha convertido en fibras clave que actualmente constituyen el 72% del consumo mundial de las fibras textiles. (Asaadi, y otros, 2016).
METODOLOGÍA
METODOLOGÍA
Para el desarrollo práctico de este proyecto se pretende utilizar tela de mezclilla de composición 100% algodón y caracterizarla mediante microscopia óptica, microscopia electrónica de barrido y espectroscopia en el infrarrojo.
Actualmente se ha realizado el reciclaje de algodón mediante procesos mecánicos los cuales han sido un método útil pero no del todo eficiente ya que según la bibliografía consultada se genera una menor calidad y resistencia de las fibras inclusive en las condiciones ideales por ejemplo; se generan fibras de longitud muy cortas o bien cadenas de celulosa des-polimerizadas que una vez recicladas es necesario mezclar con otras fibras sintéticas como el poliéster o fibras vírgenes, haciendo que el reciclaje sea intrascendente. Dentro del reciclaje de fibras textiles existen otros métodos menos invasivos con las propiedades de las fibras como lo es el reciclaje químico. El reciclaje químico del algodón puede considerarse como la disolución de las fibras de algodón o sus mezclas con otros materiales y su posterior regeneración, por ejemplo, hilado en fibras vírgenes. (Asaadi, y otros, 2016)
Dentro de la consulta de bibliografía se halló la aplicación del reciclaje químico para desecho de fibras de algodón pos consumo que proponen los autores (Wangcheng, y otros, 2018) en su artículo “Eco-friendly post-consumer cotton waste recycling for regenerated cellulose fibers” utilizando disolventes alcalinos como hidróxido de sodio /urea e hidróxido de litio para producir fibras regeneradas dando como resultado fibras con propiedades de tracción comparables a las fibras comerciales de rayón, las cuales se producen mediante la pulpa de madera por métodos no ecológicos. Este estudio muestra como utilizando camisetas de algodón pos consumo se puede llegar a obtener materia prima para hilar nuevamente fibras de desechos pos consumo, durante este estudio también se resalta la utilización de residuos que contenían color, los cuales al ser reciclados podían mantener el mismo color y con ello evitar el proceso de un nuevo teñido.
Con anterioridad se han efectuado estudios sobre mezclas de mezclilla deshilada con diversos aglutinantes a base de fécula de maíz con agua o bien adhesivos vinílicos. En este informe se dan a conocer algunos avances preliminares con mezclas de este material textil con resina epoxi. Se prepararon muestras a base de mezclas de este material textil deshilado como refuerzo o carga del compuesto por mezclado manual con resina epoxi, con porcentajes de 4, 6, 8 y 10 % en peso. Los materiales fueron analizados por microscopia óptica, microscopia electrónica de barrido, espectroscopia en el infrarrojo y se evaluó su resistencia a los esfuerzos de tensión. Se observó que con el aumento del contenido de fibra textil la resistencia a la tensión aumentaba significativamente. De esta forma se tendrá una aproximación de partida a experimentos futuros con mezclas de fibras de mezclilla con otros materiales poliméricos termoplásticos con miras a utilizarse en el desarrollo de nuevos materiales de refuerzo.
CONCLUSIONES
CONCLUSIONES
Los textiles regenerados contribuyen a soluciones prácticas y económicas que toleran un ciclo textil cerrado; es decir un producto textil que después de cumplir con su vida útil se pueda utilizar inclusive para dar vida a otro producto con alto valor añadido y con alta calidad. Para llegar a obtener resultados satisfactorios en estos dos factores es necesario conocer y aplicar el método más conveniente de reciclaje de productos textiles y con ello poder determinar la aplicación final del material compuesto de fibra de mezclilla pos consumo y una resina epoxi. Durante la estancia se analizaron resultados reportados en bibliografía existente sobre materiales textiles regenerados pero la parte experimental para determinar la aplicación final de los materiales que se puedan obtener aún no ha sido completada por la falta de condiciones de experimentación. Se tiene planeado que una vez se cuenten con las condiciones para ingresar a los laboratorios pueda llevarse a cabo y completar de esta manera el proyecto satisfactoriamente.
Marquez Obeso Joceline, Universidad Autónoma de Baja California
Asesor:Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú
ESTUDIO DE LA APLICACIóN DE LA TECNOLOGíA BLOCKCHAIN EN EL COMERCIO INTERNACIONAL: CONTRIBUCIóN DE LA TECNOLOGíA BLOCKCHAIN A LA OPTIMIZACIóN DE LAS OPERACIONES DE COMERCIO INTERNACIONAL EN LAS PYMES COLOMBIANAS
ESTUDIO DE LA APLICACIóN DE LA TECNOLOGíA BLOCKCHAIN EN EL COMERCIO INTERNACIONAL: CONTRIBUCIóN DE LA TECNOLOGíA BLOCKCHAIN A LA OPTIMIZACIóN DE LAS OPERACIONES DE COMERCIO INTERNACIONAL EN LAS PYMES COLOMBIANAS
Marquez Obeso Joceline, Universidad Autónoma de Baja California. Asesor: Mg. Cielo Ester Marriaga Gonzalez, Universidad del Sinú
PLANTEAMIENTO DEL PROBLEMA
Según los datos estadísticos Colombia cuenta con 2.540.953 mipymes, que representan el 90% de las empresas del país, y producen solo el 30% del PIB y emplean más del 65% de la fuerza laboral nacional. (Economía, 2018)
El 50% de las empresas exportadoras en el país corresponde a pequeñas y medianas empresas (Pyme), pero apenas 18,6% de ellas vende con éxito en el exterior. (Montoya et al., 2010)
La principal problemática se centra en que las pymes colombianas cuentan con un alto índice de producción en materia prima, las cuales son colocadas en los mercados nacionales sin ser transformada y esto provoca uno de los grandes retos que tienen las pymes en el mercado para lograr competitividad y sostenibilidad.
Otro de los factores que hace complejo el escenario es el precio del producto final incrementado gracias a la existencia de intermediarios en los métodos de pago como lo son las entidades bancarias, puesto que se incrementa los costos en base a su comisión por uso y esto representa un aumento en el precio del producto final entre otros factores como altos fletes, costos portuarios y aduaneros en los mercados internacionales ya que lo métodos de pago más utilizadas por las pymes colombianas en las transacciones de comercio internacional son giro directo, giro anticipado y carta de crédito.
De acuerdo con lo anterior es por ello por lo que sería adecuado el uso de tecnología emergente como lo es el blockchain en las pymes colombianas para la reducción de costos de operaciones y a su vez aumentar el valor añadido a la empresa.
La tecnología blockchain es una de las más innovadoras que se ha desarrollado en la última década.
Las propiedades más importantes para describir cómo funciona la tecnología blockchain son las siguientes: es de carácter descentralizado, pues esta no requiere un organismo o entidad central de confianza, es una tecnología distribuida y de consenso, porque parte de unas reglas claras y un consenso sobre la validez de las transacciones y su estado, abierta tal que cualquier usuario puede hacer uso de ella y finalmente segura gracias a la verificación criptografía. (Navarro, 2017)
De acuerdo con esta investigación la aplicación de la tecnología Blockchain ayudaría a las pymes a entrar con mayor facilidad y mejores resultados en el tema de logística entre el comercio internacional, gracias a que su aporte y usos pueden ser tan extensos y puede ser utilizada en cualquier industria. Sus múltiples usos como la moneda digital bitcoin, los contratos inteligentes, almacenamiento en la nube, la identificación, supply-chain, entre muchas más ayudarían a crear valor logrando:
La optimización de operaciones
Reducciones de tiempo en tramites
Eliminación de terceros en proveedores, intermediarios entre otros.
Manejo de transacciones, transparentes y confiables.
Ahorro en dinero por lo anteriormente dicho.
Entre otros más beneficios logrando posicionar a las pymes colombianas a nivel global para su aumento en el comercio internacional.
METODOLOGÍA
Para la realización de la investigación se siguieron las siguientes fases:
Fase 1. Identificación de la justificación de la investigación documental del Tema:Con el objetivo de comenzar a recopilar información documental existente sobre el tema, para obtener una visión y perspectiva del estado actual del tema o problema abordar con ayuda de una capacitación breve sobre revisión bibliográfica, base de datos, y herramientas de búsqueda.
Fase 2. Recopilación de material: Para poder determinar cuáles artículos serán de ayuda para la investigación los criterios de selección serán:
Relevancia: Es decir aquella información que encaja perfectamente con la pregunta de investigación.
Calidad: Se determina por diversos factores, se recomienda como norma general usar artículos que se hayan incluido en revistas importantes, el número de citaciones del articulo o el libro por otros autores académicos.
Fase 3. Revisión del material: Después de la lectura de los artículos seleccionados se elaborará un archivo donde se incluirá el nombre del artículo, relevancia, numero de citaciones y nombre del buscador o base de datos en donde se extrajo.
CONCLUSIONES
Un gran ejemplo de aportación de la utilización del blockchain en Colombia es en la industria agrícola, La Federación Nacional de Cafeteros junto a otros países como Brasil y Costa Rica forman parte del proyecto Thank my Farmer. Donde se encuentra la aplicación que trabaja con blockchain para dar solución a los problemas que enfrenta el sector cafetero y logra acercar a los consumidores de los productores mediante un sistema de confianza. Esta herramienta optimiza la eficiencia, equidad y trazabilidad de la cadena de suministros del café, por medio del QR en las etiquetas, se puede rastrear todo el proceso que tuvo el café. (Zapata Arias, C., & Ocampo Arredondo, 2020)
Cabe mencionar que después de realizar un análisis de toda la información puedo omitir mi opinión en que el estudio de la tecnología blockchain será de mucha ayuda para el desarrollo de las pymes no solo en Colombia sino también en México como también en Latinoamérica. Ya que sus múltiples usos lograran posicionar en un alto nivel por el valor añadido que se lograra obtener para estas mismas.
Sin embargo, que aunque en muchos gobiernos se está realizando un esfuerzo para aplicar la tecnología en todos los sectores de la industria lo cual facilitaría el uso de la misma por las pymes aún quedan retos grandes ya que al ser una red descentralizada requiere un marco normativo legal bien estructurado, que permita transparencia, seguridad, confianza en las operaciones y transacciones que demanda el comercio internacional, al ser un trabajo extenso no se puede tener resultado final como tal.
Por último, puedo destacar que mi aporte a esta investigación logro crear en mi un mayor interés por la investigación, una gran curiosidad en el tema, ya que parte del trabajo fue revisar una gran cantidad de artículos, los cuales fueron de manera muy general para poder entender el tema, hasta llegar a lo particular centrado a la idea del proyecto.
Martin del Campo Cruz Jorge Miguel, Universidad de Guadalajara
Asesor:Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo
AMAINA RESORTS. ARQUITECTURA EDIFICADA EN MADERA
JORGE MIGUEL MARTIN DEL CAMPO CRUZ
AMAINA RESORTS. ARQUITECTURA EDIFICADA EN MADERA
JORGE MIGUEL MARTIN DEL CAMPO CRUZ
Martin del Campo Cruz Jorge Miguel, Universidad de Guadalajara. Asesor: Dr. Alejandro Guzmán Mora, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El proyecto nace con la necesidad de generar turismo y crear un complejo de tiempos compartidos en la localidad de Chacala, Nayarit. A pie de playa dentro de la bahía de chacala la integración del predio, la vegetación existente y la innovación con las técnicas de construcción en madera son importantes para la dicha integración al pueblo Galería como se tiene considerado por su biodiversidad existente. Con la finalidad de respetar y ayudar al crecimiento de la zona.
METODOLOGÍA
En el diseño de la estancia hemos combinado recursos de aprendizaje pasivos, tales como la revisión de videos,lecturas, investigaciones y charlas con recursos de aprendizaje activos, en los que la participacion del Doctor como de los alumnos fue una tarea importante para tener una enriquecida estadia en el programa delfin.
Es importante tener en mente que el aprendizaje es aquello que ocurre tras un esfuerzo consciente de investigar, analizar, reflexionar y compartir los temas de interés, por tanto estas 4 acciones que realizamos a lo largo de la estancia se consideraron bastante importante y profesional. Tomando cada charla y cada recurso logramos contener lo importante de esta estadía y así comprender lo que se venía realizando.
Teniendo en cuenta las siguientes consideración al rededor de 10 sesiones se abordaron los temas de los nuevos sistemas constructivos en madera, las observaciones que estos pudieran presentar, la correcta integración de los materiales en la zona que decidimos trabajar, como generar un construcción sostenible en la ciudades o zonas a las que se implementen estos sistemas y realizar la contribución con el medio ambiente. Al mismo tiempo de la mano llevamos a cabo estas el trabajo de análisis ya adentrándonos a lo que sería el proyecto, replanteamiento de los materiales y sistemas constructivos, integración en el contexto, se plantearon estrategias que ayudaran a la aprobación del proyecto y tomando en cuenta cuál sería el sistema más adecuado para la construcción del proyecto.
CONCLUSIONES
Para finalizar con el trabajo se planteó que el nuevo destino turístico de la zona y el potencial de crecimiento que tiene así como la implementación del nuevo material (Madera) tomará forma con el sistema constructivo planteado (Platform frame) será de bastante importancia la consideración de nuevos materiales y nuevos sistemas para la construccion, asi como la implementación de nuevas estrategias ambientales, disminuir la emisiones de carbono proporcionadas por el sector de la construcción, promover la construcción en madera, crear una conexión entre las zonas rurales y urbanas y contribuir a una urbanización sostenible así como aumentar la productividad sostenible del sector de la construcción y la integración de nuevos sistemas con el medio ambiente son parte lo que se considero para lograr la eficiencia y que el proyecto se llevará a cabo en la zona de Nayarit.
Martinez Alvarez Jose Paola, Universidad Autónoma de Occidente
Asesor:M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
Cota Mexia Angel Guillermo, Universidad Autónoma de Occidente. Martinez Alvarez Jose Paola, Universidad Autónoma de Occidente. Parra Polo Carlos Alberto, Corporación Politécnico de la Costa Atlántica. Pérez Luna Sophia Alexandra, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
RESUMEN
Durante los últimos años el sector de la mano factura ha experimentado un crecimiento significativo, siendo esta la razón por la que ha logrado sobresalir entre las demás industrias, lo que ha despertado la necesidad de estudiar como los cambios que han experimentado estas empresas en temas de mano de obra, logísticos, operativos y tecnológicos; influyen en el incremento de los índices de accidentalidad y enfermedad laboral dentro de estas organizaciones.
METODOLOGÍA
METODOLOGÍA
JUSTIFICACIÓN
Con el fin de garantizar información sobre cómo mantener un puestos de trabajo seguros, pero sobre todo para que los trabajadores cuenten con las herramientas necesarias que les permita hacer frente a cualquier situación que pueda generar accidentes o enfermedades laborales, permitiéndoles mitigar o eliminar sus consecuencias, por lo tanto; con esta propuesta se pretende dar a conocer algunas técnicas existentes en seguridad y salud en el trabajo sobre prevención de riesgos laborales y enfocarlas al sector manufacturero pero solo en empresas de confecciones en Colombia, con el fin de mejorar la seguridad y salud de los trabajadores de estas, logrando un mayor aprendizaje y empoderamiento de los mismos. Es por ello, que es necesario contar con recursos que permitan implementar cada una de las acciones definidas en el plan de trabajo, por lo que la gerencia en línea debe asignarlos. Los recursos que se requieren para ellos son: Talento humano: recurso fundamental para la administración del Sistema de Gestión y/o Plan de Trabajo definido para intervenir la población objeto de las empresas inmersas dentro del sector de mano factura. El talento humano debe contar concompetencias laborales y técnicas en temas de administración de riesgos y seguridad y salud en el trabajo. Tecnológicos: dada la eventualidad de salud pública que a nivel mundial estamos viviendo, se debe contar además, de los equipos (PC - Internet - Impresora) con los que se cuentan antes de la situación referida, contar con autorizaciones para el uso de plataformas digitales sencilla y versátiles que permitan llegar a cada uno de los trabajadores población objeto cuando las acciones sean del resorte virtual. Para las actividades presenciales, se debe contar adicional con equipos audiovisuales, salón, mesas, herramientas entre otros, para llegar a la población convocada. Financieros: disponer de recurso que permitan realizar compras de elementos de protección personal, adecuación de espacios, moviliario, entre otros elementos necesario para desarrollar de manera segura las actividades propias del trabajo.
CONCLUSIONES
CONCLUSIONES
Dentro de la presente investigación se pudo evidenciar que existen aspectos a mejorar con la finalidad de minimizar la ocurrencia de los accidentes de trabajos. Se identificó que en las operaciones del sector manufacturero, dado a sus actividades máquinas y uso de diferentes herramientas se presentan peligros inherentes al desarrollo de sus procesos, que podrían poner en riesgo la salud y la integridad de los trabajadores; por ende, es fundamental que los trabajadores tengan conocimiento de los riesgos a los que están expuesto en sus lugares de trabajo y cómo prevenir y controlar cada uno de ellos, para realizar la operación de manera segura y proteger su bienestar. Las empresas del sector manufacturero buscan constantemente en mejorar la eficiencia, eficacia y efectividad de sus operaciones, para lo cual es necesario estar apoyado en la seguridad y salud en el trabajo, es por ello que las empresas deben aprovechar el crecimiento en investigaciones y normatividad que les permita tener trabajadores que cuenten con las herramientas y los conocimientos necesarios para realizar su trabajo de manera segura, pero a su vez aportando al crecimiento del sector. Todo trabajador debe ser consciente que realizar actividades peligrosas o actividades que se desvíen de los controles o estándares que se hayan establecido por la organización, puede tener consecuencias que afecten su salud e incluso llegar al punto de perder su vida, y debe entender el impacto que esto podría reflejar a sus familias y círculo social, por lo tanto el autocuidado es la mejor opción para proteger su salud. Es importante que el trabajador no intente reparar daños eléctricos o mecánicos si no está autorizado y no cuenta con las habilidades, conocimientos y capacidades para hacerlo, en estos casos es recomendable que se informe al personal encargado de realizar ese tipo de actividades para no poner en peligro su salud. Es importante que los trabajadores durante la ejecución de todas sus actividades reporten a sus superiores todos aquellos cambios en la salud que puedan experimentar o aquellas anomalías que se puedan presentar al realizar sus actividades, para que de esta manera se puedan analizar las causas y establecer los cambios o los controles que se consideren correspondientes.
RECOMENDACIONES
Implementar un Programa de Mantenimiento Correctivo y Preventivo, para el manejo de máquinas y herramientas de trabajo. Planificación y estandarización de procesos en el área de mantenimiento (Procedimiento, Instructivos, Guías, Protocolos, Formatos etc.) Elaborar un Plan de Inducción y Reindución en donde se refleje las buenas practicas Autocuidado, Manejo de Cargas, Uso de EPP, Matriz de Riesgos laborales entre otros. Garantiza la eficacia de las capacitaciones Análisis y mejora de los flujos de trabajo (operaciones de trabajo y sitios de desarrollo)
BIBLIOGRAFIA
1. https://ipsnoticias.net/2018/04/seguridad-laboral-crece-america-latina-menos-para-lo s-jovenes/#:~:text=Cifras%20parciales%20disponibles%2C%20indican%20que,en% 20el%20sector%20de%20servicios.
2.https://www.uis.edu.co/intranet/calidad/documentos/capacitacion/Indicadores%20de %20gestion.pdf
3. https://www.ilo.org/global/about-theilo/newsroom/news/WCMS_008562/lang--es/index.htm
4. https://www.mayoristaindustrial.com/la-aplicacion-de-la-seguridad-industrial-enempresas-de-manufactura
Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales
Asesor:M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional. Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional. Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales. Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional. Asesor: M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El autismo es un trastorno del neurodesarrollo caracterizado por ser un trastorno para toda la vida y presentar alteraciones de la interacción social, comunicación verbal, no verbal, el comportamiento restringido y repetitivo; generalmente los signos se observan durante los dos o tres primeros años de vida, actualmente se conoce como Trastorno del Espectro Autista (TEA).
La medición de los lapsos de atención en niños con Trastorno del Espectro Austista(TEA), ha ido tomando un papel muy importante, ya que en ellos el nivel de atención suele ser muy bajo debido a que se encuentran lidiando con una gran cantidad de estímulos del entorno. Lo que les genera estrés y potencia que se alteren, por lo que su nivel de atención es variante.
Con la detección de estos lapsos de atención (sostenida, dividida y alternante, en las modalidades visual y auditiva) se pretende coadyuvar en el aprendizaje de personas con TEA al interactuar con medios de aprendizaje tales como aplicaciones de software y otros tipos de actividades didácticas, con lo cual se puede mejorar el diseño de escenarios de aprendizaje y por lo tanto, la calidad de vida.
METODOLOGÍA
La base de datos se obtuvo a partir del registro de señales electroencefalográficas de un paciente con Trastorno del Espectro Autista que fueron adquiridas por medio del uso del dispositivo inalámbrico EPOC+ de 14 canales. Se realizaron tomas de muestras para la identificación de los lapsos de atención en el paciente al desarrollar distintas actividades de aprendizaje. El EPOC+ se utiliza en conjunto con el software EmotivPro para recopilar, analizar y almacenar métricas de datos cerebrales.
Los registros de las señales se utilizaron para la creación de archivos .mat correspondientes a cada uno de los 14 electrodos del dispositivo gracias a la herramienta Importa Data de MATLAB para su posterior procesamiento. Como primer punto, se realizó el escalamiento de la señal considerando la resolución de 0.51 uV proporcionada por el fabricante. Posteriormente, se eliminó la línea isoeléctrica de las señales empleando el comando detrend que nos permite restar la media de los datos.
Una vez obtenida la base de datos, se utilizó el software libre EEGLab proporcionado por UCSD, el cual se anexa a la plataforma de simulación MATLAB para el procesamiento de señales electroencefalográficas, en donde, primeramente se registraron las posiciones de los electrodos del dispositivo, para posteriormente hacer el análisis completo de las señales. Se realiza a continuación la identificación y clasificación de los artefactos presentes en la señal EEG para su posterior eliminación. Esto se puede hacer gracias al módulo de Análisis de Componentes Individuales (ICA, por sus siglas en inglés) de EEGLab.
Una vez eliminados los artefactos, se analizaron las señales para obtener la Densidad Espectral de Potencia por medio de un programa en MATLAB con la finalidad de analizar y detectar la mayor actividad eléctrica presentes en ciertas bandas de frecuencia (bandas Beta) y que es coincidente con los lapsos de mayor atención para cada una de las actividades realizadas.
CONCLUSIONES
El procesamiento de señales EEG puede determinar el nivel de atención que se presenta al desarrollar una actividad de aprendizaje con una persona con TEA, además obtener una medición cuantitativa de cada sesión y, de esta manera, saber el impacto de la actividad. Asimismo, también se puede saber si le es clara la instrucción, esto es muy importante sobre todo en las personas con TEA no verbales. De esta forma, se pueden diseñar o adaptar escenarios de aprendizaje personalizados, mejorando su bienestar y calidad de vida, para en un futuro lograr una inclusión laboral en su vida adulta.
Martinez Aviles Daniel, Universidad Autónoma del Estado de México
Asesor:Dr. Hector Herrera Hernandez, Universidad Autónoma del Estado de México
ELECTROQUIMICA, CORROSIÓN Y MANUFACTURA DE MATERIALES AVANZADOS
ELECTROQUIMICA, CORROSIÓN Y MANUFACTURA DE MATERIALES AVANZADOS
Martinez Aviles Daniel, Universidad Autónoma del Estado de México. Asesor: Dr. Hector Herrera Hernandez, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Actualmente los problemas de la corrosión son más frecuentes en la industria química, alimentaria, biomédica, petrolífera y de infraestructura, por lo tanto, representan una buena parte de la inversión económica en mantenimiento y corrección en sus componentes y procesos. En este sentido, la propuesta de utilizar inhibidores de corrosión para el control y prevención de este fenómeno, han tomado un papel muy importante, la mayoría de los compuestos usados para este fin resultan demasiado tóxicos, costosos y dañinos para el medio ambiente y el ser humano por lo cual es importante encontrar nuevas formulaciones que sean ambientalmente amigables y de bajo costo, y sobre todo que muestren una excelente eficiencia en sus propiedades de inhibición ante la corrosión. Los materiales avanzados presentan un amplio panorama de oportunidades donde la industria y la ciencia pueden establecer relaciones de cooperación orientadas hacia la aplicación práctica del conocimiento.
METODOLOGÍA
Diversos métodos se han estudiado y aplicados para disminuir la corrosión en estructuras metálicas y en los aceros, la primera abarca desde el diseño de material el cual debe poseer en su composición elementos aleantes que poseen propiedades anticorrosivas tales como: cromo o níquel, así como titanio, boro o molibdeno para aquellos componentes que serán expuestos a condiciones de fricción o tensión de modo cíclico, aunque es necesario remarcar que su costo es elevado lo cual la mayoría de los casos se vuelve incosteable, ejemplo de esto, es la sustitución de tubería de transporte de hidrocarburos por una tubería hecha de acero inoxidable.
Las industrias dedicadas a la manipulación, aplicación y desarrollo de materiales metálicos, como el acero al carbono, así como también las industrias de servicio especializadas en el decapado por inmersión de piezas y materiales delicados, y aquellas que están comprometidas a acidificar pozos para estimular la productividad descomponiendo y eliminando los depósitos minerales, tienen como gran tarea y responsabilidad el manejo adecuado de los ácidos minerales, ya sea ácido clorhídrico o sulfúrico, además de poseer las habilidades y conocimientos para aplicar un tratamiento apropiado al acero en cuestión. Con este panorama en puerta, es de suma importancia el tratamiento químico que se aplica a las piezas o tuberías de acero.
La mayoría de los inhibidores naturales no son tóxicos, son biodegradables y son abundantes en la naturaleza. Hasta el momento, ya se han utilizado extractos a partir de semillas, frutas, hojas, flores, etc. (Raja y Sethuraman, 2008; Abdullah, 2011) y se ha encontrado que reducen notablemente la velocidad de corrosión. En los extractos de plantas, están presentes un gran número de compuestos químicos, especialmente heterocíclicos, que inhiben la corrosión de manera eficiente (Sathiyanathan et al., 2005; Oladele y Okoro, 2011). El efecto inhibidor se atribuye a la adsorción de estas sustancias orgánicas sobre la superficie del metal, que bloquea los sitios activos o forman una capa protectora.Existen distintas clases de inhibidores como los inorgánicos: sales de cromatos, fosfatos y molibdatos. En este tipo de compuestos los aniones son los responsables de la reducción de la velocidad de corrosión del metal
Polarización: El cambio potencial causado por la corriente neta hacia o desde un electrodo, medido en voltios, se llama polarización.
Pasividad: Un metal es pasivo si es considerablemente resistente a la corrosión en un ambiente dado que resulta de una polarización anódica marcada. Un metal es pasivo si es considerablemente resistente a la corrosión en un ambiente dado a pesar de una tendencia termodinámica marcada para reaccionar.
La corrosión en la Industria afecta de diferentes maneras. En la industria naval está influenciada por el medio marino afectando a la industria marina y offshore (oil&gas y aerogeneradores), así como cualquier elemento que se encuentre en el mar (diques, boyas, etc.) o inmediaciones. Esta corrosión se manifiesta en el caso de la industria naval en una degradación del casco del barco (pérdida de espesor). También favorece a aumentar la resistencia al avance, aumentando el consumo de combustible y por tanto las emisiones de CO2 a la atmósfera. La corrosión en la industria química afecta de tres maneras diferentes. El primer problema es debido a las sustancias agresivas que se emplean en contacto con los metales (pH, oxígeno, gases disueltos, etc.), en segundo lugar, el empleo de sustancias ácidas (ácidos clorhídrico, fluorhídrico, nítrico), y por último, sustancias básicas como hidróxidos o hipocloritos.
CONCLUSIONES
En esta investigación llegamos a la conclusión de que la corrosión ha sido definida como la destrucción de un metal por reacción química o electroquímica por el medio ambiente y representa la diferencia entre una operación libre de problemas con gastos de operación muy elevados. La importancia de los problemas de la corrosión exige una valoración económica y esta es difícil de dar, porque hay pérdidas directas referidas exclusivamente al valor del material destruido y perdidas indirectas cuya valoración es más complicada de dar, como contaminación de la producción debida a un fallo inesperado en el metal, perdidas del producto, consumo de energía, perdida de rendimiento de procesos o por acumulación de productos de corrosión en paredes, sobre espesor de los materiales, todo ello en consecuencia de fallos del metal. La preocupación por la conservación del medioambiente y las nuevas legislaciones para controlar la emisión de sustancias tóxicas dañinas para la vida en el planeta condujo a esta investigación.
Martinez Capiz Karol Tzitziki, Instituto Tecnológico Superior de Uruapan
Asesor:Mg. Luis Alejandro Caycedo Villalobos, Fundación Universitaria Los Libertadores
CONVERTIDOR DC‐DC TIPO BUCK PARA LA CARGA DE BATERíAS EMPLEANDO EL CONTROL MPPT.
CONVERTIDOR DC‐DC TIPO BUCK PARA LA CARGA DE BATERíAS EMPLEANDO EL CONTROL MPPT.
Martinez Capiz Karol Tzitziki, Instituto Tecnológico Superior de Uruapan. Asesor: Mg. Luis Alejandro Caycedo Villalobos, Fundación Universitaria Los Libertadores
PLANTEAMIENTO DEL PROBLEMA
El presente documento expone el desarrollo e implementación simulado para la carga de una batería con una capacidad de 12 A (amperios) a partir de los datos de radiación solar emitidos de la estación de metrología en la ciudad de Bogotá Colombia situada en la Fundación Universitaria los Libertadores, siendo regulada por medio de un convertidor (DC‐DC) tipo BUCK, que ofrece una eficiencia mayor al 90%. Este tipo de energía, debido a la forma en que se adquiere, no tiene niveles constantes de tensión y de corriente; al contrario, cambian de acuerdo al entorno con el nivel de radiación de acuerdo a la celda fotovoltaica que recibe del ambiente, el panel solar transforma la energía solar en eléctrica y la potencia transformada según la energía, así como la temperatura que varía, lo cual es un inconveniente a la hora de alimentar los circuitos y lograr una carga adecuada para los acumuladores.
El problema al que nos enfrentamos es poder de forma dinámica lograr obtener el punto máximo de transferencia (MPPT) del panel solar a los acumuladores sin tener la necesidad de utilizar un tracking solar y esta carga almacenarla en nuestra batería de 12 A (amperios).
METODOLOGÍA
Se realizo el estudio del arte, en el cual se analizó e investigó sobre los distintos métodos MPPT, en el cual este fue nuestro punto de partida para mi modelo propuesto es el método de corriente (cortocircuito), para una matriz fotovoltaica (PV) tiene características I - V (corriente-voltaje) no lineales y su potencia de salida varía con el nivel de insolación solar y la temperatura ambiente. Existe solo un punto, llamado punto de máxima potencia (MPPT), en la curva P - V (potencia-voltaje), donde la potencia es máxima y este punto varía con las condiciones atmosféricas cambiantes. Además, la eficiencia de conversión de energía de la energía fotovoltaica su módulo es muy bajo y la falta de coincidencia entre las características de la fuente y la carga provoca una potencia significativa en pérdidas. En consecuencia, la maximización de la potencia de salida con mayor eficiencia es extremadamente importante. [1]
Lo primordial para iniciar el método de corriente es verificar la constante K (constante de proporcionalidad) en base a la intensidad a potencia máxima y a la corriente en cortocircuito, se empleó un algoritmo de control que calcule el valor de corriente de entrada al convertidor sin tener que recurrir a un tracking solar, al momento de pasar a la simulación es necesario tener en cuenta el añadir un interruptor en el convertidor para provocar el corto circuito periódicamente, esto se puede codificar con un sistema emdebido.
Seguido de esto se realizó una exhaustiva investigación acerca del datasheet de diversos paneles solares, esto con la finalidad de hacer una elección de cual panel usar dentro de la simulación, para esto se realizó en Matlab con la herramienta de Simulink para ver cómo se comporta el tracking.
Estamos en la etapa de simulación de aquí esperamos obtener los resultados que permitan evaluar la eficiencia en el modelo de MMPT seleccionado mediante la realización de varias mediciones con radiación y temperatura para verificar el correcto funcionamiento del algoritmo implementado de MPPT, lo anterior con el fin de observar que la corriente se mantenga constante según las curvas de MPPT del panel solar seleccionado.
CONCLUSIONES
Se pudo hablar del modelo del panel, asi como comprender el comportamiento de un panel solar y la necesidad de ponerlo a trabajar en la región de fuente de corriente para que sea su modo de operación general, es necesario garantizar que con cualquier método a utilizar el panel se encuentre en esta región.
El comportamiento del panel se ve afectado no solo por el envejecimiento de este, sino que también por los valores de irradiancia y temperatura, valores dinámicos que afectan permanentemente la potencia transformada del panel solar.
Los algoritmos seleccionados buscan la caracterización de los parámetros de los paneles solares antes de su uso en el sistemas solar foto voltaico, por esta razón son llamados MPPT Off line.
Martinez Carrasco Juan Pablo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
ANáLISIS Y PROCESADO DE ACELEROGRAMAS DE REGISTROS SíSMICOS EN LA CIUDAD DE PUEBLA PARA FINES DE INGENIERíA SíSMICA
ANáLISIS Y PROCESADO DE ACELEROGRAMAS DE REGISTROS SíSMICOS EN LA CIUDAD DE PUEBLA PARA FINES DE INGENIERíA SíSMICA
Martinez Carrasco Juan Pablo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
La República Mexicana se ubica en una zona con alta actividad sísmica, la mayor parte de los sismos que han causado daños significativos en edificaciones y que han afectado la integridad de las personas se localizan en el sur del país, debido a la interacción de dos placas tectónicas importantes, la placa de Norte América y la Placa de cocos. La ciudad de Puebla no es una zona con actividad sísmica frecuente, sin embargo, son altamente perceptibles en la región los sismos con gran magnitud producidos en la zona de subducción del sur del país, causando daños estructurales en edificaciones. También se han presentado sismos de tipo intraplaca en el interior del estado que han causado daños importantes, por lo que los sismos de subducción no son los únicos que representan un peligro para la ciudad de Puebla.
La ciudad de Puebla cuenta con estaciones acelerográficas, sin embargo no se registran las mismas aceleraciones en cada estación debido a diversos factores como el tipo de terreno en el que se encuentra la estación. El objetivo de la investigación es recopilar información acelerográfica de sismos que han representado un riesgo a la ciudad de Puebla, para posteriormente analizarla a través del software Seismograms Analyzer-E para definir que sismos fueron potencialmente dañinos y si ameritaban la emisión de una alerta sísmica.
METODOLOGÍA
Se definió a la ciudad de Puebla como sitio de estudio debido a que en los más recientes eventos sísmicos se han registrado importantes daños estructurales en edificaciones, por lo que el estudio puede ayudar a identificar zonas vulnerables a este fenómeno. Se identificaron los eventos sísmicos ocurridos desde hace 100 con una magnitud mayor a 4.5. Para obtener la información de los eventos sísmicos se recurrió a las estaciones del instituto de ingeniería de la UNAM pero que son operadas por la BUAP, se obtuvo la información de las estaciones con las que se trabajaría, identificando sus coordenadas corroborando que se encontraran muy próximas al sitio de interés al ubicar las estaciones en un mapa, así como también se mencionó el tipo de suelo en el que se encuentran, realizando una tabla conformando una base de datos con la información de cada estación. Con respecto a los eventos sísmicos registrados por las estaciones, se obtuvieron las aceleraciones en 3 diferentes componentes de los eventos sísmicos capturados por cada estación, también se recopiló la información sobre su magnitud, la profundidad de cada evento y su epicentro para ser ubicado en el mismo mapa empleado y del mismo modo se hizo una base de datos de esta información.
Con los eventos sísmicos obtenidos, se clasificaron en diferentes zonas de acuerdo con su ubicación y se identificó que tipo de sismos produce cada zona. Se concentraron los sismos en 6 diferentes zonas. La zona del norte de Oaxaca y sur de Puebla, cuyos sismos son de carácter cortical, la zona del Istmo de Tehuantepec que concentra a sismos de tipo intraplaca. Las zonas restantes concentran sismos cuyo origen es de subducción. Las zonas de subducción se dividen en Michoacán, Guerrero-Petatlán, Ometepec-Oaxaca y Chiapas.
Se identificaron los eventos sísmicos que hayan sido registrados por al menos dos estaciones, para hacer una comparación de los registros acelerográficos de acuerdo con el tipo de suelo en que se percibió el sismo y definir si de acuerdo con la aceleración presentada corresponde el grado de daños presentados en esos eventos. Se analizaron un total de 20 eventos que al menos fueron percibidos por dos estaciones.
Posteriormente se utilizó el software Seismograms Analyzer-E para el análisis de los registros sísmicos, se leyó cada componente proporcionada por el registro acelerográfico de la estación obteniendo la información de la aceleración máxima, la velocidad y el desplazamiento máximos del terreno. Se decidió si el evento sísmico ameritaba que se emitiera una alerta sísmica de acuerdo con su velocidad acumulada estandarizada. Si este parámetro era mayor que 156.96 cm/s indica que fue un sismo potencialmente dañino. Con estos resultados se comparó si dados los daños presentados con el sismo había una correlación de acuerdo con la decisión si ameritaba una alerta sísmica o no.
CONCLUSIONES
De acuerdo con los resultados se obtuvo que los sismos de subducción han representado mayor riesgo a la zona de estudio, además de que es la mayor cantidad de sismos que han sido registrados por las estaciones. Los sismos de subducción son los que ameritan un alerta sísmica, los sismos corticales no proporcionaron aceleraciones tan grandes como los de subducción pero han causo daños a pesar de no presentar grandes aceleraciones debido a la cercanía con la zona de estudio. Dentro de la ciudad de Puebla se identificaron zonas más vulnerables de acuerdo la tipo de suelo y a la antigüedad de los edificios. La ciudad de Puebla está mayormente conformada por roca basáltica, sin embargo hay lugares donde el tipo de suelo es blando lo que ha coincidido con los registros acelerográficos al presentar mayores aceleraciones y daños en esta locaciones.
Martínez de la Cruz Juan Carlos, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León
LA INGENIERíA INSPIRA EL DESARROLLO DE LA BIOLOGíA SINTéTICA Y LA BIOTECNOLOGíA:¿CUáLES SERáN SUS FUTURAS APLICACIONES PARA LA SOCIEDAD?
LA INGENIERíA INSPIRA EL DESARROLLO DE LA BIOLOGíA SINTéTICA Y LA BIOTECNOLOGíA:¿CUáLES SERáN SUS FUTURAS APLICACIONES PARA LA SOCIEDAD?
Martínez de la Cruz Juan Carlos, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La biología sintética es una biotecnología que se ha venido desarrollando a lo largo del tiempo ofreciendo numerosas e interesantes posibilidades, como la manipulación de la biología de los seres vivos existentes, el diseño y construcción de sistemas biológicos alternativos a los que se encuentran en la naturaleza. Sin embargo, como cualquier terreno científico inexplorado, también puede conllevar riesgos. Por ello, se han abordado cuestiones de cuales serán las futuras aplicaciones en beneficio de la sociedad.
METODOLOGÍA
La metodología empleada fue la recopilación de información de diversas fuentes (review), para ello se realizó una búsqueda de bibliografías sobre el tema principal, así como de las principales aplicaciones en los diferentes sectores como la salud, medio ambiente, alimentario etc. para posteriormente escribirlas dentro del Artículo, de manera que persona que lo lea pueda lograr entender y comprender sobre el tema.
CONCLUSIONES
De la presente investigación se logró recopilar información muy relevante, y mediante el análisis de la información obtenida, llegue a la conclusión que la biología sintética lograra tener un impacto positivo aportando muchos beneficios para la sociedad y el medio ambiente, sin embargo es una disciplina que está comenzando a obtener una mayor relevancia pero la tecnología y las técnicas actuales no son lo suficientemente potentes como para cumplir estos objetivos a corto plazo.
Martínez Durán Jocelyn Abigail de Jesús, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Selene García Nieves, Instituto Tecnológico Superior de Las Choapas
DISEñO DE ACTIVIDADES DE UNA APLICACIóN MóVIL PARA NIñOS CON TRASTORNO DEL ESPECTRO AUTISTA (TEA)
DISEñO DE ACTIVIDADES DE UNA APLICACIóN MóVIL PARA NIñOS CON TRASTORNO DEL ESPECTRO AUTISTA (TEA)
Martínez Durán Jocelyn Abigail de Jesús, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Selene García Nieves, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
En el Perfil Epidemiológico de Salud Mental en México, desde 2013, el Trastorno del Espectro Autista, mejor conocido como TEA por sus siglas, está entre las primeras cinco causas de consulta psiquiátrica infantil y en pocos años ha pasado a ser un problema de salud pública, afectando 1 de cada 115 niños en nuestro país (Guízar, 2020). Por otro lado, la Organización Mundial de la Salud (OMS) calcula que aproximadamente el 20% de los niños y adolescentes del mundo tienen trastornos mentales y aproximadamente la mitad de éstos se manifiestan antes de los 14 años (Méndez, 2019).
La mayoría de las personas con autismo tienen dificultades para la apreciación y percepción de los sonidos y por lo tanto, para la comprensión y discriminación de las señales cognitivas sonoras (Reynoso, 2017), por lo que el tratamiento para las personas con TEA depende de terapias conductuales y de lenguaje para desarrollar habilidades sociales e interactuar con el otro (Marilyn, 2018).
El mejor escenario es a los 18 meses de edad para estimular el lenguaje, el desarrollo sicomotor y actividades de la vida diaria (Guízar 2020), de manera que de lo contrario, la consecuencia es la instalación progresiva y variable de una discapacidad de adaptación social, provocando minusvalía intelectual, déficit de atención con hiperactividad y epilepsia, síntomas comunes en los niños con TEA (Marilyn, 2018).
Esta disfunción tiene un impacto considerable no sólo en el correcto desarrollo y bienestar de la persona afectada, sino también de los familiares, dada la elevada carga de cuidados personalizados que necesitan (IMSS, 2012).
METODOLOGÍA
Se definió la problemática del proyecto a partir de una necesidad en salud pública en México y el mundo, según datos epidemiológicos actualizados y la oportunidad de intervención en el tratamiento de pacientes con Trastorno del Espectro Autista (TEA) haciendo uso del desarrollo de tecnología. Se estableció como objetivo el diseño de actividades para el desarrollo de una aplicación móvil que ayude en el tratamiento de comunicación y adaptación social de niños con TEA, mediante el conocimiento médico de la enfermedad y tecnologías emergentes para su programación.
Se realizó el marco teórico de la enfermedad para tener conocimiento científico completo de ésta, según los antecedentes y la información más recientemente publicada, lo que incluyó definición, epidemiología, factores de riesgo, etiología, clasificación, cuadro clínico, detección oportuna, diagnóstico, tratamiento y pronóstico del TEA.
Se elaboró el estudio del arte para reunir todo el conocimiento acumulado en torno a la tecnología desarrollada en beneficio de los pacientes con TEA, donde se encuentran tecnologías en asistencia comunicacional como robótica y entornos virtuales, proyectos de tecnología aplicada como Apptismo, videotutoriales de software y apps para comunicación aumentativa y alternativa, albergados en la página web ARASAAC y la aplicación de realidad virtual mediante videojuegos con el proyecto CicerOn.
Se comenzó con el diseño de tres actividades para la aplicación móvil, incluyendo la elaboración de la Vista Previa a la aplicación, Menú y un apartado llamado Ficha de Identificación que hace que la aplicación sea personalizable, considerando las gamas de color y animaciones adecuadas para cada interfaz.
El primer diseño de actividad fue mediante la Aplicación del Sistema de Comunicación PECS (Picture Exchange Communication System), que consiste en un sistema de comunicación por intercambio de imágenes o pictogramas entre un individuo no hablante y su interlocutor. Para su elaboración se crearon interfaces que incluyen el uso de pictogramas con audio modulado por categorías, los cuales irá eligiendo el paciente según sus necesidades para comunicarse.
El segundo diseño de actividad se realizó mediante el conocimiento de Ejercicios para un lenguaje claro en el TEA, el cual consiste en una serie de siete ejercicios que estimularan en el paciente una mayor habilidad para el habla. Cada ejercicio se encuentra en una interfaz acompañada de una animación que atraerá al paciente a realizarlos, acompañado de la indicación del ejercicio de manera escrita para poder ser leía por el cuidador del paciente de ser necesario y música melódica modulada mientras se realizan éstos. Los ejercicios se realizan de 12 a 15 veces, durante 15 a 30 minutos al día, información que se encuentra monitorizada para cada uno de éstos en la aplicación.
Por último, se diseñó la tercera actividad mediante el Método Hannen o Técnica de las 4 haches para desarrollar el lenguaje, el cual consiste en 4 puntos que incluyen Hablar menos, Hablar más despacio, Hacer énfasis y Hacerlo visible. El fundamento es, el qué y cómo hablamos al niño, pues es clave en este proceso ya que lo motivarán a responder recíprocamente. Sin embargo, dadas las situaciones en las que el cuidador del paciente no lo asiste siempre, se creó un catálogo de frases comunes para ser vistas y escuchadas por el niño, reguladas en estructura, moduladas en audio y énfasis y acompañadas visualmente por animaciones alusivas a la frase, tal como lo indica este método para lograr mayor receptividad en el paciente y estimular la repetición verbal por parte del mismo.
CONCLUSIONES
Durante la estancia del verano se logró adquirir conocimientos teóricos sobre el Trastorno del Espectro Autista (TEA) y tecnologías emergentes para la programación, poniéndolos en práctica para el diseño de actividades para el desarrollo de una aplicación móvil que asista en el tratamiento de comunicación y adaptación social de niños con TEA, sin embargo, al ser un trabajo extenso aún se encuentra en una etapa de diseño para su programación por ingenieros en software. Se espera el término del trazado de esta aplicación para su posterior programación y sometimiento a un experimento de evaluación en poblaciones de niños con TEA en nuestro país.
Martinez Flores Alberto David, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
ANáLISIS DE DATOS MUNDIALES DEL COVID-19 EN EL PERIODO DIC 2019-JUL 2021
ANáLISIS DE DATOS MUNDIALES DEL COVID-19 EN EL PERIODO DIC 2019-JUL 2021
Martinez Flores Alberto David, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La pandemia de Covid iniciada en noviembre de 2019 ha causado la reducción en la movilidad de las personas en diferentes partes del mundo. Esto genera la necesidad de trabajar desde casa, así como mantenerse informados de la afectación en diferentes lugares. En México se ha creado el semáforo estatal y municipal con cuatro colores. A nivel mundial hay datos del número de contagios y lamentables decesos. En este trabajo se estudian los datos a nivel mundial de diciembre 2019 a la fecha (julio 2021) para conocer el impacto comparativo a nivel país y continente.
METODOLOGÍA
En la primera fase de este trabajo se eligió el tema de la pandemia por considerarse de importancia mundial.
La segunda fase consistió en buscar datasets identificando sus metadatos y su contenido. Se vio la importancia de manejar algunos estándares en la codificación de los datos. Se hizo una selección de los datasets con datos mundiales y más completos porque algunos casos solamente había algunos meses de datos.
En la tercera fase se aplicaron cálculos estadísticos a las variables numéricas para conocer el comportamiento general de la variable.
En la cuarta fase se detectó la necesidad de utilizar datasets con datos complementarios como la población de cada país. Se utilizó la herramienta Rapidminer para concatenar los datasets, realizar cálculos y obtener gráficas. Así mismo fue necesario utilizar otras herramientas como el caso de Mapchart para la visualización de mapas. En esta fase también se detectaron algunas conclusiones que se reportan en la siguiente sección.
CONCLUSIONES
En este trabajo se detectó que aunque Europa tiene el mayor número de contagios, sin embargo, Sudamérica tiene el mayor impacto en decesos. América de norte que incluye a centro América y el caribe ocupa el cuarto lugar de impacto en casos, pero el tercer lugar en decesos. Por su parte, Asia ocupa el tercer lugar en casos, pero el cuarto lugar en decesos. África y Oceanía son los continentes menos afectados. Con base en estos datos se detecta que los continentes con países más desarrollados y con mayor movilidad internacional en su población son los más afectados por decesos.
Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Ing. Ofelia del Carmen Leal Salazar, Universidad Autónoma de Occidente
COMPORTAMIENTO DEL CONSUMIDOR Y LA SEGMENTACIóN INTELIGENTE: CASO ZAMORA, MICHOACáN.
COMPORTAMIENTO DEL CONSUMIDOR Y LA SEGMENTACIóN INTELIGENTE: CASO ZAMORA, MICHOACáN.
Ayala Zárate Ana Cristina, Instituto Tecnológico de Estudios Superiores de Zamora. Martínez García Briseyda Paulina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Ing. Ofelia del Carmen Leal Salazar, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se basa en la premisa de que la Estrategia de Segmentación de Mercados, es un factor clave de éxito de cualquier organización. La mercadotecnia se centra en la orientación hacia el cliente, y para poder atender al mercado meta de una forma mejor que la competencia es necesario conocerlos y atenderlos.
METODOLOGÍA
El estudio es de tipo cuantitativo, exploratorio y descriptivo. El trabajo de campo consiste en la aplicación del instrumento a una muestra de 200 personas nacidas en el periodo de los años 1995 a 2007. El cuestionario aplicado es en escala MindBase del constructo dos denominado Conectado, el cual considera 7 variables y aplicados a las personas correspondientes de la generación Z que habitan en el municipio de Zamora, Michoacán.
CONCLUSIONES
Los resultados del estudio realizado de segmentación inteligente MindBase reflejan de manera relevante que la mayoría de los jóvenes pertenecientes a la Generación Z del constructo conectado, en las variables a, c, d, e, f y g, se identifican mejor con la escala de tipos Likert de cinco puntos correspondiente a totalmente en desacuerdo a totalmente de acuerdo, correspondiendo los valores 1 y 5, obteniendo los valores totalmente de acuerdo y de acuerdo en su mayoría, los cuales buscan tener un equilibrio en su vida pues consideran importante trabajar en lo que lo que quieren pero también es importante para ellos tener tiempo para convivir con su familia y amigos pues son una parte transcendental de su vida al igual que el cuidar de su salud, el lado espiritual y no tener problemas financieros. Les gusta sentirse satisfechos sin embargo también se preocupan por lo que pueden contribuir al mundo y apoyar a la comunidad; también se consideran que son open-minded y están dispuestos a aprender del mundo y de las personas a su alrededor.
Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
SITIO WEB DE GESTIóN DE INFORMACIóN TURíSTICA PARA PUEBLOS MáGICOS
Caloch Campos Edgar, Instituto Politécnico Nacional. Carrillo Ramirez Luis Daniel, Universidad Tecnológica de Nayarit. Gonzalez Acosta Luis Carlos, Universidad Nacional Abierta y a Distancia. Martínez García Jesús Emmanuel, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Ing. Juan Carlos Garduño Miralrio, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad se cuentan con páginas de información turística sobre los pueblos mágicos de México, sin embargo, nos encontramos con una cuestión referente a la navegabilidad en sitios web turísticos, específicamente a su deficiencia de estilo e intuitividad para el usuario a la hora de consultar información, además de los datos pocos relevantes que se visualizan.
Por esto mismo, nuestro objetivo durante la estancia de investigación XXVI fue desarrollar un aplicación web interactiva que brindara una mejor experiencia e información más detallada sobre las diferentes actividades, festividades, entre otros, sobre los pueblos mágicos que se encuentran en el país.
METODOLOGÍA
La estancia inició con una capacitación enfocada al framework de PHP llamado Laravel, tecnología que nos ayudó durante el desarrollo del proyecto. Dicha capacitación fue esencial para lograr reconocer las diferentes funcionalidades para implementarlas en el proyecto.
Primeramente se inició con la parte del frontend, utilizando HTML5, hojas de estilo CSS y JavaScript del paquete de diseño Material Kit basado en Bootstrap. Estas herramientas nos ayudaron con la creación de las vistas inicio, sobre nosotros, pueblos y contacto, a las cuales podemos acceder desde la barra de navegación principal. Adicionalmente se crearon las vistas información de los participantes e información sobre los pueblos, siendo así un total de 6 vistas.
Vista Inicio: En esta vista se despliega un mensaje de bienvenida el cual nos brinda una breve descripción e imagen de ciertos pueblos mágicos aleatoriamente. Esta sección de la vista es un prediseño perteneciente al paquete Material Kit el cual hace uso de la función carrusel para la transición de imágenes.
La siguiente sección de la vista muestra nuestros pueblos sugeridos,el cual con ayuda de tarjetas prediseñadas en Material Kit, muestra información de tres pueblos mágicos los cuales son seleccionados con base en la proximidad de sus festividades.
Finalmente observamos una sección de comentarios, los cuales son enviados por visitantes de la página contándonos su experiencia en el sitio web.
Vista Sobre Nosotros: Así como en la vista Inicio, en Sobre Nosotros también hacemos uso de tarjetas que despliegan información sobre el programa federal de pueblos mágicos, misión y visión del programa federal y la información sobre los participantes. Por otra parte, en la vista Contacto se despliega un formulario que permitirá a los visitantes de la página enviar comentarios, sugerencias o reclamaciones que tengan para la mejora del sitio.
La vista Información de los Participantes contará con información breve sobre nosotros, mientras que la vista Pueblos será la entrada para desplegar la información completa de los pueblos mágicos. Esta página muestra un filtro el cual seccionará a los pueblos mágicos dependiendo de a qué estado pertenecen.
Al momento de seleccionar alguno de los 32 estados del país, aparecerán los pueblos mágicos que se encuentren dentro de él, esto gracias a la realización de una consulta por medio de la conexión con una base de datos MySQL mediante la API de Laravel. Dicha consulta devolverá los pueblos de ese estado en formato de tarjeta, las cuales contarán con una imagen de previsualización del pueblo. Al dar click sobre la carta de nuestra preferencia nos redirigirá a la vista del pueblo correspondiente.
Vista Información de Pueblos: Como se mencionó anteriormente, seremos redirigidos a la vista de la información del pueblo sobre el que se hizo click. En esta vista se mostrará dinámicamente la información detallada del pueblo que se haya elegido, compuesta por una breve descripción, atractivos, festividades, actividades, servicios y números de emergencia.
Se realizó la conexión con una base de datos MySQL mediante la API de Laravel.
CONCLUSIONES
Reconocer las funcionalidades del framework Laravel para el desarrollo de soluciones, aplicar otras herramientas de diseño y programación e implementar formatos prediseñados en los paquetes cómo Material Kit y adecuarlos a las necesidades o demandas del proyecto.
En retrospectiva nos sentimos satisfechos con nuestro desempeño durante la estancia de verano pues logramos el desarrollo del template del sitio, así como el módulo de turistas, sobre el cual se podrá seguir trabajando en el futuro.
Martínez González Gabriela Estefanía, Instituto Tecnológico de Morelia
Asesor:Mg. Luis Enrique Ortiz Ospina, Institución Universitaria Esumer
APROPIACIÓN DE LA INNOVACIÓN EN LAS PYMES Y NEGOCIOS ACOMPAÑADOS POR EL PROGRAMA CEDEZO DE LA ALCALDÍA DE MEDELLÍN
APROPIACIÓN DE LA INNOVACIÓN EN LAS PYMES Y NEGOCIOS ACOMPAÑADOS POR EL PROGRAMA CEDEZO DE LA ALCALDÍA DE MEDELLÍN
Cerna Alcantar Jose Norberto, Instituto Tecnológico de Morelia. Martínez González Gabriela Estefanía, Instituto Tecnológico de Morelia. Asesor: Mg. Luis Enrique Ortiz Ospina, Institución Universitaria Esumer
PLANTEAMIENTO DEL PROBLEMA
Hoy en día nos encontramos ante una realidad de "innovar o desaparecer". Debido a esto, la ciudad de Medellín quiere formar una cultura innovadora y una parte fundamental que necesita atención son las pymes; a través del programa CEDEZO de la alcaldía de Medellín se brinda acompañamiento a aquellos que tienen una idea de negocio, emprendimiento o empresa y se les capacita con el fin de fortalecer sus capacidades en áreas empresariales y financieras, buscando la rentabilidad de las famiempresas.
La institución universitaria ESUMER trabaja en conjunto con dicho programa, para de este modo, estudiar y de la misma manera, hacer acompañamiento a las personas que están inscritas al programa.
Este proyecto tiene como objetivo general determinar el impacto de la innovación en las pymes y negocios acompañados por el programa CEDEZO de la Alcaldía de Medellín.
Y sus objetivos específicos son los siguientes:
Identificar los identificar los conceptos, niveles, tipos de innovación y procesos de gestión de la misma, a través de fuentes primarias y secundarias.
Describir los procesos de innovación que dan al interior de las empresas que hacen parte del Programa CEDEZO
Determinar los resultados e impactos de los procesos de innovación en las empresas participantes.
Construir una batería de herramientas para la gestión de la innovación para ser entregada a los empresarios participantes.
Generar recomendaciones y sugerencias frente a la gestión de la innovación en las empresas.
METODOLOGÍA
ETAPA UNO
Selección y análisis de las fuentes de consulta secundarias y primarias relacionadas con el concepto, nivel y tipos de innovación, así como la gestión de innovación al interior de las empresas.
Definición de las variables claves que deben aplicarse en las empresas participantes.
Construcción del instrumento de caracterización y medición.
Convocatoria de las empresas participantes adscritas al Programa CEDEZO.
Aplicación del instrumento en las empresas participantes.
Análisis de los resultados obtenidos.
ETAPA DOS
Selección y análisis de las fuentes de consulta secundarias relacionadas las herramientas de innovación.
Definición de las herramientas claves que serán socializadas con las empresas participantes y construcción de la batería de herramientas de innovación.
Convocatoria de las empresas participantes adscritas al Programa CEDEZO
Aplicación, a través de un taller práctico, de algunas de las herramientas de innovación seleccionadas.
Entrega del documento Caja de Herramientas para la Innovación.
Construcción del artículo con los principales resultados del proyecto.
CONCLUSIONES
Acudieron dieciocho empresas a la convocatoria, y gracias a los instrumentos que se aplicaron se pudo identificar cual es su percepción de innovación, la cual se encontraba un tanto confusa, además se determinó cuales áreas respecto a la innovación estaban atendidas y desatendidas, donde el producto es el área atendida y el área de financiera y organizacional se encontraban totalmente desatendidas. Además, se pudo observar que estas pymes tienden a tomar estrategias ofensivas.
Dicho esto, se entregará una caja de herramientas que contiene doce herramientas acordes a las necesidades y áreas que necesitan reforzar.
Una vez obtenidos los resultados y contrastarlos con la opinión y percepción de los expertos, se puede concluir que la barrera más grande de los emprendedores es el desconocimiento y la desinformación, debido a que asumen llevar a cabo estrategias que no van acorde a la infraestructura que poseen, para lo cual es necesario cambiar sus estrategias que se adapten a ellos o de lo contrario comenzar a realizar acciones que les permitan asumirlas.
Es de suma importancia que estos emprendedores sigan acompañados y algún experto pueda asesorarlos en la aplicación de las herramientas que se les proporciono.
Martínez Guido David Tadeo, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
Hernández Escobar María Concepción, Instituto Tecnológico Superior de Guanajuato. Martínez Guido David Tadeo, Instituto Tecnológico Superior de Guanajuato. Montiel Torres Kevin Yair, Instituto Tecnológico Superior de Guanajuato. Ortiz Gonzalez Roberto Bernardo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
El avance de los países desarrollados se ha basado en el consumo masivo de los combustibles fósiles. Para los países en vías de desarrollo, las necesidades energéticas son aún más vitales si pretenden equipararse con países que disponen de unas infraestructuras y niveles de industrialización ya consolidados.
Los graves efectos medioambientales en el clima regional y global provocados por el actual sistema energético están haciendo que la sociedad esté tomando conciencia acerca de la necesidad de considerar cambios en dicho sistema.
Estos cambios se dirigen hacia el desarrollo de sistemas más eficientes, hacia el fomento de una cultura de consumo más razonable, a la implantación de tecnologías energéticas que utilicen fuentes de energías renovables, etc., con el fin de lograr un modelo energético sostenible.
Esto, unido a la importancia de la energía solar como fuente de energía renovable, hace que las centrales termosolares, como sistemas generadores de energía eléctrica, adquieran gran relevancia de cara a asegurar las necesidades energéticas de una sociedad respetuosa con el medio ambiente
En México sólo existe un campo termosolar en funcionamiento. Realizada por Abengoa, la central Agua Prieta se encuentra en el estado de Sonora, próxima a la frontera con Estados Unidos. Este proyecto, licitado por la Comisión Federal de Electricidad, contó con el apoyo financiero del Banco Mundial y se integra a su vez en un ciclo combinado, formando una central híbrida o ISCC (Integrated Solar Combined Cycle).
METODOLOGÍA
La presente investigación busca impulsar el uso de la energía solar para procesos de calentamiento de agua a media y alta temperatura dentro del estado de Guanajuato y ser parte del crecimiento sustentable del país, con tecnologías apropiadas para cada aplicación, técnica y económicamente sean factibles por su operatividad y rentabilidad económica, para ir supliendo de manera parcial o total a la tecnología convencional existente.
Alcances y limitantes
Si bien la energía contamina, no es esto lo que realmente causa las grandes emisiones de carbono, si no la manera en que se obtiene la misma. Es por esto, que cada vez es más grande el esfuerzo por que las energías renovables representen un gran volumen del consumo de energía en el país.
Aunque no es la única energía renovable obtenida del sol, si es de las más importantes, seguida por la energía fotovoltaica y la solar pasiva.
La energía termo solar, es una de las energías renovables más importantes de México, puesto que aporta un 45% en cuanto a capacidad instalada para la obtención de energía en el país.
El uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar hasta un 50% en consumo eléctrico de fuentes no renovables.
La energía termo solar puede obtenerse de tres formas, mediante una central de torre, central de disco parabólico y una central de cilindro parabólico
Por otra parte, algunas limitantes de esta tecnología, lo es el tiempo de instalación de una central termo solar, ya que puede llevar algunos meses, además de requerir un lugar extenso para su instalación y con terrenos firmes. Añadido a esto, un factor limitante no muy importante es el cambio climático de la zona.
A continuación, se muestra cada una de las fases a realizar dentro de la investigación.
Primeramente, investigamos los procesos de calentamiento de fluidos mediante sistemas solares de media y alta temperatura se distinguen tres tipos de centrales termosolares atendiendo a las características del campo solar, es decir, al sistema utilizado para convertir la radiación solar en energía térmica.
Como segundo paso elaboramos las ventajas y desventajas que conlleva implementar la energía termosolar como se muestra a continuación.
Una vez analizado los pros y contras de la energía termosolar así como los diferentes tipos (Centrales de Colectores Cilindro Parabólicos CCP, Centrales de receptor central o torre y Centrales de disco parabólico) llegamos a la conclusión de que nuestra mejor opción es la elaboración de un prototipado de CCP.
Derivado de los pasos anteriores elaboramos el diseño de nuestra Central de Colector Cilíndrica Parabólica (CCP) mediante el programa de diseño asistido por computadora SolidWorks como se puede observar en la imagen 1.
Para continuar con el proceso de análisis, se llevó a cabo un análisis AMEF, del proceso y diseño de nuestro sistema, para evaluar de manera más practica los posibles errores o fallas que pudiese tener. Dichos AMEF´S se muestran en la tabla 1 AMEF de Diseño y en la tabla 2 AMEF de Proceso.
CONCLUSIONES
Este sistema de energía termo Solar tiene un gran aprovechamiento del recurso natural que es el sol ya que el sistema de movimiento que tiene hace que el reflector parabólico capte desde los primeros rayos de sol hasta los últimos, el uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar en consumo eléctrico de fuentes no renovables.
Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
Adame Galeano María Fernanda, Instituto Politécnico Nacional. Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez. Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla. Segura Martínez Alejandro, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La evaluación de la señal electromiográfica (EMG) tiene muchas aplicaciones en el área biomédica especialmente en interfaces hombre-máquina. Para procesar los datos de EMG es necesaria la fase de preprocesamiento, en esta fase se establece la extracción de características e índices para procesar y analizar la señal con el fin de crear clasificadores y modelos de regresión. Una vez que la precisión de dichos modelos y clasificadores es lo suficientemente efectiva, el método de análisis podría cambiar de fuera de línea a en línea, para procesar los datos en tiempo real y desarrollar una aplicación específica de control de dispositivos con EMG.
El objetivo de este estudio realizado durante el verano de la investigación, es la creación de diferentes scripts que clasifiquen mediante el método Off-line y a través de la aplicación de algoritmos de Machine Learning, las Fases, Velocidad, Peso y Fatiga y compilar todos los scripts en una aplicación o GUI para usarlos fácilmente.
METODOLOGÍA
Protocolo Experimental
Consiste en la adquisición de EMG durante la realización de una flexión-extensión del brazo la cual consta de 5 fases, dichas 5 fases constituyen un Trial (repetición). Se realiza un trial a distintas velocidades: rápida (16 segundos de duración), normal (20 segundos) y lenta (24 segundos), esto constituye un run (corrida). Además, 5 runs forman un bloque y en cada uno de ellos el usuario carga un peso diferente en su mano. Los pesos usados para este estudio fueron 0 libras, 2 libras y 5 libras. En total se tienen a analizar 3 bloques, 15 runs y 45 trials. Los músculos del bíceps braquial, tríceps braquial, braquiorradial y braquial son los involucrados en el movimiento de flexión-extensión que se realiza en el experimento; sin embargo, solo se capturan las señales del bíceps braquial y tríceps braquial. Se plantea que este protocolo puede ser utilizado con cualquier adulto sin trastornos del movimiento.
Adquisición de la señal:
Se utilizará una ortesis adaptable a la que se le colocaran los electrodos superficiales que estarán conectados a un equipo o dispositivo de adquisición de señal EMG, en paralelo a esto se conectará un encoder con un dispositivo de lectura de señales digitales, ambos circuitos se conectarán a un software que leerá los datos del EMG, en este experimento fue utilizado el dispositivo g.STIMbox y el software BCI2000. Las señales EMG se muestrearon con una frecuencia de 4800 Hz.
Posteriormente se establecen parámetros que se utilizarán en el procesamiento de los datos, entre estos parámetros se encuentran: Tipo de estudio, clasificador, feature, normalización, etc.
Procesamiento y análisis:
En este punto se desarrollaron una serie de scripts en el programa MATLAB con el fin de automatizar el preprocesamiento de los datos y lograr llevar un mejor manejo de los cálculos y algoritmos durante el procesamiento de cada estudio.
En el caso de los clasificadores se usa uno de los siguientes métodos:
Linear Discriminant Analysis (LDA).
SVML (Support Vector Machine Linear).
SVMR (Support Vector Machine Reggresion).
Para el análisis de fatiga se toman los datos de los 45 trials y se intuye que en el primer trial se tendrá una mucho menor fatiga que en el número 45 por lo que se ordenan los datos en este mismo orden.
Para este análisis se tomaron cuatro diferentes índices de fatiga:
Average rectified value (ARV), el cual es similar al Mean Absolute Value (MAV).
Zero crossing (ZC)
Slope sign changes
Waveform length (WL)
Posteriormente se grafican los distintos índices de cada trial y se diferencian entre biceps y triceps. A partir de los resultados de esta graficación se determinó que los mejores índices para este estudio son ARV y WL.
Para la creación de los modelos de regresión lineal se usaron dos comandos de MATLAB regress y mdl, ambos se probaron con el conjunto de datos provistos de cuatro variables ARV de bíceps, WL de bíceps, ARV de tríceps y WL de tríceps, teniendo la variable a relacionar como el número de trial puesto que esta debe de estar directamente relacionada con la fatiga.
CONCLUSIONES
La clasificación entre el movimiento sin peso añadido y con peso añadido resultó ser muy eficiente, entre distintos pesos no se obtuvieron tan buenos resultados. La clasificación entre velocidades tiene una eficiencia regular en todas las fases del movimiento con 0.83 de exactitud, y mala para ciertas fases o individuales, llegando a tener menos 0.6 de exactitud. Por otro lado, la clasificación biclase entre pesos obtuvo muy buenos resultados independientemente de la fase seleccionada, llegando a tener valores de exactitud mayores a 0.95. Mientras que para la clasificación triclase de pesos se obtuvieron resultados muy cercanos al 100% de predicción considerando las fases de flexión, contracción y extensión del movimiento. Los mejores índices para el análisis de fatiga fueron ARV y WL; además, se concluye que es importante considerar todas las fases del movimiento para la regresión lineal, teniendo una diferencia en el valor R cuadrada de entre 0.32 y 0.23.
A lo largo de la estancia de investigación, se lograron adquirir de manera satisfactoria conocimientos sobre señales electromiográficas, su adquisición, sus características y las diversas formas procesarlas para lograr obtener resultados. Además de obtener conocimientos sobre algoritmos de Machine Learning y del manejo del programa MATLAB, mismos que culminaron en la elaboración satisfactoria de un guide para facilitar el manejo de los estudios y sus resultados. Por último, se espera mejorar en un futuro algunos aspectos mínimos mencionados para el procesamiento de las señales.
Martínez Hernández Lizeth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
Davila Contreras Eduardo, Tecnológico de Estudios Superiores de Jocotitlán. López Sánchez Saira Anel, Tecnológico de Estudios Superiores de Jocotitlán. Martínez Hernández Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Mateo Mateo Amairani, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Se ha diagnosticado que la ambigua manera de operar para la obtención de resina del pino por parte del trabajador (Resinero) es muy tardado, asociado con el rendimiento promedio de trabajo del mismo, ya que suele pasar por distintas fases antes de su obtención, lo primero que se realiza es la preparación del pino, en este punto se procede al accionamiento de manera manual, ejecutando el alisamiento y desprendimiento de la corteza más fina del pino con un rayador, y con ayuda de un estriador practicar las incisiones que originan en este caso el exudado de resina, por ende se pretende con la implementación de un diseño de herramental ergonómico, reducir tiempo de demora y facilitar el mayor flujo de obtención de resina, aumentando gradualmente la productividad, y eficiencia de la empresa respecto a la obtención de su materia prima, consiguiendo hasta un índice del 30% de efectividad comparado con el método tradicional, lo que permitirá consigo la obtención de resina pura y fina, sin residuos sólidos que alteren su composición original, permitiendo que la incorporación de herramental automatizada sea favorable al proceso de obtención de resina garantizando seguridad en el proceso.
El fin de estudiar esta área de oportunidad que se ha observado en la empresa UUMBAL Agroforestal. Ubicada en la región Sur de Veracruz, es optimizar el proceso de recolección de resina con la ayuda de herramientas automatizadas con el fin de mejorar la productividad y el rendimiento empresarial.
Con la ayuda del software SolidWorks, será posible la creación del prototipo específicamente de un estriador y rayador, ya que son las herramientas principales que hacen posible la obtención de resina, cumpliendo del mismo modo con las especificaciones, tolerancias, diámetros, longitud y profundidad de corte según lo establecido como protocolo de operacionalidad, así como el requerimiento general de los materiales que componen al prototipo, evaluando las técnicas de instrucciones realizadas como mecanismo inherente al proceso.
METODOLOGÍA
Según su finalidad, dicho proyecto de investigación se clasifica como una investigación aplicada, debido a que aborda un problema de la vida real, y pretende dar respuesta a las diferentes áreas de oportunidad, dicho lo anterior se llevara a cabo una serie de pasos sistematizados con el fin de cumplir con los objetivos establecidos al inicio. Por ende, se plasmarán los pasos que se llevaron a cabo para la ejecución de dicho diseño de prototipo de herramental.
Se realizó bajo un modelo de seis etapas para el diagnóstico y diseño principal del herramental específicamente de un estriador y rayador. A continuación, se describe cada etapa de la metodología.
1.- Conocer la Empresa UMMBAL Agroforestal
Primeramente, como punto importante se debe identificar el proceso productivo de recolección de resina para así tener la descripción del uso del herramental que utilizan los colaboradores y todo lo que aborda el proceso generando un conocimiento más amplio abordando tanto debidamente los tiempos para la productividad de la resina.
2.- Análisis de los procesos productivos de herramental
Inspeccionar cada componente individualmente del herramental para la recolección de resina y cómo interactúan para producir resultados para ver cómo se genera el rendimiento en cuanto al tiempo de la recolección de este para así conocer la capacidad del proceso y ver que beneficio se está generando a la productividad en cuanto a su uso.
3.- Diseño de herramental ergonómico
Obtener datos nominales en cuanto al herramental utilizado, mediciones de las operaciones realizadas para poder diseñar el bosquejo del herramental ergonómico tomando como puntos clave, desempeñar con eficacia la función que se pretende de ella, proporcionar las dimensiones del usuario y de la herramienta y por último reducir la fatiga y lesiones del colaborador.
4.- Implementación de diseño de prototipo
Se podrá implementar el uso del prototipo con mejoras, dentro de la empresa UMMBAL Agroforestal, específicamente de un estriador y un rayador, que cumpla con las especificaciones de corte, profundidad y longitud, así como la operación de cosecha, evaluando la funcionalidad y aprovechamiento para valorar su exitosa aplicación
5. Caracterización del diseño de herramental
Se realiza un diagnostico general de los tiempos requeridos para cada operación además de evaluar y analizar minuciosamente el rendimiento total y la productividad, así como el nivel de fatiga del operador y/o resinero.
6. Análisis de mejora
Se realiza una evaluación de resultados de beneficios obtenidos tras las mejoras aplicadas, así como una comparación de las herramientas tradicionales ocupadas actualmente por la empresa y las que se añadieron como mejora, proyectando resultados de uso y componentes del herramental establecido para las operaciones de estriado y rayado.
CONCLUSIONES
Durante este periodo de investigación se tuvo la oportunidad de poder colaborar en la realización del herramental para la extracción de resina en el Agroforestal UUMBAL Veracruz. El proceso de elaboración de este trabajo fue sumamente interesante ya que se dio a conocer todo el proceso acerca de la extracción de resina. Se observó que los colaboradores estaban expuestos a sufrir de fatiga a través de su jornada laboral debido al desgaste físico que los herramentales exigen.
Esto ocasiona que no se obtenga el rendimiento esperado durante la jornada de trabajo, con el diseño de nuevo herramental se pretende aumentar la productividad a través de un diseño más ergonómico y mecanizado que permita al colaborador tener un menor desgaste físico para tener un mayor rendimiento y que esto se vea reflejado en la productividad de extracción de resina.
Martinez Luz Cristian Imanol, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
SIMULACIÓN DEL PROCESO DE GARVI (FÁBRICA DE COLCHONES)
SIMULACIÓN DEL PROCESO DE GARVI (FÁBRICA DE COLCHONES)
Martinez Luz Cristian Imanol, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la industria de fabricación de procesos se enfrenta a diversos desafíos, desde el conocimiento del mercado hasta la creación de productos, por supuesto que uno de los factores más importantes en las empresas del sector industrial es su producción. Sin embargo, muchas empresas de esta industria a menudo encuentran problemas, principalmente para aumentar la productividad y la eficiencia.
La problemática que se presenta en este proceso de fabricación de colchones en la empresa GARVI es obtener una mejora para la eficiencia del proceso de fabricación de colchones, buscar nuevas estrategias que aporten beneficios al proceso y así de esta manera poder lograr un proceso aún más eficiente y productivo, durante el verano de investigación se buscara resolver estos problemas mediante la metodología de la simulación en el software PROMODEL.
METODOLOGÍA
Como punto de partida se empezó con una introducción y desarrollo de los conceptos básicos de la simulación en PROMODEL, posteriormente se realizó un reporte de análisis sobre consultas actuales de la aplicación de los métodos, herramientas y técnicas de simulación de procesos. Una vez realizado esto se procede a seleccionar el lugar donde se va realizar la simulación, se determinó la problemática, objetivos, métricas de desempeño y se redactó la justificación del uso de la simulación para resolver el problema.
Lo siguiente en la metodología de la simulación es recabar datos para elaborar el modelo actual que se va a simular y así realizar la propuesta de mejora del modelo que se va a simular, lo que se realizo es lo siguiente:
Como primera fase, se planteó el problema el cual se va a solucionar.
La segunda fase consiste en observar la secuencia del sistema de fabricación de colchones. En esta parte también se tomaron datos del proceso de fabricación, son datos como tiempos de fabricación de cada proceso, cantidades y número de operaciones que realizan los operadores y maquinarias, para así analizarlos y saber que sentencia de distribución se debe utilizar.
En la fase número 3 es la definición del sistema en la cual se realiza la observación de todos los elementos del proceso de GARVI (fábrica de colchones) así como también se realizaron entrevistas del proceso fabricación a la ingeniera de la empresa GARVI para así tener un más amplio conocimiento de lo que es este proceso y ver el diseño de la simulación para este proceso. Este sistema es de la empresa GARVI que produce colchones, la empresa GARVI está ubicada en Ciudad Hidalgo Michoacán y también se toman imágenes fotográficas del sistema el cual será simulado.
En la fase 4 que es descripción del proceso de fabricación de colchones, en esta parte lo que se realiza es solamente hacer una descripción de todo el proceso que se va a simular para así saber las etapas y áreas en las que está dividido el proceso que será simulado.
La fase 5 es la colección de datos para la simulación, en esta fase ya se involucra más el software de PROMODEL ya que para que funcione la simulación se requieren de datos como:
Las locaciones que hay en el proceso, las entidades que son la materia prima y las transformaciones que va adquiriendo la materia prima para formar el colchón, las redes que son las direcciones de donde van las entidades de un área a otra, las interfaces que estas consisten en nodos que se le agregan a la red los nodos son las áreas, los recursos que se capturan son el número de recursos con los que se cuenta en este caso los recursos son los operadores, los siguientes datos que se capturan son los del proceso y para finalizar con los datos de tiempo que se obtuvieron en la fase 2 de simulación los cuales, al ser analizados se obtuvieron que las distribuciones más viables a utilizar son la distribución de probabilidad exponencial y uniforme, por ende, a que solo tenemos un promedio de tiempo de llegadas a las locaciones y sistema.
Fase 6 implementación del modelo en la computadora, el cual consiste en insertar todos los datos recolectados en el software PROMODEL.
Fase 7 validación de los datos obtenidos del programa. En esta parte se analizan los datos que se obtienen de la simulación para verificar que coincidan con la realidad del proceso de fabricación simulado.
Fase 8 interpretación de los resultados obtenidos de la simulación. En esta parte se interpretan los resultados para que de esta manera se pueda dar una solución o recomendación para la problemática del proceso.
CONCLUSIONES
A lo largo de esta estancia de verano, es posible obtener conocimientos prácticos y teóricos sobre lo que es la simulación en PROMODEL, conocimientos prácticos porque se pone en práctica todos los conceptos de simulación, más sin embargó una simulación es un proceso de trabajo que conlleva más tiempo y en algunas ocasiones puede ser compleja la simulación dependiendo del sistema que se dese simular, un resultado que se obtuvo de esta simulación del proceso de GARVI (fábrica de colchones) es que su proceso funciona correctamente pero ellos no están utilizando sus recursos en su máxima capacidad, por lo cual la recomendación que se logró mediante la simulación, es que deben utilizar estrategias de marketing para que de esta manera produzcan más colchones de los que producen actualmente y así darle más utilización a las máquinas y operadores. Se pueden obtener más resultados de esta simulación evidentemente con más tiempo para así realizar más pruebas de simulación, colección y análisis de datos, profundizando más en el contexto del proceso de GARVI (fábrica de colchones) y por supuesto aplicando otras metodologías aparte de la simulación.
Martinez Madrigal German, Instituto Tecnológico de Morelia
Asesor:Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE BOTóN DE PáNICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES.
DISEñO Y CONSTRUCCIóN DE UN SISTEMA DE BOTóN DE PáNICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES.
García Sánchez Luz Elena, Instituto Tecnológico de Morelia. Martinez Madrigal German, Instituto Tecnológico de Morelia. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
PLANTEAMIENTO DEL PROBLEMA
Debido a la situación actual de inseguridad en México en la cual se está incrementando los índices de robos o ataques a transeúntes en especial en las zonas alejadas de las calles pobladas como lo es el andador del ITSLR. Asimismo los diferentes horarios de los alumnos y de personal que labora en la institución los obliga a transitar por el andador mi temprano en la mañana o muy tarde por la noche que es un periodo de mayor inseguridad para todos ellos y pueden ser víctimas de algún incidente. Sin embargo, a pesar de lo mencionado el andador todavía no cuenta con algún sistema de seguridad o de alarma que ayude a saber cuándo ocurra algún incidente y es por ello que es necesario la implementación de algún sistema de seguridad.
METODOLOGÍA
Como primera acción se realizó el análisis de la región donde se encontraba al andador, como la distancia del punto más lejano al tecnológico, las condiciones climatológicas, las condiciones de irradiación de la región, su latitud y sus condiciones actuales de infraestructura y flora por donde pasa el andador.
Enseguida se estableció que el sistema de botón de pánico debía estar constituido por los botones de pánico con su respectiva alarma (modulo emisor) y un sistema de alarma y notificación en caseta (modulo receptor). Una vez conocido los datos anteriores se decidió utilizar como medio de comunicación inalámbrica la comunicación por radiofrecuencia debido a que la zona no cuenta con internet, también evaluando la distancia se decidió hacer la colocación de 6 botones de pánico con una separación de 80 metros entre sí. Una vez seleccionado el modo de comunicación y la distancia de separación se escogieron los componentes que conformarían al sistema del botón de pánico con lo que se llegó a la decisión de utilizar el módulo NRF24L01+PA+LNA como transmisor ya que este módulo cuenta con la capacidad de actuar como emisor y receptor el mismo tiempo y además se puede enlazar con 6 módulos sin problemas de comunicación, así mismo el módulo cuenta con una distancia de alcance máxima de 1 km.
Posteriormente se llevó acabo la selección de los componentes que entregarían el módulo receptor y el módulo emisor. Para el módulo emisor se tomó en cuenta que los componentes de electrónica que lo entregarían serian un Arduino uno como microcontrolador, el módulo NRF24L01+PA+LNA, dos fuentes reductoras, dos botones pulsadores, un relé, una sirena de alarma. En cuanto al módulo receptor los componentes electrónicos que lo conforman son la tarjeta Arduino, el módulo NRF24L01+PA+LNA, un botón pulsador, un relé, una sirena de alarma, dos fuentes reductoras y un tablero indicador.
Conociendo los componentes de electrónicos que conformarían cada módulo se procedió a buscar el consumo eléctrico de cada componente y se le declaro un tiempo de uso por día a cada componente con lo cual se realizó el dimensionamiento del sistema fotovoltaico autónomo encargado de alimentar cada uno de los módulos de alarma. Además se noto que los componentes eran prácticamente los mismos ya que los botones y el tablero no representaban un consumo eléctrico y el mismo sistema fotovoltaico funcionaria para todos los módulos.
Enseguida se realizó el diseño del código que se usaría para el módulo receptor y los módulos emisores. Ya conociendo todos los componentes que conformarían los módulos emisores se realizó el diseño de la estructura que contendría todos los componentes electrónicos y el botón y del sistema fotovoltaico.
Por último se realizó la construcción de un prototipo didáctico con el cual se comprobaría el funcionamiento de los códigos y de los módulos.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos en la comunicación por radiofrecuencia, programación de Arduino. También se logró reforzar conocimientos en la utilización de los módulos NRF24L01 y ponerlos en práctica en el prototipo construido, con lo cual se logró ver que los códigos funcionaban correctamente. Sin embargo debido a problemas de contingencia sanitaria no se pudo implementar el diseño del sistema fotovoltaico y comprobar su funcionamiento y eficiencia energética así como comprobar la eficiencia de la comunicación de los módulos en el andador.
Martínez Martell Sharon Yudith, Universidad Autónoma de Occidente
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PRÓTESIS ROBÓTICA. UN ENFOQUE EDUCATIVO.
PRÓTESIS ROBÓTICA. UN ENFOQUE EDUCATIVO.
Martínez Martell Sharon Yudith, Universidad Autónoma de Occidente. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
PRÓTESIS ROBÓTICA
Un enfoque educativo
Asesor: M.C. Juan Carlos Ojeda Alarcón, Universidad Autónoma de Occidente
Estudiante: Sharon Yudith Martínez Martell, Universidad Autónoma de Occidente
El presente proyecto partió de diferentes puntos: la robótica educativa, el cuidado al medio ambiente, y la investigación.
En la actualidad existe una gran cantidad de desecho tecnológico, lo cual nos motiva a utilizar y fomentar el cuidado al medio ambiente mediante el uso de material reciclado en la elaboración de los proyectos. Por otro lado, siendo la robótica una rama de la tecnología que cada vez forma un papel más importante dentro de la sociedad y el mundo laboral, se buscó llevar a cabo la aplicación de los proyectos a niveles educativos varios para fomentar este campo de estudio al mismo tiempo de que se adquieren conocimientos de otras materias; y haciendo referencia al último punto del que parte la problemática se tiene que la investigación cumple un rol muy importante en el desarrollo de proyectos profesionales, por lo que se necesita que los jóvenes se vean atraídos hacia esto desde edades tempranas.
METODOLOGÍA
Como se mencionaba, se buscó incluir los tres puntos mencionados, de manera que dentro de la aplicación de la robótica educativa fuera posible aprender a reciclar y al mismo modo fomentar la cultura de la investigación científica.
A lo largo de la duración del verano científico se logró satisfactoriamente el desarrollo de varios proyectos, el primero siendo un sitio web colaborativo con los compañeros del verano, en el que fueron documentados los demás proyectos elaborados consiguientemente a este. El enlace es el que a continuación se muestra:
https://sites.google.com/view/veranodeldelfin2021/inicio/robotica-educativa/sharon
Después de la personalización y configuración de nuestra parte del sitio web en cuestión, en el cual se agregó nuestra información personal también para mostrar un poco de nuestros gustos y experiencias a manera de presentación, se comenzó a subir al mismo en distintos apartados la documentación de todos los proyectos, como se dijo anteriormente. El primero fue Prótesis de mano como herramienta en la robótica educativa, en el cual se habla de cómo este robot, elaborado con materiales reciclados puede ayudarnos en la enseñanza de una materia escolar de nivel medio superior como lo puede ser la de Anatomía, y logrando la obtención de conocimientos por parte del alumno, tanto de esta materia como de robótica.
Como segundo proyecto se elaboró una simulación en TinkerCad a raíz de un taller de la misma plataforma que se nos brindó por parte de nuestros asesores. Este proyecto fue libre y se presentó en clase de igual manera que el resto de los proyectos, así como también documentado en el sitio.
El tercer proyecto consistió en el Control de giro de motores, utilizando los materiales que pudimos conseguir en casa, reciclados y de fácil acceso económico; el cuarto proyecto, fue consecuente a este, ya que se basó en la aplicación de este robot dentro de la robótica educativa mediante la creación formal de una secuencia didáctica que pudiera ser aplicada fácil y satisfactoriamente. Esta secuencia didáctica se elaboró para la enseñanza de una segunda lengua a nivel medio superior, siendo esta lengua el inglés.
Como proyecto final se decidió realizar un proyecto que pudiera ofrecer una mejor calidad de vida a las personas, por lo que se optó por la construcción de una prótesis de brazo robótico impresa en 3d con material PLA, el cual es de bajo costo, por lo que permite un mayor acceso a un mayor número de personas. Esta prótesis es controlada mediante una aplicación móvil con control de voz para un mejor y más fácil manejo, dicha app se desarrolló en la plataforma de App Inventor que le permite a la aplicación ejecutarse en el sistema operativo Android, que es el más utilizado actualmente.
CONCLUSIONES
Como resultado de este proyecto, se logró la creación de distintos robots a partir de material reciclado, la documentación de estos y secuencias didácticas que permiten o faciliten el desarrollo de estos robots dentro de la robótica educativa a distintos niveles escolares.
Se tuvo como contexto el de la robótica educativa y los pasos para su correcta aplicación dentro de la educación, los cuales son: Diseñar, Construir, Programar, Probar y Documentar; así como también el cuidado al medio ambiente, y la investigación.
Martinez Mauricio Misael, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
León García María Fernanda, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Mauricio Misael, Tecnológico de Estudios Superiores de San Felipe del Progreso. Vazquez Isidro Zuleny, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
PLANTEAMIENTO DEL PROBLEMA
El proceso de producción de la panela es una alternativa para la disminución de la pobreza dentro de la comunidades rurales; de acuerdo a (Silva, 2005) el aprovechamiento de las potencialidades propias ayuda a transformar a los sistemas productivos locales y mejorar la calidad de vida de la población y generar un proceso endógeno para el desarrollo local; la panela logra ser un sustituto del azúcar comercial que contiene componentes que afectan su comercialización y consumo; una de la principales características dentro de esta barreras son las propiedades fisicoquímicas se notan en la imagen del producto, debido a que su propiedades abala desde la coloración, olor, sabor y otras características que significativamente son muy notadas por el consumidor; implementar e innovar el proceso de la panela de una forma natural para la obtención de un producto de la sacarosa con mayor pureza es uno de los desafíos a aplicar, teniendo similitudes de la sacarosa con proceso de alta industrialización; contrarrestando a la pobreza con el aprovechamiento de la panela con mayor pureza.
En el proceso de cristalización se propone para la separación de la panela en solución saturada; en donde la manipulación de las variables independientes (tiempo y temperatura) nos permita obtener una mayor cantidad de cristales de sacarosa de una forma natural; de acuerdo a las similitudes de las normalizaciones de la sacarosa comercial; teniendo como pregunta de la investigación ¿Cuál es la temperatura y tiempo de anaquel de la panela en dilución saturada que permite la obtención de cristales de sacarosa con características fisicoquímicas para el consumo?
METODOLOGÍA
La investigación por sus características experimentales se ejecutó en base a un diseño de tratamientos en arreglo factorial del tipo 32 y se ejecutó un diseño de experimento completamente al azar (Montgomery, 1991); con tres repeticiones, donde el factor A, fue la temperatura de anaquel (A1: 8°C, A2:12°C, A3:16°C) y el factor B fue el tiempo de anaquel (B1: 15 días, B2:30 días, B3:45 días) por lo cual los tratamientos vienen dados por todas las combinaciones posibles entre los niveles de los factores; haciendo un total de 9 tratamientos para la obtención de cristales de sacarosa a partir de panela en dilución saturada. Se utilizaron cañas de la región de Santa Rosa de Lima, Perú, la materia prima, se seleccionaron aquellas que alcanzaban la madurez organoléptica, pues se considera que estas tienen la máxima concentración de jugo en la caña, realizando la determinación del índice de madurez de la caña, calculando los sólidos totales de la base y el extremo terminal de la caña y mediante la siguiente formula se estableció el índice de madurez.
Donde se establece que IM < 85% tierna o no madura, 85%> IM< 100% madura, IM>100 sobremadura.Al tener la materia prima, se realiza un lavado artesanal a la caña, y se somete a un molido artesanal mejor conocido como Trapiche en el Perú, aproximadamente por 30 minutos donde se extrae el jugo de 490 cañas, el jugo se somete a un proceso de evaporación, al eliminarse el agua, el producto se denomina cachas, es la miel en el punto de panela sin batido, se realiza la clarificación, obteniendo la separación de las muestras (panela liquida).En la obtención de los cristales de sacarosa a partir de la panela, como primera instancia se realiza la recepción de la panela liquida, misma que es procedida a su caracterización, para los efectos de control de calidad, posteriormente se lleva a cabo el pesado de la panela liquida, con la finalidad de establecer los cálculos de eficiencia o rendimiento; para asegurar la inocuidad del proceso y el acondicionamiento de la panela, se somete a un pasteurizado, donde el producto se llevado a 85°C, enseguida se realiza el envasado a temperatura de 85°C, en recipientes de vidrio color ámbar de 350 ml cada uno, cada muestra embazada se coloca en refrigeración, almacenándose cada uno a temperaturas (8°C, 12°C, 16°C) y tiempo (15, 30, 45 días)de acuerdo a los tratamientos.
Al cumplir el tiempo de refrigeración, los cristales son extraídos, por medio de un trasvasado del líquido no cristalizado, conservando únicamente los cristales, mismos que son sometidos a un lavado de manera rápida para eliminar restos de sacarosa diluida de la superficie de los cristales, enseguida se realiza un oreado, para eliminar restos de agua de la superficie de los cristales, por medio de un secador de bandejas, a una temperatura de 60°C; para obtener una granulometría homogénea y más fina de los cristales, que pasan por un molido, realizado por molino de tornillos regulado, finalmente los cristales son envasados en un envase de vidrio con cierre hermético y se modifica según tratamiento. En la determinación de las características de los cristales de sacarosa, se utilizan los métodos recomendados por la Comisión internacional de Métodos Uniformes para el Análisis del Azúcar (ICUMSA: International Commission for Uniform Methods of Sugar Analysis), es el organismo internacional de Normalización. Y se realizan los análisis físico-químicos de los cristales como el color cenizas conductimétricas, humedad , polarización azucares reductores factor de seguridad, densidad. Rendimiento, velocidad de solubilidad, pH, porcentaje de acidez titulable, capacidad edulcorante. Una vez obtenidos los cristales con ciertas propiedades requeridas se compararán con el producto azúcar rubia doméstica los cuales debe cumplir con las características físico-químicas y organolépticas para determinar si apto para su consumo.
CONCLUSIONES
Se trabajó el tratamiento a temperatura 16°C por un tiempo de 15 días en almacenamiento; sé logró encontrar cristales de sacarosa; con humedad de 0.18%, densidad 1.573 g/mL, rendimiento de 230 g de cristales en una muestra de 350 mL de panela; pH de 5.72; con color a 420 nm de 1478 UI, lo cual está dentro los parámetros establecidos por la ICUMSA; es necesario mencionar que aún falta la evaluación de la polarización y factor de seguridad con ello se demostrará totalmente la aptitud para el consumo; además se sabe que existe aún que ejecutar los demás tratamientos y evaluar diferencias significativas para seleccionar el mejor.
Martinez Mejia Montserrat Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
REMOCIóN DE ARSéNICO EN SISTEMA ACUOSO EMPLEANDO RESIDUOS LIGNOCELULóSICOS MODIFICADOS CON LANTANO
REMOCIóN DE ARSéNICO EN SISTEMA ACUOSO EMPLEANDO RESIDUOS LIGNOCELULóSICOS MODIFICADOS CON LANTANO
Martinez Mejia Montserrat Guadalupe, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
La presencia de componentes tóxicos en el agua es uno de los mayores problemas en temas ambientales. Particularmente, el arsénico (As) se encuentra entre los elementos que han causado daño a la salud provocando enfermedades como cáncer de piel, pulmón, vejiga, enfermedades cardiovasculares entre otras (Wong y col., 2016). De acuerdo con algunos estudios, en México existen niveles de concentración de arsénico en agua que superan los límites permitidos (10 µg/L) por la Organización Mundial de la Salud y las Normas Oficiales Mexicanas (NOM, 2017). Debido a esta problemática se han propuesto diversos métodos que tienen por objetivo la reducción de este elemento en el agua. Entre ellos, la adsorción ha resultado ser una alternativa versátil, eficiente y económica (Vences-Alvares, 2014; Acuña, 2016). A la fecha se han empleado diferentes tipos de adsorbentes para la remoción de arsénico, entre ellos: laterita, ferrihidrita, lodo rojo, geotita, cenizas volátiles de carbón, turba, cemento hidratado, polvo de mármol, polvo de ladrillo y magnetita (Hernández-Montoya y col., 2012; Nieto-Delgado y Rangel-Méndez, 2012; Vences-Alvares, 2014). La ventaja del uso de estos adsorbentes es que la mayoría son de bajo costo y tienen un nivel de remoción considerable (Acuña, 2016). Por otra parte, los residuos lignocelulósicos han sido considerados adsorbentes adecuados para la remoción de arsénico debido a la presencia de diferentes grupos funcionales en su estructura (contenidos en la lignina, celulosa y hemicelulosa), que han resultado ser favorables para dicho propósito. Bajo esta perspectiva, en este proyecto se probó el desempeño de remoción de arsénico de diferentes adsorbentes modificados con lantano empleando residuos lignocelulósicos como precursores.
METODOLOGÍA
Se llevaron a cabo estudios de equilibrio de adsorción de arsénico empleando diferentes adsorbentes proporcionados en el laboratorio. Los adsorbentes se sintetizaron a partir de cáscara de nuez de macadamia (M), hueso de aguacate (A) y tallo de coliflor (C) empleando soluciones de lantano con tres concentraciones distintas (5, 10 y 20 % w/w). Los experimentos de adsorción se realizaron a pH 7, 30 °C, agitación constante de 120 rpm durante 24 h, empleando un relación adsorbente-adsorbato de 2 g/L y una solución inicial de arsénico con concentración inicial de de 200 mg/L.
La concentración de los iones de As antes y después del proceso de adsorción se determinó por espectrofotometría de absorción atómica usando un equipo Thermo Scientific modelo iCE300 y una curva de calibración en el rango lineal de 0-40 mg/L. El porcentaje de remoción de los diferentes adsorbentes se obtuvo mediante la siguiente ecuación:
% de remoción=Ci-Ce/Ci
Donde Ci y Ce son las concentraciones de arsénico iniciales y en el equilibrio en mg/L.
CONCLUSIONES
De acuerdo con los resultados obtenidos para los diferentes adsorbentes, el tallo de la coliflor dopado con 20 % w/w de lantano alcanza un porcentaje de remoción del 39 %,. Para los adsorbentes modificados con 5 y 10 % w/w de lantano se alcanzaron porcentajes de remoción de 30 y 38 %. Con los adsorbente obtenidos a partir del hueso de aguacate empleando un 5, 10 y 20 % w/w de lantano se obtuvieron porcentajes de remoción de 17, 24 y 26 %, mientras que para los adsorbentes obtenidos de la cáscara de nuez de macadamia se alcanzaron porcentajes de remoción del 7, 9 y 15 %, respectivamente. Se entiernde que las capacidades de adsorción con respecto al precursor presentan la siguiente tendencia: cáscara de nuez de macadamia < hueso de aguacate < tallo de coliflor. El comportamiento anterior puede deberse a la presencia de los grupos funcionales contenidos en la estructura de los adsorbentes, los cuales se encuentran presentes en diferentes cantidades.
Para un mejor entendimiento del proceso de remoción de arsénico en solución acuosa, se propone realizar estudios de caracterización de los adsorbentes antes y después del proceso de adsorción. Esto permitirá poder establecer las posibles interacciones entre adsorbato-adsorbente.
Referencias
Acuña, P. Potential natural low-cost adsorbents for the removal of arsenic in drinking water in Costa Rica, Tecnología en Marcha Número Especial Estudiantes 3 (2016) 23-34.
Hernández-Montoya, V., Ramírez-Montoya, L.A., Bonilla-Petriciolet, A., Montes-Morán, M.A. Optimizing the removal of fluoride from water using new carbons obtained by modification of nutshell with a calcium solution from egg shell. Biochemical Engineering Journal 62 (2012) 1-7.
Nieto-Delgado, C., Rangel-Méndez, J.R. Anchorage of iron hydro(oxide) nanoparticles onto activated carbon to remove As(V) from water. Water Research 46 (2012) 2973-2982.
Norma Oficial Mexicana, PROY-NOM-127-SSA1-2017, Agua para uso y consumo humano. Límites permisibles de la calidad del agua. Disponible en: https://www.dof.gob.mx/nota_detalle.php?codigo=5581179&fecha=06/12/2019.
Vences-Álvarez, E. Modificación de carbón activado con La(III) para la remoción de fluoruros del agua. Repositorio IPICYT (2014) 1-22.
Wong, W.W., Wong, H.Y., Borhan, A. Recent advances in exploitation of nanomaterial for arsenic removal from water: a review. Nano 28 (2016) 1-31.
Martínez Monzón Bryan, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
VALORIZACIóN DE BIOMASAS PARA LA PRODUCCIóN DE BIOENERGéTICOS Y OTROS PRODUCTOS DE VALOR AGREGADO.
VALORIZACIóN DE BIOMASAS PARA LA PRODUCCIóN DE BIOENERGéTICOS Y OTROS PRODUCTOS DE VALOR AGREGADO.
Flores Vazquez Andrea Yoselin, Instituto Politécnico Nacional. Martínez Monzón Bryan, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
El crecimiento y la evolución de nuestra civilización implican mayores cantidades de energía, la cual hasta ahora se obtiene mayormente de combustibles fósiles, como el petróleo, carbón y gas natural. Sin embargo, los efectos cada vez más devastadores del cambio climático y del calentamiento global sumado al agotamiento de los combustibles fósiles, han llevado a la sociedad moderna a buscar e implementar nuevas tecnologías que garanticen su sostenibilidad y que sean factibles, económicamente competitivas y ambientalmente amigables.
Una de las fuentes de energía alternativas más estudiadas y que destaca sobre las demás es la biomasa. La biomasa es la materia orgánica obtenida por procesos biológicos, pudiendo ser esta de origen vegetal o animal. De la biomasa vegetal se puede obtener biodiesel, ya que se compone principalmente por celulosa, hemicelulosa y lignina, además de otros compuestos como aceites cuya composición varía según la fuente de biomasa; son estos aceites que pueden transformarse en biodiesel mediante una reacción de trans/esterificación catalizada. Es por ello que el problema principal está en encontrar biomasas que no sean comestibles y que contengan un alto contenido de lípidos. Por tanto, en este proyecto se determinaron las condiciones que permitieran una mejor extracción de los lípidos mediante el empleo de solventes verdes ya que el objetivo es obtener un proceso de producción de bioenergéticos que sea sustentable.
METODOLOGÍA
Dentro de las materias primas estudiadas, se consideraron las siguientes biomasas: hueso de aguacate y semilla de guayaba.
Pretratamiento de las biomasas. Las biomasas fueron molidas, secadas y finalmente tamizadas para homogenizar el tamaño de partícula. Se utilizaron tamices de malla 35-16 para el hueso de aguacate y tamiz de malla 40 para las semillas de guayaba.
Extracción de lípidos. Se utilizó hueso de aguacate con un tamaño de partícula de 0.5 - 1.18 mm. Se evaluó el efecto de la relación masa-solvente donde se adicionaron 5 g de biomasa con 20, 30, 40, 50 y 60 mL del solvente acetato de etilo. Después se mantuvieron en agitación constante en una parrilla por 10 min a temperatura ambiente y se dejó reposar por 4 h para obtener la separación de fases extrayendo la fase líquida de las muestras. En una campana de extracción se evaporó el solvente para recuperar el aceite vegetal que se utilizará para la producción del biodiesel. El procedimiento anterior se empleó con la semilla de guayaba con un tamaño de partícula de 0.42 mm.
Se evaluó el efecto del solvente sobre la extracción de lípidos contenidos en el hueso de aguacate. Se realizaron extracciones por triplicado para cada uno de los siguientes solventes: Hexano, Propionato de Etilo y Acetato de Etilo, con una relación biomasa/solvente de 0.1 g/mL. A diferencia de las pruebas anteriores, las muestras se colocaron en un baño con agitación a 30 °C durante 3 h y a 120 rpm.
El porcentaje de lípidos extraído se calculó con la fórmula: %lípidos=(((vaso+aceite)-vaso)/(masa de biomasa))*100
Experimentos cinéticos. Para determinar la cinética del proceso de extracción de los aceites se realizó un experimento similar a los anteriores, pero variando el tiempo en un rango de 0.08 a 9 h, manteniendo la cantidad de biomasa y el volumen del solvente constantes. Las cinéticas se realizaron por duplicado utilizando una relación biomasa/solvente de 0.1 g/mL con butirato de etilo como solvente verde. Se evaluó el efecto de la temperatura a 20 °C y a 30 °C en un baño con agitación marca LabTech modelo LSB-0155. Cada par de tubos se retiró en el tiempo indicado, desde 0.08 hasta 9 h.
Reacción de trans/esterificación. A partir del aceite extraído de la semilla de guayaba con butirato de etilo se llevó a cabo la esterificación utilizando una relación molar de 10:1 (metanol/aceite). El tubo de reacción se colocó en una parrilla con control de temperatura a 60 °C y agitación por 6 h, utilizando como catalizador HCl al 0.25 % en peso con respecto al aceite. Se utilizó un catalizador ácido porque el índice de acidez del aceite es mayor que 1% y puede provocar la formación de jabón en la reacción. Posteriormente, se realizó la reacción de transesterificación del producto de reacción anterior con una relación molar 6:1 (metanol/aceite), a una temperatura de 60 °C, en y empleando 0.043 g de KOH como catalizador básico.
La cantidad de ésteres metílicos de ácidos grasos (o biodiesel) obtenida en la reacción se determinó por Cromatografía de Gases, donde el estándar interno utilizado fue heptadecanoato de metilo con una concentración de 2.01 g/L, como base para el cálculo del porcentaje de formación de FAMEs.
CONCLUSIONES
Al obtener los resultados y compararlos con pruebas anteriores se observa que la cantidad de aceite de semilla de guayaba extraído con butirato de etilo fue mayor que la de hueso de aguacate. Dicha cantidad incrementa conforme aumenta la cantidad de solvente y así mismo la temperatura. Por otra parte, el solvente propionato de etilo extrajo una mayor cantidad de lípidos del hueso de aguacate.
Con relación a las cinéticas de extracción, los resultados indican que a mayor tiempo de extracción mayor porcentaje de lípidos es extraído. Así mismo, al aumentar la temperatura se obtiene mayor porcentaje de lípidos. A partir de las 7 horas, no existe una apreciable variación en la cantidad de aceite extraído, es decir, llega a un punto en donde la velocidad de extracción es casi constante.
Finalmente, con los valores obtenidos por cromatografía de gases se obtuvo el porcentaje de ésteres metílicos de ácidos grasos, determinando que cuando se utilizan aceites refinados el porciento de biodiesel es más alto que cuando se utilizan aceites sin refinar. A pesar de que todavía es necesario realizar más experimentos para encontrar las mejores condiciones de operación, los resultados obtenidos fueron de gran utilidad para la producción de biodiesel.
Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Andrea Palomino Salcedo, Universidad del Valle
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Palomino Salcedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Los bancos de alimentos son una estrategia para minimizar el desperdicio de alimentos y aumentar la seguridad alimentaria en poblaciones vulnerables. Sin embargo, la decisión de destinar alimentos a quienes soliciten su apoyo es una situación problemática. Esta decisión debe considerar varios criterios que aseguren que los alimentos se dirijan a las organizaciones o poblaciones que más lo necesitan. (Henao, López, Chud-Pantoja & Osorio, 2020, párr. 1)
El desperdicio de alimentos ha aumentado en todo el mundo, siendo una cifra casi aterradora: en el año 2019, hubo 931 millones de toneladas de alimentos desperdiciados (Paúl, 2021). En Colombia, se desperdician alrededor de 9.76 millones de toneladas cada año (Anónimo, 2019).
También hay una gran población que no come adecuadamente y puede aprovechar estos alimentos. Si nos adentramos en algunos de los municipios de Colombia, en este caso, de Cali, las cifras que se desperdiciaron en el 2018 fueron de 319.305 toneladas de comida únicamente en los hogares caleños, y según las proyecciones realizadas, este año se generaría un total de 330.169 toneladas de comida en las basuras de las zonas residenciales (Anónimo, 2014).
Si bien fenómenos como la desnutrición crónica y la relación de esta con la mortalidad infantil están asociados a la inseguridad alimentaria, de acuerdo con la Unicef la desnutrición crónica, que se diagnostica cuando la talla y el peso no corresponden a la edad de la persona, está asociada a situaciones de pobreza, y tiene un enorme impacto en el desarrollo (Aguirre, 2014).
METODOLOGÍA
Para la elaboración de este proyecto se utilizará la metodología de acción (investigación) tecnológica, ya que logra determinar un saber hacer técnico que recibe el nombre de Know how, que en general está ligada a un campo de aplicación y se caracteriza por un lenguaje propio, especializado y utilitario (Anasagasti, 2011).
Básicamente podemos definir esta metodología de investigación-acción como una forma de indagación introspectiva colectiva emprendida por participantes en situaciones sociales con objeto de mejorar la racionalidad y la justicia de sus prácticas sociales o educativas, así como su comprensión de esas prácticas y de las situaciones en que éstas tienen lugar (Maciel, C., 2003).
Con respecto al ciclo de vida del software, se implementará una metodología ágil, la cual representa el enfoque de desarrollo ágil, que ha sido implementando en diferentes organizaciones para la gestión y administración, enfoque con el que se pretende aumentar las probabilidades de éxito en la puesta en marcha de los proyectos. Esta metodología se encuentra orientada al desarrollo de proyectos complejos donde no se cuenta de manera completa con toda la información necesaria al iniciar el proyecto y, por lo tanto, no es factible planificarlos en detalle. En esta metodología es importante la colaboración y participación (Calderón, O., 2020).
Para el desarrollo del software utilizaremos la Metodología ágil SCRUM, que corresponde a una metodología ágil y flexible para gestionar el desarrollo de un proyecto de software. Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación (Softeng, 2021).
Con la metodología SCRUM el cliente se entusiasma y se compromete con el proyecto dado que lo ve crecer iteración a iteración. Asimismo, le permite en cualquier momento realinear el software con los objetivos de negocio de su empresa, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema (Softeng, 2021).
SCRUM es un marco de trabajo iterativo e incremental para el desarrollo de proyectos y se estructura en ciclos de trabajo llamados Sprints. Éstos son iteraciones de 1 a 4 semanas, y se suceden una detrás de otra. Al comienzo de cada Sprint, el equipo multi-funcional selecciona los elementos (requisitos del cliente) de una lista priorizada. Se comprometen a terminar los elementos al final del Sprint. Durante el Sprint no se pueden cambiar los elementos elegidos. Al final del Sprint, el equipo lo revisa con los interesados en el proyecto, y les enseña lo que han construido. El equipo obtiene comentarios y observaciones que se puede incorporar al siguiente Sprint. SCRUM pone el énfasis en productos que funcionen al final del Sprint, es decir que estén realizados (P. Deemer, G. Benefield, C. Larman & B. Vodde., 2009).
CONCLUSIONES
Con el desarrollo de este proyecto de investigación se lograron conocer los procesos referentes a la gestión de la información ocurrida a partir de las donaciones, los procesos de gestión del producto dentro del banco de alimentos y la distribución de los alimentos para los bancos de alimentos del suroccidente de Colombia.
La información que se obtuvo mediante la entrevista con el director del banco de alimentos de Manizales fue de gran apoyo para conocer su funcionamiento, desde la preservación y distribución de los donativos hasta el proceso administrativo y de control que se lleva a cabo al revisarlos.
Se cumplieron con las expectativas para este proyecto, realizando así el análisis y diseño de un sistema para el apoyo a la cadena de abastecimiento en los bancos de alimentos del suroccidente colombiano. Además de llevar a cabo exitosamente la metodología de desarrollo ágil SCRUM y con la que se realizaron los objetivos planteados en esta investigación.
La experiencia de redactar y construir el proyecto fue muy gratificante, aprendimos las técnicas y los procedimientos necesarios para realizar una investigación formal, así como aplicamos los conocimientos que hemos adquirido a lo largo del tiempo durante nuestra formación académica.
Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional
Asesor:M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
MéTODO DE MEDICIóN DE SEñALES ELECTROENCEFALOGRáFICAS PARA DETECTAR LAPSOS DE ATENCIóN EN UN USUARIO CON TRASTORNO DEL ESPECTRO AUTISTA
Escudero Garrido Elena Patricia, Instituto Politécnico Nacional. Gutiérrez Montiel Ixchel, Instituto Politécnico Nacional. Macarena de Haro Iliana Elizabeth, Instituto Politécnico Nacional. Martínez Amaya Laura Fernanda, Universidad Autónoma de Manizales. Martínez Oliva Gonzalo Guillermo, Instituto Politécnico Nacional. Asesor: M.C. José Jaime Esqueda Elizondo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El autismo es un trastorno del neurodesarrollo caracterizado por ser un trastorno para toda la vida y presentar alteraciones de la interacción social, comunicación verbal, no verbal, el comportamiento restringido y repetitivo; generalmente los signos se observan durante los dos o tres primeros años de vida, actualmente se conoce como Trastorno del Espectro Autista (TEA).
La medición de los lapsos de atención en niños con Trastorno del Espectro Austista(TEA), ha ido tomando un papel muy importante, ya que en ellos el nivel de atención suele ser muy bajo debido a que se encuentran lidiando con una gran cantidad de estímulos del entorno. Lo que les genera estrés y potencia que se alteren, por lo que su nivel de atención es variante.
Con la detección de estos lapsos de atención (sostenida, dividida y alternante, en las modalidades visual y auditiva) se pretende coadyuvar en el aprendizaje de personas con TEA al interactuar con medios de aprendizaje tales como aplicaciones de software y otros tipos de actividades didácticas, con lo cual se puede mejorar el diseño de escenarios de aprendizaje y por lo tanto, la calidad de vida.
METODOLOGÍA
La base de datos se obtuvo a partir del registro de señales electroencefalográficas de un paciente con Trastorno del Espectro Autista que fueron adquiridas por medio del uso del dispositivo inalámbrico EPOC+ de 14 canales. Se realizaron tomas de muestras para la identificación de los lapsos de atención en el paciente al desarrollar distintas actividades de aprendizaje. El EPOC+ se utiliza en conjunto con el software EmotivPro para recopilar, analizar y almacenar métricas de datos cerebrales.
Los registros de las señales se utilizaron para la creación de archivos .mat correspondientes a cada uno de los 14 electrodos del dispositivo gracias a la herramienta Importa Data de MATLAB para su posterior procesamiento. Como primer punto, se realizó el escalamiento de la señal considerando la resolución de 0.51 uV proporcionada por el fabricante. Posteriormente, se eliminó la línea isoeléctrica de las señales empleando el comando detrend que nos permite restar la media de los datos.
Una vez obtenida la base de datos, se utilizó el software libre EEGLab proporcionado por UCSD, el cual se anexa a la plataforma de simulación MATLAB para el procesamiento de señales electroencefalográficas, en donde, primeramente se registraron las posiciones de los electrodos del dispositivo, para posteriormente hacer el análisis completo de las señales. Se realiza a continuación la identificación y clasificación de los artefactos presentes en la señal EEG para su posterior eliminación. Esto se puede hacer gracias al módulo de Análisis de Componentes Individuales (ICA, por sus siglas en inglés) de EEGLab.
Una vez eliminados los artefactos, se analizaron las señales para obtener la Densidad Espectral de Potencia por medio de un programa en MATLAB con la finalidad de analizar y detectar la mayor actividad eléctrica presentes en ciertas bandas de frecuencia (bandas Beta) y que es coincidente con los lapsos de mayor atención para cada una de las actividades realizadas.
CONCLUSIONES
El procesamiento de señales EEG puede determinar el nivel de atención que se presenta al desarrollar una actividad de aprendizaje con una persona con TEA, además obtener una medición cuantitativa de cada sesión y, de esta manera, saber el impacto de la actividad. Asimismo, también se puede saber si le es clara la instrucción, esto es muy importante sobre todo en las personas con TEA no verbales. De esta forma, se pueden diseñar o adaptar escenarios de aprendizaje personalizados, mejorando su bienestar y calidad de vida, para en un futuro lograr una inclusión laboral en su vida adulta.
Martínez Orozco Ernesto, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PROGRAMACIóN EN PYTHON IMPLEMENTANDO MéTODOS, APLICANDO APRENDIZAJES Y VALIDACIóN/FUNCIONAMIENTO DE LOS MISMOS
PROGRAMACIóN EN PYTHON IMPLEMENTANDO MéTODOS, APLICANDO APRENDIZAJES Y VALIDACIóN/FUNCIONAMIENTO DE LOS MISMOS
Martínez Orozco Ernesto, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
Python es un lenguaje de programación muy diverso, estando destinado desde para la resolución de problemas matemáticos hasta problemas de ingeniería y otras ramas. Este lenguaje cuenta con una gran cantidad de algoritmos y procesos los cuales nos ayudan para la clasificación, resolución y revisión de datos, funcionando estos mismos de diferentes maneras, dependiendo de su complejidad, tamaño, etc.
Gracias a estos procesos se pueden realizar análisis y comparaciones de los algoritmos creados, ayudando a mejorar el proceso encontrando errores en el mismo o modificándolo para aumentar su eficacia.
METODOLOGÍA
La metodología se realizó mediante explicaciones basadas en ejemplos, todo esto mientras el estudiante adquiere en una forma progresiva todos los conocimientos necesarios para resolver problemas en Python. El desarrollo de varios ejercicios proporcionase las bases para comprender y entender el lenguaje para una vez comprendidos, aplicarlo y/o mejorarlos ante el descubrimiento de nuevos problemas. Todo esto mientras el usuario se llena de ideas para desarrollar sus propios programas para la resolución de problemas.
CONCLUSIONES
Se puede concluir que las funciones en Python son más generales que otros lenguajes y constituyen instrumentos computacionales para resolver problemas de una manera más cómoda para el usuario. Así mismo, un proceso bien logrado puede ayudar a realizar tareas o acciones que una persona no podría realizarlas, para cuando se quiera realizar el mismo ya se posean varias variables para que funcionen como base en el futuro.
Martínez Pérez Alberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla
APROVECHAMIENTO DE LA MELAZA RESIDUAL PARA LA PRODUCCIÓN DE ETANOL
APROVECHAMIENTO DE LA MELAZA RESIDUAL PARA LA PRODUCCIÓN DE ETANOL
Martínez Pérez Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El interés mundial en el uso del bioetanol como fuente de energía ha estimulado los estudios económicos y la investigación para mejorar los procesos industriales de la producción de etanol. Por lo que, en los últimos años, el uso de residuos agrícolas para la obtención de combustibles renovables, como el bioetanol ha cobrado un gran interés, puesto que una alternativa ecológica.
Hoy en día, el etanol se puede obtener a partir de la caña de azúcar, maíz, remolacha y de otros vegetales, pero la tecnología más desarrollada para extraer etanol está en base a los residuos de caña de azúcar, mejor conocido como melaza.
El etanol se puede producir por rutas químicas (hidratación catalítica del etileno) y biotecnológico (fermentación). Mediante ésta última se hace uso de la capacidad de algunos microorganismos, como bacterias y levaduras.
Las levaduras son capaces de utilizar una gran variedad de compuestos químicos carbonataos, presentes en medios ricos en azúcares simples. Existen diferentes tipos de levaduras, sin embargo, una de las más importantes desde el punto de vista biotecnológico son las pertenecientes al género Sacharomyces, destacando Sacharomyces cerevisiae. Estas levaduras con cultivadas para obtener biomasa que puede ser utilizada como panificación o suplemento dietético. También son utilizadas en la producción de etanol y de bebidas alcohólicas, así mimo en la obtención de mosto alcohólico para la producción de ácido acético y vinagre.
Este estudio tiene como finalidad obtener etanol por medio de la melaza con intervención de ciertas levaduras, ya que casi ningún ingenio ha optado producir etanol a partir de la melaza, si no directamente del jugo de la caña, pero aplicando este método de generación de etanol, para aprovechar la melaza del Ingenio La abeja puede traer beneficios tanto económicos, como de aportación para la producción de bioetanol.
METODOLOGÍA
Cómo primer paso se realizó una investigación exhaustiva de la literatura revisando artículos científicos, libros, tesis, etc. con el fin de estar actualizado en todos los temas relacionados con el proyecto.
Posteriormente, para continuar con el experimento, se usó los siguientes reactivos para lleva a cabo el experimento.
Etanol:
Agua destilada
Levadura
Melaza
La levadura usada en el experimento es Levadura Safale S-04. Para su uso, se rehidrata la levadura en agua destilada a temperatura entre 24 y 30°C (ideal de 27°C) y dejar reposar entre 15 y 30 minutos. Remover suavemente durante unos minutos y añadir al fermentador junto a la melaza.
Por otra parte, para caracterizar del etanol, se usó la técnica de espectroscopía infrarroja con transformada de Fourier (FTIR-AT). Esta técnica sirve para analizar la evolución de la reacción química a lo lago del proceso, asociado al consumo de generación de grupos funcionales.
Para la técnica de FTIR-ATR se usó un Espectrofotómetro marca Perkin Elmer con el accesorio de reflexión simple ATR. Se utilizó el infrarrojo medio con un rango de frecuencia de 4000-400 cm-1 .
El cálculo de la concentración del etanol se realizó por el método de refractometría. Este método consiste en determinar el índice de refracción para conocer la composición o pureza de una muestra, a través de un instrumento llamado refractómetro. Para el experimento, consiste en conocer el índice de refracción del etanol a diferentes concentraciones con el fin de cuantificar la sustancia.
Finalmente, para la técnica de Refractometría se utilizó un Refractómetro ABBÉ marca Atago ABBÉ NAR-1T, que cuenta con una escala de índice de refracción de 1,3 a 1,7 nD y una fuente de luz de línea D (589 nm).
CONCLUSIONES
Para finalizar, a continuación, se muestran los resultados de la muestra del etanol, usando el método de refractometría y espectrofotometría de infrarrojo con transformada de Fourier.
Cómo se observa en el espectro hay un enlace -OH en una banda, con una longitud de onda de 3330 cm-1, revisado la bibliografía se sabe que en esa longitud se encuentran los enlaces para la formación de alcoholes, así también existe un enlace C-H en el pico a una longitud de onda de 2934 cm-1. Por último, se observa un enlace C-O en el pico a una longitud de onda de 1030 cm-2.
Por otra parte, durante la estancia de verano virtual se logró adquirir conocimientos teóricos sobre el proceso de la producción de etanol a partir d ellos residuos de los ingenios azucareros, logrando así conocer sobre el método para la obtención de etanol usando una levadura para obtener una alta concentración de etanol.
Para finalizar se puede decir que la importancia del trabajo antes descrito es el diseñar procesos eficaces para contribuir a la obtención del etanol aplicando nuevos métodos nuevos y creativos con materiales de bajo costo para garantizar la incursión de estos en sistemas en proceso de interés práctico.
Martinez Ramirez Ángel del Refugio, Universidad de Guadalajara
Asesor:Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
PROTOTIPO DE DOS BANDAS TRANSPORTADORAS
PROTOTIPO DE DOS BANDAS TRANSPORTADORAS
Martinez Ramirez Ángel del Refugio, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Desarrollar un prototipo de dos bandas transportadoras, una de ellas para mover productos e identificarlos y la otra para enviarlos al lugar que corresponda. sin embargo, si en la primera banda transportadora se identifica un producto que no corresponde con los deseados, entonces el sistema lo debe descartar antes de llegar a la segunda banda transportadora.
La banda 1 debe estar en movimiento continuo y siempre en el mismo sentido, aunque solo se detendrá cuando la banda 2 no haya terminado de entregar el producto (en un extremo) y el producto siguiente tenga que ser enviado al extremo opuesto. La banda 2 estará estática dependiendo del producto girará en un sentido o sentido opuesto.
METODOLOGÍA
Se utilizó el programa connected components workbench para empezar a desarrollar el diagrama de control para el PLC pero se tuvo que suspender, ya que no estaba claro todavía la parte mecánica del prototipo.
Por lo cual se tuvo que dejar a un lado la parte de la automatización para empezar desde cero el diseño mecánico del prototipo para esto fue necesario utilizar el programa SolidWorks, donde se creó el primer diseño que era la primera banda con una medida de 25 cm de largo, 8 cm de ancho y 15 cm de altura, la segunda banda tenía 20 cm de largo, 8 cm de ancho y 15 cm de altura. pero fue necesario hacerle unas pequeñas modificaciones para que fuera menos costoso realizarlo. donde se puso los cilindros extremos más grandes. se le quito la canastilla propuesta para los productos descartados, se redujo la canastilla a 1cm entre otras.
CONCLUSIONES
Durante la estancia en verano, se logró adquirir conocimientos teóricos sobre la forma correcta de automatizar basándose en la guía gemma, al igual que falto maquilar el diseño mecánico como hacerle las pruebas con el PLC
Martínez Ramírez Elsa, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:M.C. Jesús Vázquez Bustos, Instituto de Investigaciones Eléctricas
ANáLISIS DE TRAYECTORIAS DE ROBOT INDUSTRIAL PARA EL CONTROL MEDIANTE COMANDOS DIGITALES.
ANáLISIS DE TRAYECTORIAS DE ROBOT INDUSTRIAL PARA EL CONTROL MEDIANTE COMANDOS DIGITALES.
Martínez Ramírez Elsa, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: M.C. Jesús Vázquez Bustos, Instituto de Investigaciones Eléctricas
PLANTEAMIENTO DEL PROBLEMA
Según el censo realizado en México en el año 2020, existen aproximadamente 6 millones de personas con algún tipo de discapacidad, de las cuales poco más de 1 millón de ellas se encuentran en condiciones de trabajar, pero solo un 30% se encuentran activas en el mercado laboral. La limitación de movilidad es la discapacidad más frecuente, sin embargo las capacidades cerebrales no se ven afectadas de forma significativa, lo que ha sido detectado como una ventaja para poder ahondar en la investigación y aprovechamiento de señales cerebrales para poder hacer la manipulación de diversos objetos a través de robots industriales que permitan integrar a estas personas al ambiente laboral utilizando la interfaz Cerebro-Computadora y fortaleciendo la investigación existente en sistemas Hombre-Máquina integrando directamente los pensamientos del operador, sumando así una propuesta a las diferentes iniciativas que de igual manera buscan generar mayores oportunidades e impulsar una cultura de inclusión laboral.
Durante el verano de investigación se establecieron las bases de interconexión para poder llevar a cabo la manipulación de los robots industriales, centrándose principalmente en el análisis de las trayectorias del robot industrial mediante un sensor inercial que posteriormente será reemplazado por señales cerebrales.
METODOLOGÍA
Se estableció el esquema general de los componentes del sistema que consta de las siguientes partes:
Obtención de señales.
Caracterización de señales.
Manipulación de objetos.
La señal adquirida se obtuvo por medio del módulo MPU-6050 que es un dispositivo que tiene integrado un giroscopio MEMS (Sistemas microelectromecánicos) de 3 ejes, un acelerómetro de 3 ejes MEMS, y un procesador digital de movimiento (DMP™) motor acelerador de hardware con un puerto I2C.
La comunicación ha sido establecida mediante el software de LabVIEW con la implementación del toolkit de LINX que permite enlazar la placa de Arduino con LabVIEW; para conseguir la señal del sensor MPU-6050 se utilizó el bloque MPU60X0 Read. Los datos a utilizar para la caracterización son los obtenidos por parte del giroscopio, se separan por ejes y a partir de pruebas se obtienen los valores que definen cada movimiento, ya sea para el movimiento hacia la derecha, izquierda o hacia el frente. De acuerdo a la caracterización se activan 3 señales digitales que controlan los relevadores para crear la señal de entrada al PLC que a su vez permite activar la señal digital correspondiente en el brazo robótico que desencadena una de las subrutinas programadas en el robot.
De igual forma se ha iniciado el desarrollo de una red neuronal artificial en conjunto con el sensor mencionado bajo el lenguaje de programación Python para posteriormente trabajar más a detalle en la identificación de movimientos más complejos y así poder ampliar el rango de aplicación del proyecto generando más rutinas, movimiento y una mayor precisión al procesar las señales.
Las rutinas del robot Fanuc 200iC han sido programadas para que dependiendo de la caracterización obtenida de la señal se pueda manipular un objeto hacia tres posiciones: a la izquierda, a la derecha o al frente. Para efectos de simulación las subrutinas han sido desarrolladas en el software FANUC ROBOGUIDE en su extensión de HANDLING PRO que permite desarrollar el proceso de forma virtual y exportar el programa directamente a los robots de la marca FANUC.
Para la instrumentación de entradas digitales del robot se utilizó un módulo de relevadores que permiten enviar la señal digital ya procesada a las entradas del PLC que serán interpretadas según la programación desarrollada para el PLC iNVt IVC1-1006MAR en el software de AutoStation y posteriormente enviar la señal a las entradas digitales que posee el robot y así se pueda ejecutar la rutina previamente programada en el brazo robótico.
Para llevar a cabo todo el proceso de simulación fue necesario integrar una comunicación entre LabVIEW y FANUC ROBOGUIDE por lo que se desarrolló un script en Spyder bajo el lenguaje de Python para poder hacer la activación automática de las entradas digitales del robot simulado y así poder comprobar el funcionamiento de cada fase del desarrollo.
CONCLUSIONES
Durante el verano de investigación se logró hacer el diseño general del sistema de control de robots industriales mediante la implementación de un sensor inercial y se realizaron las pruebas físicas de la comunicación entre el sensor inercial, el programa de LabVIEW, las salidas digitales de la placa Arduino hasta el recibimiento de las señales en el PLC quedando pendiente las pruebas de comunicación entre el PLC y el brazo robótico, sin embargo con ayuda de los diferentes softwares se logró establecer de forma virtual todo el proceso de comunicación obteniendo el funcionamiento esperado según las señales recibidas por el sensor inercial.
A futuro se espera poder obtener el mismo funcionamiento del software en el robot de forma física, así como posteriormente contar con el dispositivo que permita sustituir el sensor inercial por uno que capte las señales cerebrales.
Martínez Reyes Perla Yeremy, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Jarinzi Corona Terán, Tecnológico de Estudios Superiores de Valle de Bravo
DURABILIDAD NATURAL DE LA MADERA
DURABILIDAD NATURAL DE LA MADERA
Martínez Reyes Perla Yeremy, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Jarinzi Corona Terán, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
La madera es un grupo importante del carbono orgánico terrestre, cuyos componentes estructurales de la pared celular incluyen celulosa, hemicelulosa y lignina. Esta última forma una matriz densa que protege los carbohidratos del ataque enzimático; la celulosa también es resistente a la descomposición, en particular en su forma cristalina, la cual es altamente ordenada. Aunque hay muchos agentes abióticos que atacan la madera, los hongos son los principales descomponedores, por ser más efectivos durante el proceso de degradación, pero no se descarta a los insectos, bacterias, algas y xilófagos marinos; mientras que ENTRE los agentes abióticos se pueden mencionar la acción de la lluvia, el viento y la radiación solar (Trevisan et al., 2008; Hibbett et al., 2016).
Ninguna especie maderable ni siquiera aquéllas de reconocida durabilidad natural son capaces de resistir en forma indefinida el ataque de microorganismos, ya que la madera por ser un material de naturaleza orgánica, y en el estado en que se utiliza, ya no es fisiológicamente funcional, por lo que está sujeta a la siguiente etapa de la secuencia natural de cualquier ser vivo: el deterioro y la descomposición (De Oliveira et al., 2005).
Por lo anterior, es importante conocer la durabilidad natural de la madera, bajo la acción tanto de agentes bióticos y abióticos, y con ello asentar las bases de una adecuada utilización.
METODOLOGÍA
Se realizó una revisión bibliográfica sobre la durabilidad natural de la madera, la cual incluye los siguientes temas: características de la madera (anatómicas, físicas y químicas), la madera como material de construcción, deterioro de la madera (agentes abióticos y bióticos), definición e importancia de la durabilidad, intemperismo, principales agentes de deterioro y métodos de evaluación. Lo anterior tiene el objetivo de conocer las características de la madera que explican su comportamiento ante los diferentes agentes que causan deterioro en la misma y que ayudan a sugerir una adecuada utilización.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la durabilidad natural de la madera que podrán ser de utilidad para en un futuro, proporcionar un mejor uso a este recurso forestal. Así como pudimos identificar y conocer no solo este material tan importante en la vida si no también la ardua tarea para mantenerlo, cuidarlo y saber que cuales son los agentes más importantes al deterioro de este gran material.
Martínez Rodríguez Fernanda, Universidad de Guadalajara
Asesor:Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
Arteaga Arteaga Harold Brayan, Universidad Autónoma de Manizales. Bravo Ortiz Mario Alejandro, Universidad Autónoma de Manizales. Martínez Rodríguez Fernanda, Universidad de Guadalajara. Palancares Sosa Maria Jose, Instituto Politécnico Nacional. Asesor: Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
La pandemia de COVID-19 causada por el virus SARS-CoV-2 tiene un impacto severo en áreas sanitarias y también económicas, forzando la implementación de medidas de confinamiento social con el objetivo de reducir la expansión del virus y prevenir el colapso de los sistemas de salud.
A la fecha no existe un tratamiento farmacológico específico, sin embargo, gracias a los avances en investigación se han desarrollado vacunas y métodos de detección del virus. Las técnicas de imagen médica como radiografías de tórax (CXR) resaltan ante las pruebas de reacción en cadena de la polimerasa con transcriptasa inversa (RT-PCR) porque permiten diagnosticar y dar seguimiento a la enfermedad de manera más rápida y accesible.
Con la intención de reducir la carga de trabajo del personal de salud, al mismo tiempo de aumentar la fiabilidad del diagnóstico y el análisis cuantitativo de CXR, se han propuesto métodos de detección automática de COVID-19 mediante el uso de redes neuronales convolucionales (CNN) de arquitecturas propias o previamente documentadas. Y a su vez, en un intento por mejorar la precisión de la red, estudios previos han implementado técnicas de preprocesamiento a las CXR para mejorar la calidad de las imágenes de los pulmones, la apariencia de opacidades y estructuras no lineales.
METODOLOGÍA
Se estudiaron y aplicaron técnicas de preprocesamiento de imágenes como filtrados espaciales, mejoras de contraste por ecualización de histograma y extracción de características de fase al conjunto de datos original para compararlas y encontrar la que permitiera mejorar los resultados en la CNN. Estos métodos se describen a continuación:
Corrección gamma adaptativa con distribución de pesos (AGCWD)
La corrección gamma es una operación no lineal, pixel a pixel que emplea el parámetro gamma para mejorar el contraste de la imagen aprovechando la relación logarítmica entre la intensidad luminosa y la intensidad resultante. Debido a que se manipularon miles de radiografías de tórax, cada una con diversos rangos de intensidades se empleó un algoritmo de corrección gamma adaptativo evitando la limitación en el mejoramiento por un valor fijo de gamma.
Ecualización de histograma ponderado y separado de forma recursiva (RSWHE)
Es una técnica basada en el mejoramiento de contraste cuyas ventajas atribuidas son la mejora de contraste en la imagen con la preservación del brillo de esta y valores mayores en la relación señal ruido que otras técnicas de contraste. Esta se realiza mediante la segmentación del histograma de la imagen de entrada por media, generando 2r sub histogramas que se ecualizan individualmente.
Filtros espaciales (AMF, NLM, CLAHE)
Este método consta de dos procesos de filtrado espaciales seguidos de una mejora de contraste por medio de una ecualización de histograma adaptativo con contraste limitado (CLAHE).
El primer filtro utilizado es el adaptativo de mediana (AMF), cuya función es reducir el ruido impulsivo. Consiste en un análisis de la vecindad del pixel de interés, para saber si le corresponde el valor de intensidad que tiene, mediante una ventana que varía su tamaño en función a los valores de mediana presentes.
El segundo filtro de media no local (NLM) busca corregir el valor del pixel de análisis mediante una ponderación de zonas de la imagen denominadas “patches” que guardan similitud con la zona tratada de la imagen bajo la premisa de que la intensidad de un pixel puede estar ligada a las intensidades de otros pixeles en la imagen. Reduciendo el ruido aditivo de la imagen. Finalmente la imagen filtrada se ecualiza con el método CLAHE, el cual cuenta con un límite denominado “clipping” establecido para evitar la sobre amplificación de contraste.
Extracción de características de fase (LPA, LPE, ELEA)
Usando un análisis de imagen local basado en fase se extrajeron tres características de fase local diferentes que no son visibles en las radiografías originales y no varían con la intensidad, por lo que los resultados no se ven afectados por las variaciones de intensidad causadas por características físicas del paciente o las condiciones de la toma de la radiografía. Dichas características son: local weighted mean phase angle (LwPA), weighted local phase energy (LPE) y enhanced local energy attenuation (ELEA) (Qi. et al, 2021).
Redes neuronales convolucionales (CNN)
Posterior a la elaboración de las bases de datos con las imágenes preprocesadas, estas se usaron para la evaluación con la CNN. Con esto, se consolidó una base de datos de imágenes de radiografías de tórax con COVID-19 y sin este virus. También, una base de datos con segmentación de pulmones, mediante redes neuronales como U-Net. Además la implementación de los algoritmos de preprocesamiento para mejora de las imágenes y la creación de una CNN nueva para detección de COVID-19.
La CNN nueva tiene un diseño propio, su principio de creación está basado en Inception-ResNetV3 y GBRAS-Net. La CNN recibe imágenes de entrada de tamaño 224x224, extrae características mediante convoluciones, donde tiene bloques residuales que ayudan a evitar el desvanecimiento del gradiente debido a su tamaño, usa la función de activación ReLU, y finaliza con un global max pooling. Al llegar a la etapa final de clasificación, está conformada con 128, 64, 32 y 2 neuronas, donde las últimas 2 entran a un Softmax para las predicciones, mientras las otras neuronas usan la función de activación ELU.
CONCLUSIONES
Los resultados de evaluación de la CNN a imágenes de pacientes con COVID-19 y pacientes sanos mostraron una precisión del 99,71 %. Se desarrollaron algoritmos en Python y MATLAB de preprocesamiento de las imágenes, y se observó una mejoría en la segmentación de los pulmones cuando se emplearon imágenes preprocesadas en comparación con las imágenes originales. En particular, el algoritmo RSWHE con r=1 fue el que presentó los mejores resultados.
Martinez Romero Flor Angélica, Instituto Tecnológico de Toluca
Asesor:Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente
EVALUACIóN DEL USO POTENCIAL DEL GRILLO (SPHENARIUM PURPURASCENS) COMO FUENTE ALIMENTARIA ALTERNATIVA PARA CONSUMO HUMANO. ARTíCULO DE REVISIóN
EVALUACIóN DEL USO POTENCIAL DEL GRILLO (SPHENARIUM PURPURASCENS) COMO FUENTE ALIMENTARIA ALTERNATIVA PARA CONSUMO HUMANO. ARTíCULO DE REVISIóN
Martinez Romero Flor Angélica, Instituto Tecnológico de Toluca. Mendoza Burgoa Diana Leticia, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
Más de 100 millones de personas padecen hambre o desnutrición alrededor del mundo, el costo de los alimentos y la falta de asequibilidad impiden que lleven una dieta equilibrada y saludable, es por ello se impone la necesidad de encontrar nuevas fuentes alimentarias que cubran los requerimientos nutricionales y contribuyan a lograr el objetivo de desarrollo sostenible hambre cero, ya que la producción de alimentos no avanza al mismo ritmo que el crecimiento demográfico.
La FAO calcula que a 2030 tendremos que alimentar a más de 9.000 millones de personas, además de a los miles de millones de animales que se crían anualmente con fines alimentarios o recreativos y como mascotas. Dicha demanda, tiene efectos adversos como la contaminación del suelo y del agua debida a la ganadería intensiva y el sobrepastoreo que provocan la degradación de los bosques, con efectos sobre el cambio climático e impactos ambientales destructivos.
La entomofagia es el consumo de insectos por los seres humanos, un hábito que ha estado presente en la conducta alimentaria en muchos países en el mundo, principalmente en regiones de Asia, África y América Latina. La ingesta de insectos complementa la dieta de aproximadamente 2.000 millones de personas. Sin embargo, esta práctica ha empezado a ser desarraigada dada la influencia de Norte América y Europa, donde el consumo de insectos es un tabú (Rodríguez-Miranda et al., 2019).
METODOLOGÍA
La revisión documental acerca de la determinación del uso potencial de grillo (Sphenarium purpurascens) para el consumo humano, siguió la metodología e indicaciones propuestas por Green, Johnson, & Adams, 2006, Gülpinar & Güçlü, 2013, Vera Carrasco, 2009; reflejada en tres grandes actividades: la búsqueda bibliográfica, organización de la información y redacción del artículo de revisión.
La búsqueda de la información correspondió a publicaciones de los últimos 5 años, en bases de datos científicas como PubMed, Scopus, ScienceDirect, Ebsco, Elsevier, Springer, Wiley, entre otras, y páginas de entes oficiales (INVIMA, COFEPRIS, SENASICA, OMS, FAO). Mediante el uso de palabras clave y descriptores como Sphenarium purpurascens, Grasshopper, protein, alimentación, consumo humano, edible insects, acompañados de los operadores booleanos AND, OR y NOT en dichos rastreos, se descartaron los artículos que no cumplían los criterios de inclusión establecidos. Dicha exclusión se realizó mediante la lectura independiente de cada uno de los investigadores, y una contrastación posterior de material evaluado en reunión con el asesor.
La selección de los estudios para elaborar del artículo se realizó a través las lecturas completas de dichas publicaciones, agrupándolas por las temáticas de interés; origen y descripción del grillo, condiciones de producción y ciclo de vida, composición y aporte nutricional, obtención de productos y aplicaciones para el consumo humano.
La redacción del documento siguió el orden de introducción, metodología, desarrollo de los tópicos propuestos en relación determinación del uso potencial de grillo (Sphenarium purpurascens) como fuente alimentaria alternativa para el consumo humano, una discusión de los hallazgos, conclusiones y las referencias, cumpliendo con el requisito de mínimo 50 para denominarse artículo de revisión.
CONCLUSIONES
Las investigaciones recientes se han interesado por la producción sustentable y las fuentes alimentarias alternativas que cubran los requerimientos esenciales de la población, como consecuencia de ello se puede apreciar un notable resurgimiento de la entomofagia
De acuerdo con los estudios revisados el grillo aporta un significativo contenido de fibra, bajo porcentaje de grasa y un elevado aporte de proteína de alto valor biológico convirtiéndolo en una alternativa viable para remplazar fuentes tradicionales de proteína de origen animal, como res, pollo, pescado, etc. Sumado a su atractivo perfil nutricional, el impacto ambiental es mínimo, ya que implica una menor demanda de recursos y una reducción considerable de emisiones. Adicionalmente, trabajar con grillos en un ambiente controlado requiere poco espacio y bajos costos.
La tecnificación de la producción de grillo y su transformación industrial amplia las posibilidades de aplicación en la elaboración y fortificación de productos alimenticios, en especial para llegar a poblaciones donde las condiciones de inseguridad alimentaria apremian.
Para la industrialización y comercialización del chapulín, hace falta una regulación que defina los requerimientos para garantizar la inocuidad del producto dado que la aplicación de las buenas prácticas de manufactura no es suficiente tratándose de un alimento para el consumo humano.
Martínez Rubio María Paula, Universidad Estatal de Sonora
Asesor:Dr. Alexis Sagastume Gutiérrez, Universidad de la Costa
DETERMINACIóN DEL POTENCIAL DE LA BIOMASA RESIDUAL DE LA GANADERíA EN SONORA, MéXICO.
DETERMINACIóN DEL POTENCIAL DE LA BIOMASA RESIDUAL DE LA GANADERíA EN SONORA, MéXICO.
Martínez Rubio María Paula, Universidad Estatal de Sonora. Asesor: Dr. Alexis Sagastume Gutiérrez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Sonora genera el 4.2% de la energía eléctrica nacional, pero solo el 3.6% proviene de tecnologías limpias. Es de las entidades a nivel nacional con mayores emisiones de gases de efecto invernadero per cápita por habitante. (COEES, 2014). En México, se destaca con el 17.3% de la producción de carne porcina, el quinto lugar como productor de cabezas bovinas, y 4.9% de la producción nacional de huevo de plato.
METODOLOGÍA
Se define y delimita el proyecto en base a la disponibilidad de la información, en este caso es a determinar el potencial energético del estiércol generado por la ganadería bovina, porcina y agrícola en el estado de Sonora, México. Se procede a recopilar fuentes de información en relación al tema, analizar cada una de ellas y seleccionar la información que sería de apoyo en esta investigación, como lo fueron principalmente los censos ganaderos con los cuales se realizaron los cálculos y estimaciones necesarias para determinar el potencial energético estimado.
Existen diferentes alternativas de conversión de residuos en energía a partir de fuentes de biomasa, estas agrupadas en procesos termoquímicos y procesos de bioconversión. La selección de la tecnología adecuada depende de las características y propiedades de la biomasa (es decir, humedad, poder calorífico, etc.). En general, para fuentes de biomasa con más del 50% de humedad, los procesos de bioconversión (por ejemplo, la digestión anaeróbica) son más indicados. (Gutiérrez, A. S., 2020). En este caso se opta por la digestión anaerobia en base a las características del estiércol y para la estimación del potencial energético se presentan dos alternativas: un biodigestor automatizado y uno de tipo artesanal.
Para la estimación del potencial energético se partirá del rendimiento de metano en la biodigestión, obtenido por medio de la fórmula 1:
BMPi = BMP(VS)i * M * ST * SV
Donde:
BMP(VS)i = Potencial específico de biometano de la fuente de biomasa
M = Masa de estiércol
ST= Solidos totales
SV= Sólidos volátiles en base seca
CONCLUSIONES
En Sonora al año 2021 se cuenta con una población ganadera de 21,022,122 cabezas las cuales se encuentran divididas en 1,754,948 de tipo bovino, 2,327,560 de tipo porcino y 16,939,614 de tipo avícolas. Tomando en consideración las propiedades de cada desecho generado según el tipo, edad o función del animal, se estima una generación total de estiércol anual de 14384729.19 toneladas de las cuales se contribuye el 87.58% a la ganadería bovina, el 12.32% a la porcina y el 0.1 a la avícola.
En base a las características y parámetros de la biodigestión de tipo anaerobia en un biodigestor de tipo artesanal se determina un potencial energético al año de 6,877.45 TEP equivalentes a 79,984.74 MWh/h y uno de 30,566.44 TEP equivalentes a 355,487.72 MWh/h para un biodigestor automatizado.
La secretaría de medio ambiente y recursos naturales en México, establece un consumo de energía promedio de 4,488.42 kWh/hogar al año en el estado de Sonora. Con base en lo anterior la energía que podría ser generada a partir de la biomasa residual de la ganadería en Sonora y por medio de biodigestores automatizados sería la suficiente para abastecer de energía eléctrica a 79,201 hogares anualmente.
Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
ADMINISTRADORES DE ENERGíA EN LOS VEHíCULOS ELéCTRICOS APLICADOS CON LóGICA DIFUSA
ADMINISTRADORES DE ENERGíA EN LOS VEHíCULOS ELéCTRICOS APLICADOS CON LóGICA DIFUSA
Cruz Suarez Irwing, Instituto Tecnológico Superior de Huauchinango. Martínez Soto Mauro Osvaldo, Instituto Tecnológico Superior de Uruapan. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
Administradores de energía en los vehículos eléctricos aplicados con lógica difusa.
Cada día la tecnología crece a pasos agigantados, la ciencia genera muchos conocimientos y estos son aplicados en cada área de nuestra vida. Esto nos ha permitido crear tecnología que mejoran lo que conocemos hoy en día como vehículos, haciéndolos más eficientes y poco a poco mejorarlos hasta el punto de que se dejen utilizar los comunes motores de combustión interna, sustituyéndolos por motores eléctricos.
El transporte es una de las tareas que todos realizamos diariamente, ya sea para ir a la escuela, al trabajo, ir a comprar las cosas que necesitamos o simplemente salir a divertirnos; ¿Por qué no pensar en hacer más eficiente y amigable con el medio ambiente este transporte?
Con el avance de la tecnología en el ámbito automotriz estamos dejando de usar poco a poco los combustibles fósiles y estamos obteniendo nuestra energía de fuentes renovables, los vehículos eléctricos cada vez tienen un papel más importante en nuestra sociedad, cada vez se escucha más de nuevos vehículos eléctricos, la mayoría de las empresas grandes de automóviles están apostando a esta innovadora tecnología, por lo que la investigación presentada se mencionan los distintos administradores de energía que se usan para poder abastecer de energía al vehículo, se busca saber cuál es la mejor forma de abastecer al vehículo para que nos dé el mejor rendimiento posible con una carga.
METODOLOGÍA
Debido a que este verano delfín fue de manera en línea, nos enfocamos en investigar de distintas fuentes los más innovadores administradores de energía aplicado a los vehículos eléctricos. Inicialmente se estudió la configuración de un coche eléctrico, se especificaron las ventajas y desventajas al utilizar cierto tipo de baterías en los vehículos para así conocer cuál es la más viable en cuanto a peso y rendimiento.
Se mencionan los distintos tipos de fuentes que ayudan a mejorar la carga de los vehículos, como lo es el sistema de recuperación de energía conocido como sistema regenerativo de frenos, el cual es una técnica única que utiliza la energía cinética se forma al desacelerar, esto nos ayuda a cada vez que frenamos con la energía cinética que obtenemos la pasamos directamente a nuestras baterías, una ayuda muy grande que se tiene hoy en día para mejor la eficiencia también son los llamados supercapacitores, que son capacitores electroquímicos, que tienen una densidad de energía inusualmente alta en comparación con los condensadores comunes, generalmente miles de veces mayor que un condensador electrolítico de alta capacidad.
Las empresas buscan obtener la mejor combinación de tecnología para poder mejorar el rendimiento un claro ejemplo es el hecho de utilizar supercondensadores de manera conjunta a un sistema de baterías de litio, proporcionará una serie de ventajas, tanto en autonomía como en rendimiento y si además sumamos el frenado regenerativo obtenemos una muy buena combinación con nos brindara una gran eficiencia, es lo que se pretende con esta investigación, el conocer cuáles son las mejores alternativas para tener los mayores kilómetros recorridos sin necesidad de estar cargando constantemente.
CONCLUSIONES
Durante el desarrollo de la investigación conocí como funciona un vehículo eléctrico las distintas tecnologías que se usan para abastecer a sus motores y saber cuáles son los administradores de energía más óptimos para un vehículo de este tipo, que es el futuro al que se está apostando hoy en día ya que tiene mejores prestaciones con los vehículos de combustión interna, además, el doctor Pérez Pinal nos apoyó para guiarnos en esta investigación para así tener una mayor idea de los desarrollos tecnológicos más importantes de nuestro presente; con esta investigación me di cuenta de cómo hemos avanzado a pasados agigantados en la tecnología que a veces uno no se da cuenta de ello hasta que realiza investigaciones a fondo que le amplían el panorama del desarrollo tecnológico.
Con este verano me he motivado a seguir aprendiendo y en un futuro poder desarrollar tecnología que ayude a la sociedad y al medio ambiente, cuando se busca mejorar pensando en el medio ambiente es lo más importante por lo que seguiré aprendiendo lo más que pueda sobre las nuevas tecnologías aplicadas a los vehículos para un futuro poder desarrollar tecnología aplicada.
Martínez Torres Omar, Universidad Autónoma de Guerrero
Asesor:Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo
TORSIóN EN EDIFICIOS DE ESQUINA DURANTE EL SISMO DEL 19 DE SEPTIEMBRE DE 2017.
TORSIóN EN EDIFICIOS DE ESQUINA DURANTE EL SISMO DEL 19 DE SEPTIEMBRE DE 2017.
Martínez Torres Omar, Universidad Autónoma de Guerrero. Asesor: Dr. Jose Manuel Jara Guerrero, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El 19 de septiembre del año 2017, ocurrió un sismo de magnitud 7.1 con epicentro en la zona de Axochiapan, Puebla, lo que ocasionó afectaciones locales y a los estados vecinos de Guerrero, Oaxaca, Veracruz, Michoacán, CDMX y el estado de México.
Las estadísticas mostraron daños en casas, edificios, estructuras históricas (iglesias), bardas perimetrales y estructuras construidas con materiales de mala calidad o sin ingeniería. El temblor evidenció, como en otros eventos sísmicos en el mundo, que ciertos tipos de estructuraciones siguen presentando daños severos y colapsos. Desafortunadamente, con bastante frecuencia, los edificios localizados en esquina presentan daños importantes cuando ocurren temblores, y durante el temblor del 19 de septiembre de 2017 no fue la excepción. Muchas de estas estructuras tienen en dos de sus lados perimetrales (fachada) cancelería que proporciona luz y ventilación a la edificación y en los otros dos lados perimetrales que colindan con terrenos vecinos, muros de mampostería unidos a las columnas. Al originarse un movimiento del terreno, la enorme diferencia en la rigidez de los marcos de concreto unidos con muros y los marcos de concreto de la fachada (sin muros) genera torsión en la edificación, que eventualmente causa daños severos e incluso colapsos. Este tipo de estructuras son muy comunes y se siguen construyendo en la actualidad por lo que es importante conducir estudios para el mejor entendimiento de su respuesta sísmica.
METODOLOGÍA
Inicialmente, se analizaron estadísticas de daños ocasionados por el sismo del 19 de septiembre del 2017. Posteriormente se utilizó el programa SAP2000 para crear el modelo numérico de una estructura en esquina con dimensiones en planta de 20mx20m, columnas de 0.5mx0.5m y trabes de 0.25mx0.45m. La separación de las columnas fue de 5m en ambas direcciones; el edificio cuenta con cuatro niveles y altura de entrepiso de tres metros. La losa se calculó con las cargas gravitacionales y se determinó un espesor de 12cm. Finalmente se ubicaron muros en las partes colindantes del edificio para observar numéricamente la respuesta sísmica.
De igual forma, se modeló un edificio con las mismas características que el anterior a excepción de no tener los muros en la parte colindante, con el fin de obtener resultados de una estructura construida sin efecto de esquina y por consecuencia cuantificar la influencia de la torsión en la respuesta sísmica.
Las cargas de diseño se obtuvieron con base en el Reglamento de Construcciones de la Ciudad de México. Se realizaron análisis dinámicos en la historia del tiempo, sometiendo a los edificios a tres acelerogramas reales registrados en terreno flexible de la ciudad de México, durante el temblor del 19 de septiembre de 2017.
CONCLUSIONES
La estancia de verano permitió adquirir conocimiento básico, pero de gran apoyo, para modelar numéricamente edificios con el programa SAP2000, para obtener la respuesta sísmica de dos estructuras. Con base en los resultados obtenidos, se llega a la conclusión que un edificio en esquina con muros de mampostería ligados a las columnas en dos lados perimetrales, sometido a sismos de magnitudes similares al ocurrido el 19 de septiembre de 2017, tiene importantes demandas sísmicas en los marcos de fachada. Esto puede conducirlo a presentar daños irreparables, debido a la demanda de torsión que se genera, por tener dos lados colindantes muy rígidos y los marcos de fachada flexibles. Por otro lado, se encontró que un edificio con similares características, a excepción de no tener los muros ligados a la estructura, tiene un mucho mejor comportamiento ante estas situaciones y una demanda muy pequeña de torsión, por lo que reduce drásticamente los daños esperados ante un fenómeno sísmico.
Mateo Carmona Uriel, Universidad Mexiquense del Bicentenario
Asesor:Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
INTELIGENCIA ARTIFICIAL APLICADA EN EL DESARROLLO DE UN CHATBOT CON PYTHON
INTELIGENCIA ARTIFICIAL APLICADA EN EL DESARROLLO DE UN CHATBOT CON PYTHON
Garrido Salinas Maria, Instituto Tecnológico de Iguala. Mateo Carmona Uriel, Universidad Mexiquense del Bicentenario. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
Los chatbots son aplicaciones informáticas basadas en la inteligencia artificial que pueden simular la conversación con una persona, dándole respuestas automatizadas a las dudas que tengan los usuarios. Sin duda llegaron a mejorar a la sociedad, ya que día con día son más utilizados por las empresas brindando así una mejor atención al usuario.
Hoy en día el uso de aplicaciones web ha permitido acercar a los usuarios finales de bienes o servicios para lo cual se planteó crear un aplicación de chatbot utilizando el lenguaje Python con la finalidad de responder alguna necesidad y/o problemática, para lo cual se propone desarrollar un Chatbot de manera que pueda automatizar la venta de boletos para poder viajar de un determinado lugar a otro, haciendo el uso del Chatbot podrás obtener información de la hora y el costo del boleto que deseas comprar, así los clientes podrán resolver sus dudas de una manera más rápida y precisa.
METODOLOGÍA
Se consultó información en diferentes sitios de internet con la finalidad de obtener información en referencia a los antecedentes de un chatbot, definiéndolo como un asistente que se comunica con los usuarios a través de mensajes de texto, con lo cual crea un hipervìnculo entre usuario final y proveedor.
Un ejemplo de ello es la aplicación de Facebook quien tecnológicamente proporciona al usuario tener una conversación a través de un software que se incorpora en un sistema de mensajería.
El Chatbot es programado para que interactúe con el usuario y le resuelva dudas, sin que haya de por medio una persona física, y tienen la ventaja de contar con la disponibilidad de tiempo para poder resolver las dudas, sin importar el horario.
Una vez entendido el tema se comenzó a buscar información sobre las herramientas que se utilizaron, se desarrolló en el lenguaje Python, este lenguaje Python es gratuito y de código abierto desde hace más de 20 años. La licencia pertenece a Python Software Foundation License, una organización sin ánimo de lucro que permite la modificación de códigos y la realización de proyectos derivados, incluso es posible partir de otros proyectos para crear trabajos que no sean de código abierto, se puede ejecutar en diferentes sistemas operativos como Windows o Linux además de que para nosotros será primera vez que interactuamos con este lenguaje.
Después de comprender y analizar toda la información encontrada se pasó a elegir un tema en específico en el cual se pudiera implementar un Chatbot, el equipo optó la presentación de horarios de autobuses, como siguiente paso se comenzó a desarrollar en python, se utilizó la biblioteca de código libre NLTK, que proporciona un conjunto de herramientas para el procesamiento del lenguaje natural, como el lenguaje natural de las personas a las que va dirigido el chat, continuamos con la declaración de las reflections y un diccionario, formado por una serie de posibles interrogantes del usuario, que se relaciona a una o varias respuestas ya definidas, cabe destacar que el chat funciona con estas respuestas solamente por lo que si se le hace una pregunta o frase que no esté declarada previamente en el programa la respuesta será none que traducido al español es ninguna o ninguno, porque no encuentra coincidencias declaradas previamente, el chat el intu import.este desarrollador es un poco más complejo porque con unas cuantas líneas de código se logra plasmar ideas más complejas, como por ejemplo interpretar lo que el usuario quiere decir.
Para la interfaz gráfica del chatbot se sugiere utilizar como implementación del proyecto alguna de las librerías compatibles con Python, como Trinker que es una biblioteca gráfica que se puede utilizar para la interfaz y que es compatible con Python para una mejor visualización de la información. Tkinter está disponible en cualquier sistema operativo que sea compatible con cualquier intérprete de Python sea Linux, Windows e incluso Mac. La interfaz es una buena opción para dar mayor presentación al proyecto y no solo presentarlo en consola, Python tiene muchas opciones en cuanto a bibliotecas gráficas se refiere, puede ser una implementación que se retome para complementar este proyecto.
Además del módulo de interfaz Tk, tkinter incluye varios módulos de Python, tkinter.constants es uno de los más importantes. Al importar tkinter importará automáticamente tkinter.constants, por lo tanto, para usar Tkinter todo lo que se necesita es una simple declaración import: Import trinker.
CONCLUSIONES
Fue una experiencia muy grata haber participado en esta investigación, se aprendieron cosas nuevas como; que es un Chatbot como es que se puede desarrollar,el manejo de Python, librerías etc.
Sin duda alguna la inteligencia artificial es un tema bastante interesante porque automatiza el aprendizaje de los usuarios de manera computarizada, de una manera confiable y precisa.
Sin embargo al principio se nos dificulto un poco ya que era un tema nuevo para nosotros, pero con dedicación y perseverancia se logró realizar el trabajo planteado.
Pero al final de la investigación se pudieron realizar y alcanzar los objetivos que se propusieron al principio de la investigación, y lo más importante que la aplicación tiene una funcionalidad y responde a una necesidad.
Mateo Mateo Amairani, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
DISEÑO DE HERRAMENTALES ERGONÓMICOS AUTOMATIZADOS PARA MEJORAR LA EFICIENCIA DE LA PRODUCCIÓN AL PROCESO DE RESINACIÓN
Davila Contreras Eduardo, Tecnológico de Estudios Superiores de Jocotitlán. López Sánchez Saira Anel, Tecnológico de Estudios Superiores de Jocotitlán. Martínez Hernández Lizeth, Tecnológico de Estudios Superiores de Jocotitlán. Mateo Mateo Amairani, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Se ha diagnosticado que la ambigua manera de operar para la obtención de resina del pino por parte del trabajador (Resinero) es muy tardado, asociado con el rendimiento promedio de trabajo del mismo, ya que suele pasar por distintas fases antes de su obtención, lo primero que se realiza es la preparación del pino, en este punto se procede al accionamiento de manera manual, ejecutando el alisamiento y desprendimiento de la corteza más fina del pino con un rayador, y con ayuda de un estriador practicar las incisiones que originan en este caso el exudado de resina, por ende se pretende con la implementación de un diseño de herramental ergonómico, reducir tiempo de demora y facilitar el mayor flujo de obtención de resina, aumentando gradualmente la productividad, y eficiencia de la empresa respecto a la obtención de su materia prima, consiguiendo hasta un índice del 30% de efectividad comparado con el método tradicional, lo que permitirá consigo la obtención de resina pura y fina, sin residuos sólidos que alteren su composición original, permitiendo que la incorporación de herramental automatizada sea favorable al proceso de obtención de resina garantizando seguridad en el proceso.
El fin de estudiar esta área de oportunidad que se ha observado en la empresa UUMBAL Agroforestal. Ubicada en la región Sur de Veracruz, es optimizar el proceso de recolección de resina con la ayuda de herramientas automatizadas con el fin de mejorar la productividad y el rendimiento empresarial.
Con la ayuda del software SolidWorks, será posible la creación del prototipo específicamente de un estriador y rayador, ya que son las herramientas principales que hacen posible la obtención de resina, cumpliendo del mismo modo con las especificaciones, tolerancias, diámetros, longitud y profundidad de corte según lo establecido como protocolo de operacionalidad, así como el requerimiento general de los materiales que componen al prototipo, evaluando las técnicas de instrucciones realizadas como mecanismo inherente al proceso.
METODOLOGÍA
Según su finalidad, dicho proyecto de investigación se clasifica como una investigación aplicada, debido a que aborda un problema de la vida real, y pretende dar respuesta a las diferentes áreas de oportunidad, dicho lo anterior se llevara a cabo una serie de pasos sistematizados con el fin de cumplir con los objetivos establecidos al inicio. Por ende, se plasmarán los pasos que se llevaron a cabo para la ejecución de dicho diseño de prototipo de herramental.
Se realizó bajo un modelo de seis etapas para el diagnóstico y diseño principal del herramental específicamente de un estriador y rayador. A continuación, se describe cada etapa de la metodología.
1.- Conocer la Empresa UMMBAL Agroforestal
Primeramente, como punto importante se debe identificar el proceso productivo de recolección de resina para así tener la descripción del uso del herramental que utilizan los colaboradores y todo lo que aborda el proceso generando un conocimiento más amplio abordando tanto debidamente los tiempos para la productividad de la resina.
2.- Análisis de los procesos productivos de herramental
Inspeccionar cada componente individualmente del herramental para la recolección de resina y cómo interactúan para producir resultados para ver cómo se genera el rendimiento en cuanto al tiempo de la recolección de este para así conocer la capacidad del proceso y ver que beneficio se está generando a la productividad en cuanto a su uso.
3.- Diseño de herramental ergonómico
Obtener datos nominales en cuanto al herramental utilizado, mediciones de las operaciones realizadas para poder diseñar el bosquejo del herramental ergonómico tomando como puntos clave, desempeñar con eficacia la función que se pretende de ella, proporcionar las dimensiones del usuario y de la herramienta y por último reducir la fatiga y lesiones del colaborador.
4.- Implementación de diseño de prototipo
Se podrá implementar el uso del prototipo con mejoras, dentro de la empresa UMMBAL Agroforestal, específicamente de un estriador y un rayador, que cumpla con las especificaciones de corte, profundidad y longitud, así como la operación de cosecha, evaluando la funcionalidad y aprovechamiento para valorar su exitosa aplicación
5. Caracterización del diseño de herramental
Se realiza un diagnostico general de los tiempos requeridos para cada operación además de evaluar y analizar minuciosamente el rendimiento total y la productividad, así como el nivel de fatiga del operador y/o resinero.
6. Análisis de mejora
Se realiza una evaluación de resultados de beneficios obtenidos tras las mejoras aplicadas, así como una comparación de las herramientas tradicionales ocupadas actualmente por la empresa y las que se añadieron como mejora, proyectando resultados de uso y componentes del herramental establecido para las operaciones de estriado y rayado.
CONCLUSIONES
Durante este periodo de investigación se tuvo la oportunidad de poder colaborar en la realización del herramental para la extracción de resina en el Agroforestal UUMBAL Veracruz. El proceso de elaboración de este trabajo fue sumamente interesante ya que se dio a conocer todo el proceso acerca de la extracción de resina. Se observó que los colaboradores estaban expuestos a sufrir de fatiga a través de su jornada laboral debido al desgaste físico que los herramentales exigen.
Esto ocasiona que no se obtenga el rendimiento esperado durante la jornada de trabajo, con el diseño de nuevo herramental se pretende aumentar la productividad a través de un diseño más ergonómico y mecanizado que permita al colaborador tener un menor desgaste físico para tener un mayor rendimiento y que esto se vea reflejado en la productividad de extracción de resina.
Matus Gutiérrez Mónica Nagiby, Universidad Autónoma de Ciudad Juárez
Asesor:Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
ESTUDIO DE DELAMINACIóN DE MATERIAL COMPUESTO EN 3D A TRAVéS DE TELEMETRíA
ESTUDIO DE DELAMINACIóN DE MATERIAL COMPUESTO EN 3D A TRAVéS DE TELEMETRíA
Castrejon Perea Abril Nallely, Universidad Autónoma de Ciudad Juárez. Matus Gutiérrez Mónica Nagiby, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Con el paso del tiempo, la industria ha requerido materiales más rígidos, resistentes y ligeros a la vez, a partir de esta necesidad se implementó la composición de materiales, combinando sus distintas propiedades y logrando satisfacer los requerimientos ya mencionados surgiendo así el concepto de material compuesto o composite.
Los materiales compuestos iniciaron como una composición de laminados bidimensionales, los esfuerzos de las fibras actúan a lo largo (eje x) y a lo ancho (eje y), sin embargo, aunque es un material bastante utilizado, siguen existiendo aplicaciones que sufren esfuerzos fuera del plano, es decir, un esfuerzo en una tercera dimensión que logra producir una falla conocida como delaminación.
Un tejido tridimensional en materiales compuestos cubre no solamente el largo y ancho, sino también el grosor, logrando aumentar la tenacidad del material y de esta manera abarcar más aplicaciones en las cuales se tienen esfuerzos en más de dos dimensiones, reduciendo el riesgo de la delaminación, además, reduce el tiempo de producción y con ello, costos operativos y de fabricación.
Este verano de investigación tuvo como objetivo determinar la tenacidad a la fractura interlaminar a partir de la longitud de ruptura medida por telemetría. Esto se llevó a cabo gracias a la investigación sobre herramientas de la librería OpenCV en Python, para posteriormente seleccionar los tejidos a estudiar y una vez recabados los datos de longitud de ruptura, realizar los cálculos correspondientes para obtener la tenacidad a la fractura interlaminar.
METODOLOGÍA
Para este proyecto se comenzó con una revisión de lectura, específicamente a las tesis: Análisis de delaminación de material compuesto con tejido en 3D de nylon para aplicaciones aeronáuticas Por María del Refugio García Jáquez y Análisis de delaminación de material compuesto con tejido en 3D de fibra de carbono para aplicaciones aeronáuticas por Vanesa Peña Adame, ambas asesoradas por el Maestro Manuel Alejandro Lira Martínez quien también trabaja con materiales compuestos y quien en conjunto de ambas estudiantes, diseño las probetas y llevó a cabo la realización de las pruebas mecánicas de delaminación estudiadas en el presente trabajo.
Para la producción de los tejidos en 3D, el diseño de su patrón es de suma importancia, por lo que aquí se analizaran dos tejidos con diferentes patrones con el objetivo de ver cual cuenta con más resistencia.
Las probetas puestas a prueba están conformadas por E-Glass Saertex 380 g/m^2 Biaxial (+/- 45°), y una resina de poliéster para infusión Stypol 8086 CCP por infusión al vacío. Además de contar con un reforzamiento de hilo de fibra de carbono HexTowl IM10 12k.
Como se mencionó anteriormente, se debe crear un programa capaz de medir la fractura interlaminar en centímetros por medio de los videos tomados en cada prueba realizada. Existen diferentes métodos para crear un programa que realice lo ya mencionado, sin embrago nosotras optamos por llevar a cabo los siguientes pasos.
El primer paso es la separación del video en imágenes, se separarón los videos entre 14 y 15 imágenes, esto no es obligatorio, se decidió este número por el tiempo de duración de cada video. Una vez capturadas las imágenes procedemos al segundo paso donde manualmente añadimos dos puntos verdes por imagen, un punto al inicio de la ruptura y un punto al final de esta. Un punto se encuentra parcialmente estático (punto de inicio de ruptura) mientras el otro cada vez se va alejando más de este (punto al final de la ruptura). Cabe mencionar que para facilitar que el programa detecte dichos puntos fue necesario convertir las imágenes en una escala de grises, de no hacer esto, el programa se puede confundir, tomar otras referencias y no detectar específicamente lo que necesitamos. En el tercer paso se empieza a programar. Todas las imágenes se introducen a un código de Python, este código se encarga de unirlas y crea un video nuevo que ya está listo para la medición. Dicho video se mete a otro código que junto con las librerías imutils, numpy y cv2 hace posible la medición de longitud entre dichos puntos. ¿Como funciona? El código está hecho para que detecte el color verde, esto quiere decir que detectara los puntos, a su vez se crearan contornos sobre ellos y el código proveerá la distancia horizontal en cm que existe entre los contornos. Dentro del código se realiza una equivalencia que definirá la distancia real, esta se obtendrá mediante la conversión de pixeles a cm en dimensiones reales del video. Como paso final simplemente es añadirle al código la descarga del video final con los resultados finales.
Al contar con las longitudes de la ruptura, se nos es posible, calcular la tenacidad a la fractura interlaminar por medio de la siguiente formula, según las indicaciones de la norma D5528 - 13:
Fractura interlaminar = (3Pδ)/(2ba)
donde:
P = Carga
δ = Dezplazamiento de punto de carga
b= Ancho de la probeta
a= Largo de delaminación
CONCLUSIONES
El tejido B2 presento una resistencia a la delaminación más alta, dado que la longitud de ruptura máxima durante la prueba fue de 49 mm lo que nos lleva a una tenacidad a la fractura de 0.5379 MPa√m.. Por otra parte, el tejido Z1 presento una longitud de ruptura de 111.3 mm, lo que nos demuestra que este tejido fue por mucho más susceptible a la delaminación arrojando una tenacidad de 0.149 MPa√m.
Dado que el presente trabajo fue más enfocado a la investigación de la telemetría o la medición de dimensiones por medio del procesamiento de imágenes, podemos concluir que esta herramienta resulta ser bastante efectiva en casos de proyectos a larga distancia. En estos tiempos de pandemia, en el ámbito académico muchos estudiantes han detenido proyectos por la imposibilidad de viajar a otras escuelas o simplemente ingresar a laboratorios, el recurrir a este tipo de estudios es de mucha ayuda ya que, con ello es posible obtener resultados reales a través de una imagen.
Medina Chávez Eugenio, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
CARACTERIZACIóN DE LOS SERVICIOS ECOSISTéMICOS DEL BOSQUE MIXTO DE LA SIERRA MADRE DE DURANGO
Caballero Patiño Francisco, Instituto Tecnológico del Valle de Morelia. García Pérez Joana, Instituto Tecnológico del Valle de Morelia. González González Brenda Paola, Instituto Tecnológico del Valle de Morelia. Medina Chávez Eugenio, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Tilo Gustavo Domínguez Gómez, Instituto Tecnológico de El Salto Durango
PLANTEAMIENTO DEL PROBLEMA
En México son contados los trabajos que se han realizado sobre la caracterización de los servicios ecosistémicos. La mayoría de estas investigaciones se han centrado en vegetación de ambientes semiáridos en el norte del país. Sin embargo, no existen estudios sobre la caracterización de los servicios ecosistémicos en México en los bosques mixtos de la Sierra Madre Occidental específicamente en la región del el Salto, Durango México.
Por tanto, esta región proporciona una oportunidad para estudiar y sistematizar la composición, estructura, riqueza y diversidad florística, o las formas de entender la evolución de los rasgos dentro de las especies a través de los ciclos biogeoquímicos, relacionados con los flujos de materia orgánica y nutrientes desde el dosel, procesos hidrológicos, en estos tipos de ecosistemas, en el cual las especies vegetales nativas y el tipo de suelo donde prosperan tienen una diversidad de usos tales como forraje para la ganadería y fauna silvestre, carbón, madera para la construcción, estantería, alimentos, herbolaria, medicinas y semillas para reforestación.
El objetivo de este estudio fue cuantificar la producción de la hojarasca, determinar las propiedades fisicoquímicas del agua vía precipitación incidente, precipitación directa, escorrentía cortical y describir la composición y estructura florística.
METODOLOGÍA
Producción de Hojarasca
En cuatro sitios de la sierra del estado de Durango. Se colecto hojarasca, (sitio, 2500 m2) usando diez canastas (1.0 m2) distribuidas en forma aleatoria. La colecta se realizó con intervalos quincenales (Enero-2021-Julio 2021). La hojarasca fue separada en hojas, material leñoso (ramas <2 cm de diámetro) y otros (estructura reproductivas, cuerpos y heces de insecto). Las muestras fueron secadas en una estufa a temperatura de 65°C durante 72 h. Los datos de producción de hojarasca fueron expresados en (g m-2).
Flujos corticales
En el ejido San Juan, Pueblo Nuevo, se establecio una parcela de 2,500 m2 donde fueron seleccionadas especies vegetales, para medir la precipitación directa mediante canaletas fijas (PVC de 0.1 m2 (10 cm de ancho x 100 cm de largo) en forma de U, conectadas por medio de mangueras a recipientes de 20 L, a una altura de 1 m. Adyacente a la parcela, se establecieron cuatro colectores de precipitación incidente. Para el escurrimiento fustal se eligieron arboles con 15 cm de diámetro (utilizando colectores de plástico en forma de embudo, mientras que para arboles de diámetros de 35 cm, se utilizaron mangueras de plástico con perforaciones de 2.5 a 3 cm de intervalos, estas mangueras se fijaron a 1 m de altura, para cada variable evaluada se utilizaron cuatro árboles de cada especie, (Yáñez, 2011). Después de cada evento de lluvia, las cantidades fueron registradas dentro del periodo de enero-2021-julio 2021. La determinación del valor de pH y conductividad eléctrica (CE, µS cm-1) de las muestras colectadas, se realizo mediante un potenciómetro-conductivímetro marca Consort multi-parameter analyser modelo C3010.
Composición y estructura de la vegetación.
En dos sitios de la sierra del estado de Durango. Se ubicaron parcelas de 1000 m2 por sitio de estudio, en las cuales se realizó un inventario y a cada individuo se le determinaron parámetros dasométricos tales como diámetro normal a altura de pecho, utilizando una forcípula forestal marca Haglöf, modelo Mantax Blue 950Mm, altura total y comercial con un hipsómetro Vertex Láser IV marca Haglöf, modelo HS102, cobertura de copas con cinta métrica marca Truper, modelo CM112 50 m; esta última se estimó a partir de la longitud del largo (norte-sur), por ancho (oriente-poniente) de cada copa, con el fin de conocer la cobertura parcial y total de las especies presentes por sitio, densidad, así como los indicadores ecológicos: abundancia, dominancia, frecuencia y valor de importancia (VI). La diversidad de especies se estimó con el índice de Shannon-Wiener y la similitud entre sitios mediante el índice de Jaccard.
CONCLUSIONES
Los resultados señalan la importancia de los diferentes componentes de la hojarasca, la deposición es un proceso fundamental en ciclo de nutrientes planta suelo ya que representa la principal fuente de transferencia de materia orgánica y nutrientes por parte aérea a la superficie del suelo produciendo una capa protectora, esta capa produce un manto orgánico el cual contribuye a la regeneración del suelo, mantiene la fertilidad y ayuda mantener las propiedades físicas y químicas, entre otros procesos fundamentales de los ecosistemas.
El pH y CE presenta variaciones químicas relacionadas al tipo de evento de lluvia, en general el pH se obtuvieron valores combinados (alcalinos y acidos) En la CE se mostraron valores muy altos en las primeras lluvias ya que arrastro consigo nutrientes y sedimentos de algunos insectos acumulados con el tiempo y fueron lluvias con poca precipitación, factores como la forma del árbol, duración del evento y dirección de la lluvia son importantes en la variación de la C.E.
Los resultados obtenidos de esta investigación revelan que la diversidad y estructura en sitios continuos y en condiciones similares de latitud existen una marcada diferencia en composición y estructura, lo cual es un ejemplo de la complejidad ecológica que alberga la Sierra Madre Occidental, además de que el desarrollo de las especies no es el mismo y que se le está dando un manejo diferente a estas áreas, a través de la información generada se proporciona el análisis sobre la composición y estructura vegetal de cada uno de los sitios, aportando información cuantitativa sobre la diversidad y riqueza de especies existentes en cada uno de ellos, permitiendo comprender el funcionamiento de los ecosistemas forestales y que sean utilizados en la toma de decisiones silvícolas para realizar un buen plan de manejo para el aprovechamiento de los recursos forestales o conservación de los mismos.
Medina Lozano Edgar Rafael, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
Medina Lozano Edgar Rafael, Benemérita Universidad Autónoma de Puebla. Ornelas Mendoza Daniel Alejandro, Instituto Tecnológico de Sonora. Ramirez Galicia Itzel, Instituto Tecnológico de Tláhuac. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Durante el último año la pandemia COVID-19 ha afectado demasiado a la humanidad, a nivel mundial existen registros de miles de muertes y pérdidas millonarias en la industria debido al aislamiento.
Con el paso del tiempo se ha generado un gran volumen de datos referentes a la COVID-19, desde la cantidad de personas infectadas, decesos, recuperaciones hasta los efectos secundarios causados por la aplicación de la vacuna y el índice de vacunación.
Sabemos que en la Ciudad de México existe un alto índice de personas con enfermedades crónicas y respiratorias, una de las principales causas que favorece al contagio de la COVID-19, además de ser de la tercera edad o tener bajas defensas.
La problemática que se presenta en esta situación es encontrar relaciones y patrones en los datos que nos permitan obtener conclusiones importantes para la toma de decisiones con respecto a la pandemia.
METODOLOGÍA
Se comenzó con la extracción y descarga de datos abiertos, relacionados con los efectos causados por la aplicación de la vacuna en la Ciudad de México. Mediante la API de Twitter, los datos se almacenaron en un servidor del Instituto Politécnico Nacional. Estos datos permitirán estandarizar información sobre enfermedades crónicas y respiratorias de la Ciudad de México.
Durante casi tres semanas se realizaron las extracciones usualmente en dos tiempos por la mañana y por las tardes. Para facilitar esto se desarrolló un script para que las extracciones fuesen menos tediosas y se agilizara el proceso.
Una vez concluido el tiempo de extracción de datos se investigó en fuentes confiables el concepto de Inteligencia Artificial, Machine Learning, Ciencia de Datos y librerías de utilidad para el desarrollo de estos conceptos. También aprendimos conceptos nuevos como big data y deep learning. Lo más interesante es ver como existen diferentes ramas de la inteligencia artificial muy útiles en el mundo actual. Una de ellas y en la que nos centramos fue el machine learning, que es capaz de fusionar las matemáticas junto a las ciencias de la computación.Gracias a los datos que son recolectados y procesados por medio de técnicas de minería de datos, las máquinas pueden realizar aprendizaje automático.
En la última semana tuvimos una sesión con un experto en machine learning para comenzar un proceso de análisis exploratorio de los datos recopilados, con el fin de conocer mejor la información y prepararla para la ejecución de algoritmos de aprendizaje automático. Debido a que los datos eran externos a nosotros, se tomaron datos de la plataforma kaggle para este último paso.
Para esto trabajamos en Colab o también llamado Colaboratory que es una plataforma de google, la cual nos permite ejecutar y programar en python. Trabajamos en tiempo real y en equipo. Utilizamos diferentes librerías para hacer el análisis exploratorio de los datos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de machine learning y ponerlos en práctica por medio del análisis de datos. Sin embargo, como la extracción de datos del COVID-19 aún continúa no se pueden mostrar los datos de este. Por lo cual el análisis de datos se basó en información obtenida de kaggle. Estos nos muestran que a nivel mundial la vacuna que se ha aplicado más es la AstraZeneca y la Pfizer. También aprendimos cómo es el día a día en la vida de los científicos de datos y el trabajo que se realiza en equipo. Podemos concluir que la ciencia de datos es un área que se encuentra actualmente en auge y hacen falta muchos profesionales que se desarrollen en ella, así mismo aprendimos los conceptos básicos que nos dan la base para seguir aprendiendo sobre esta rama de la ciencia.
Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán. Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán. Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán. Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán. Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
El agotamiento de los recursos naturales constituye uno de los problemas más preocupantes de la actual situación de emergencia planetaria [3], a causa de la dilapidación de recursos como el agua y la energía, los cuales son vitales para el sostenimiento de ecosistemas naturales, e históricamente han tenido mucha influencia en la prosperidad y éxito de una nación [4].
El poder y la eficacia de los métodos del aprendizaje automático derivan de la capacidad de extraer patrones y crear modelos a partir de los datos. En consecuencia, la aplicación de estos métodos se vuelve un enfoque clave para utilizar los grandes volúmenes de datos que se obtiene a partir del monitoreo continuo de la demanda de agua (Smart metering), así como tratar la complejidad que subyace al encontrar patrones de hábitos de consumo o predecir la demanda de agua futura, cuando se involucran variables de tipo sociodemográfico.
METODOLOGÍA
La metodología asociada a la consecución del objetivo general se divide por actividades, de acuerdo con los objetivos específicos planteados con antelación.
Creación de una base de datos de consumidores de servicios públicos de agua de la ciudad de Pereira: la generación de la base de datos será posible mediante la realización de encuestas en hogares de la ciudad de Pereira. Teniendo en cuenta la contingencia actual derivada por el CoVID-19, se emplearán recursos digitales para tal fin. Así, la muestra que se pretende tomar consiste en alrededor de 400 hogares de distintos niveles socioeconómicos y estratos, esto con el fin de garantizar la relevancia estadística de la población elegida. La muestra tiene un 95% de confianza con un 5% de error esperado sobre una población de 149.704 suscriptores de estos servicios, que para el año 2017 fueron reportados por el sistema único de información de los servicios públicos, adscrito a la superintendencia de los servicios públicos domiciliarios a la república de Colombia.
Preprocesamiento de la base de datos. La base de datos ha sido recolectada cuenta con dos tipos de datos: categóricos y no categóricos. Por lo tanto, para extraer información relevante e identificar patrones subyacentes se implementarán algoritmos de aprendizaje de máquina supervisados y no supervisados.
CONCLUSIONES
En el transcurso de esta estancia se ha adquirido conocimiento en el área de Machine Learning Aprender en este contexto quiere decir identificar patrones complejos en miles de datos, por medio de algoritmos, ajustando las horas por medio de un plan de trabajo descrito con anterioridad con una breve introducción al entorno y al lenguaje de Python, analizando los diccionarios, estructuras de datos, Pandas, histogramas,tablas, gráficos de 2 dimensiones por medio de la librería (Matplotlib), DataFrames, bibliotecas de aprendizaje automático, preprocesamiento de las bases de datos con sus funciones, cargando bases de datos a Python métodos de agrupamiento de datos en la base de datos de consumo sostenible en sus diferentes métodos. Se puede concluir que los algoritmos arrojaron ciertos resultados, pero que la ineficiencia de los etiquetados fue lo que provocó resultados tan pobres. Esto se puede dar a entender porque aún con cinco métodos de agrupamiento, ninguno dio el nivel de acierto por encima del 50%, lo que denota la deficiencia en el etiquetado de la base de datos.
Medrano Aros Lesly Alejandra, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan
EL NIVEL DE EFECTIVIDAD DEL SISTEMA DE MEDICIóN POR ATRIBUTOS DE LOS INSPECTORES DE CALIDAD EN LAS EMPACADORAS DE LAS FRUTILLAS.
EL NIVEL DE EFECTIVIDAD DEL SISTEMA DE MEDICIóN POR ATRIBUTOS DE LOS INSPECTORES DE CALIDAD EN LAS EMPACADORAS DE LAS FRUTILLAS.
Medrano Aros Lesly Alejandra, Instituto Tecnológico de Ciudad Juárez. Verdugo Alanis Sergio, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
¿Existe relación entre el inspector de calidad y el nivel de efectividad del M.S.A. en las empacadoras de las frutillas? La calidad según M. Yáñez 20081 es el grado en el que un conjunto de características inherentes cumple con los requisitos, es por eso que en todas las empresas es muy importante que se cumpla con una buena calidad, si bien es subjetiva por los diferentes giros de cada organización, debe estar presente y llevarse de manera adecuada por aquellas personas que laboran en dicho departamento, pero en ocasiones hay discrepancia en las decisiones que toman los inspectores de calidad, por esto es que se aplica el Sistema de Medición por Atributos (M.S.A.) para así analizar el nivel de certeza en sus evaluaciones, ya que, este sistema arroja la efectividad que tienen en su respuesta, puesto que puede haber productos que sean acepados teniendo algún defecto y por otra parte puede haber rechazos de productos en perfectas condiciones y así adquirir costos de mala calidad.
1.(M. Yáñez, 2008)
METODOLOGÍA
Se utilizó una muestra de 50 frutillas (zarzamoras), la mitad de ellas en buen estado y la otra mitad con uno o más defectos previamente bien identificados por el supervisor de los inspectores de calidad, se realizó un ordenamiento aleatorio de números en el software Minitab y Excel como herramienta de apoyo, para así asignarle uno a cada frutilla y realizar la inspección correspondiente dentro del estudio, siendo llevado a cabo en 2 repeticiones para cada inspector, contando con 7 personas seleccionadas para dicho estudio, cada evaluación siendo en un acomodo distinto. Al realizar la inspección de las frutillas se deben de seguir una serie de pasos para hacerlo de manera correcta, se necesitara de contar con una charola cuadriculada y enumerada para el acomodo de las frutillas y varios formatos donde se vaciara la información que recabaran los evaluadores de acuerdo a las respuestas de los evaluados, al momento de los inspectores realizar su labor, tendrán que revisar las frutillas de acuerdo al orden que se les indique por parte de quien realiza el estudio, sin tocar en ningún momento el objeto, para así evitar contaminación o algún defecto extra por la manipulación de estas. Al momento del inspector emitir su respuesta, el encargado del estudio debe limitarse a recabar la información que cada inspector sin dar ningún tipo de señal de si es correcta o no la afirmación del inspector, cada observación hecha por los evaluados deberá ser anotada para una revisión futura, al finalizar con todos los inspectores de calidad la primer ronda de evaluación se procederá con la segunda ronda en una ordenación distinta, las frutillas siempre permanecerán en el mismo lugar, lo que cambiara, será el cómo se preguntan el orden los números de estas, para así realizar una relación entre sus propias respuestas. Los resultados obtenidos se vaciarán en el software Minitab, mediante el cual se realizará un Análisis de Medición por Atributos (M.S.A.), para así analizar la concordancia entre las respuestas de cada evaluador mediante el índice de Kappa de Fleiss, el cual nos arrojará un valor, el cual, en este caso en particular fue un resultado muy bajo, lo requerido para un buen sistema es un .90 como resultado o mayor a este, de .70 a .80 sería un resultado que si bien no es malo, es posible que en algún momento exista el error y necesite un poco de mejoras, y un resultado menor a .70 necesita acciones inmediatas puesto que la actuación de sus inspectores es deficiente, como lo es en este caso, que se cuenta con un resultado de 0.558065, entre los evaluadores y 0.633031 de todos los evaluadores comparados con el estándar.
CONCLUSIONES
Durante la estancia en el verano Delfín se reforzaron términos que se habían visto en algunas materias cursadas, así como también se adquirieron conocimientos nuevos como lo fue el M.S.A., qué es, para qué sirve y cómo puede ser aplicado en todas las empresas en las que su producto sea inspeccionado por medio de atributos y que no se utilice una herramienta para medirlos, si bien es un sistema que aparenta simplicidad tiene su grado de dificultad, siendo un gran apoyo en la medición de las respuestas y de la concordancia entre los inspectores y las repeticiones.
Mejía Mario Edwin Josué, Universidad Mexiquense del Bicentenario
Asesor:Dr. David Abdel Mejía Medina, Universidad Autónoma de Baja California
MODELO DE RED NEURONAL PARA LA PREDICCIóN DEL RESULTADO DEL EXAMEN EGEL-CENEVAL EN BASE AL HISTORIAL ACADéMICO
MODELO DE RED NEURONAL PARA LA PREDICCIóN DEL RESULTADO DEL EXAMEN EGEL-CENEVAL EN BASE AL HISTORIAL ACADéMICO
Aguirre Iniesta Eduardo Rodrigo, Universidad Mexiquense del Bicentenario. Mejía Mario Edwin Josué, Universidad Mexiquense del Bicentenario. Asesor: Dr. David Abdel Mejía Medina, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El examen general de egreso EGEL CENEVAL se aplica de manera obligatoria a todos los egresados de la Universidad Autónoma de Baja California. Si bien en la gran mayoría de los programas educativos se obtienen resultados positivos, aún hay estudiantes que no obtienen los resultados esperados. Por ello, surge la necesidad de generar estrategias de detección de casos en riesgo de no obtener una calificación satisfactoria o sobresaliente, lo cual permitirá a su vez establecer programas de estudio que ayuden a los estudiantes.
En este sentido, las redes neuronales permiten predecir el resultado de una situación dada, a partir de una base de conocimiento, lo que las convierte entonces en una herramienta pertinente para esta actividad. Sin embargo, uno de los problemas principales para el uso de las redes neuronales es precisamente el obtener la información necesaria para entrenar a la red neuronal, sobre todo en aquellos ambientes donde la información no se puede recopilar o donde, como en este caso, la información es sensible y no es de fácil acceso.
De lo anterior, se resumen como las problemáticas de este trabajo el diseñar un algoritmo para generar un conjunto de datos sintéticos a partir de unos datos conocidos, y posteriormente encontrar el modelo de predicción a partir de los datos obtenidos.
METODOLOGÍA
Para el desarrollo de este trabajo se empleó la siguiente metodología:
Diseño de un algoritmo para la generación del conjunto de datos sintéticos
En esta etapa de analizan los datos reales con los que se cuenta, y se diseñan un algoritmo que permita obtener los datos que no se conocen, pero que son necesarios para el entrenamiento de la red neuronal.
Para el diseño del algoritmo, se hace un análisis de la información disponible, la cual consiste en la cantidad de alumnos por semestre de egreso de un programa educativo en específico, el promedio de calificaciones por semestre de egreso, y el resultado del examen de egreso de cada estudiante. A partir de lo anterior, se obtiene la calificación por estudiante por área de conocimiento, y los resultados del examen por área de conocimiento.
Pre-procesamiento de la información
Una vez obtenido el conjunto de datos sintético, los datos se acomodan de manera que puedan tener un mayor impacto en el entrenamiento de la red neuronal. Esta etapa normalmente incluye la normalización de todos los datos.
Entrenamiento de la red neuronal
Esta etapa es una de las más relevantes, ya que de aquí se obtendrá el modelo de predicción. Para esto, en un compilador de lenguaje Python, se entrenará a la red neuronal para optimizar el modelo de predicción, a partir de realizar las siguientes actividades:
Definir las variables de entrada
Definir las variables de salida
Definir la configuración de las capas ocultas
Definir los hiperparámetros
Es importante mencionar que no hay un algoritmo que establezca un método infalible y aplicable a todas las situaciones para llevar a cabo las actividades de esta etapa, por lo que se requiere que se lleven a cabo mediante una estrategia de optimización.
Validación del modelo de predicción
Una vez que se obtiene el modelo de predicción que produce mejores resultados, se requiere validar la independencia de los datos.
Para ello, el modelo se valida con la técnica k fold cross validation, en la que los datos del conjunto de entrenamiento se dividen en k bloques, y durante k iteraciones cada bloque se entrena al modelo con k-1 bloques, y se valida con el bloque restante; en cada iteración se utiliza un bloque diferente, de manera que los k bloques son usados como conjunto de validación. Al final, se promedian los resultados obtenidos en las k iteraciones. Si el resultado promedio se considera aceptable, y los resultados son similares a los obtenidos en el entrenamiento del modelo, entonces se concluye que el modelo es independiente de los datos.
Análisis de los resultados obtenidos
En esta etapa se realiza el análisis de las actividades realizadas en la metodología, con el motivo de conocer el impacto del conjunto de datos y las variables de entrada en los resultados obtenidos.
CONCLUSIONES
Las redes neuronales son una herramienta matemática de gran utilidad para la generación de modelos de predicción. Sin embargo, a pesar de la cada vez más amplia disponibilidad de herramientas para el entrenamiento de la red, es importante considerar todos los aspectos metodológicos para garantizar que los resultados que arroje el modelo son representativos del escenario en que se van a implementar.
Melara Sereno Aziel Ibar, Universidad Autónoma de Occidente
Asesor:M.C. Angel Gonzalez Navarrete, Universidad Autónoma de Occidente
RESUMEN VERANO CIENTíFICO
RESUMEN VERANO CIENTíFICO
Melara Sereno Aziel Ibar, Universidad Autónoma de Occidente. Asesor: M.C. Angel Gonzalez Navarrete, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Resumen Verano Científico Delfín
Robótica educativa
Asesor: M.C. Ángel González Navarrete, Universidad Autónoma de Occidente
Estudiante: Aziel Ibar Melara Sereno, Universidad Autónoma de Occidente
Se sabe que hay una gran variedad de prótesis robóticas que tratan de mejorar la calidad de vida de las personas, aunque por desgracia esas prótesis llegan a ser bastante caras e inaccesibles para ciertas personas ya que en nuestro país no mucha gente llega a tener la capacidad económica para poder llegar a sustentar esa compra.
Mejorar un proyecto en el que se ha trabajado junto con mis compañeros de equipo que es un brazo robótico, en el cuál se pueda dar una mejor calidad de vida a las personas que hayan tenido algún siniestro que haya dado como resultado la perdida de la extremidad, en este caso sería el brazo.
Al mismo tiempo hemos buscado la manera de que esta prótesis pueda ser de fácil adquisición para las personas necesiten adquirirla, ya que es común que las prótesis de este tipo sean bastante caras e inaccesibles para una gran cantidad de gente en nuestro país. Este proyecto nació de las ganas de mejorar la calidad de vida de estas personas aplicando lo que hemos aprendido de robótica en nuestra Universidad
METODOLOGÍA
Al inicio del verano científico los profesores empezaron presentándonos con el grupo entero para antes que nada saber cómo nos llamábamos y para conocer a nuestros compañeros de las próximas semanas.
Empezamos trabajando una lista de proyectos en la que elegiríamos uno de ellos para realizarlo y presentarlo. Se permitió que trabajáramos en equipo de 2 y mi compañero y yo decidimos trabajaríamos en un brazo hidráulico. El movimiento de este sería a base del movimiento de unas palancas a las cuales estarían conectadas a jeringas y estas a mangueras que al otro extremo tendrían una jeringa. Al ejercer fuerza para vaciar la jeringa, la otra se llenaría y con eso haría que el mecanismo se moviera.
Después de terminarlo, todos presentamos nuestros trabajos en una conferencia para ser evaluados por nuestros profesores y compañeros, al mismo tiempo que nos hacían observaciones en caso de que algo se pudiera mejorar.
También tuvimos una conferencia con un profesor invitado, el Profesor Eugenio, que nos enseñó cómo manejar Tinkercad para en caso de que quisiéramos saber cómo armar un circuito sin necesidad de hacer gastos innecesarios, pudiéramos probarlo con esta herramienta virtual. Después de las clases dadas por el Profesor Eugenio se nos encargó hacer un circuito para practicar con lo enseñado.
Y los 2 últimos trabajos que nos han dejado los profesores, han sido de creación de una bicicleta robótica y darle una evolución para que podamos practicar con lo aprendido anteriormente y también que hagamos una secuencia didáctica para aplicarlo en un grado escolar en el que creamos que podemos empezar y por qué sería bueno iniciarlo en este grado escolar.
CONCLUSIONES
Hemos tenido reuniones bastante educativas e interesantes, ya que han sido tanto teóricas como prácticas. Los profesores han estado bastante atentos a nosotros y nuestro progreso y no solo se han conformado a la información que ellos nos pueden proporcionar, sino que también han buscado la ayuda de diferentes profesores los cuales nos puedan dar clases que nos sirvan para conocer nuevos programas en nuestro caso como Tinkercad y la manera de utilizarlos.
Melara Sereno José Ramón, Universidad Autónoma de Occidente
Asesor:M.C. Angel Gonzalez Navarrete, Universidad Autónoma de Occidente
RESUMEN DE VERANO CIENTíFICO
RESUMEN DE VERANO CIENTíFICO
Melara Sereno José Ramón, Universidad Autónoma de Occidente. Asesor: M.C. Angel Gonzalez Navarrete, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Resumen de Verano Científico
Asesor: M.C Ángel González Navarrete, Universidad Autónoma de Occidente Mazatlán
Estudiante: José Ramón Melara Sereno, Universidad Autónoma de Occidente Mazatlán
Al momento de estar obteniendo aprendizajes en horarios de clases, puede que no sea suficiente para el estudiante interesado en los estudios, así que el alumno tiene que buscar la manera de encontrar el conocimiento en una fuente confiable ya que si buscamos en páginas de internet puede que nos puedan dar información errónea, ya que han surgido muchos casos cuando se investiga los datos recopilados son falsos.
A lo que recurren a entrar a otra escuela para clases extras y que puedan resolver sus dudas en personas calificadas en la materia, pero no todos pueden tener ese privilegio por falta de dinero.
METODOLOGÍA
En este verano científico empezamos haciendo una reunión para conocernos entre compañeros y maestros para hablar como trabajaríamos y como nos apoyaríamos entre todos para resolver las dudas que tengamos con los trabajos que se hayan dejado, hablamos sobre los motivos del porque nos interesó entrar al verano por lo cual el mío fue "Aprender nuevas cosas teóricas que no se enseñan en la escuela y ponerlas en práctica en los trabajos que dejen", nos mostraron la página en donde nosotros como investigadores tendremos que subir nuestros reportes de los trabajos terminados y el proceso que se realizó para hacerlo, para finalizar la reunión cada quien tuvo que elegir un proyecto de los que estaban presentes en la página que se nos presentó para la siguiente sesión.
Cuando nos volvimos a reunir se dio una pequeña demostración de aquellos proyectos que eligieron los investigadores en la sesión pasada, en esta sesión se nos dio la oportunidad de tener una enseñanza virtual sobre el TinkerCard con el Maestro Eugenio Rodríguez Palomares, saber cómo utilizarlo, cómo programar y cuáles son sus funciones, cuando llegó el día de para nuestra enseñanza pudimos notar con más detalle cómo funciona, también podemos utilizarlo para hacer trabajos prácticos sin gastar materiales ya que esto nos ayuda a que podamos corregir los errores que nos salga.
Se nos dio un encargo hacer un proyecto utilizando de base un Arduino para hacer luego mostrarlo en la siguiente reunión y así demostrar cuanto hemos avanzado en estos días de juntas, cuando presentamos nuestros trabajos hubieron proyectos muy buenos e interesantes como lo fue del investigador Juan Alberto Ojeda Amador con un dispensador de gel desinfectante para personas que no cuentan con altas temperatura por la probabilidad de tener adquirida el Covid-19, también se resolvieron muchas dudas que se tenían ese día para poder mejorar sus proyectos en el futuro, para la siguiente junta debíamos de mostrar unas bicicletas con materiales de reciclaje y dar un reporte de cómo se realizó por pasos, pero para dar una mejor una impresión se dio un plazo de 2 semanas para que podamos mejorar de forma estética y funcional, además de que se debe de dar un ejemplo de cómo se utilizaría la bicicleta en una materia ya sea matemática, español, física, etc.
Fueron muy atrayentes los proyectos que se presentaron en el día establecido ya que se demostró que con imaginación se pueden hacer proyectos innovadores con tan solo una bicicleta o demostrar que la electrónica puede ser muy atrayente para aquellos que les interesa, es lo que yo daría por terminado mi resumen de lo que he visto hasta ahora.
CONCLUSIONES
Durante la estadía en este verano científico se pudo lograr el objetivo de adquirir conocimiento teórico y practico donde se pudo demostrar en diferentes tipos de trabajos que se dejó a lo largo de esta estadía, también demostrando que el verano científico supera las expectativas con el aprendizaje hacia los estudiantes con lo que aprendimos en la estadía.
Melo Muñoz Luis Enrique, Instituto Tecnológico Superior de Huauchinango
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
CREACIóN Y DESARROLLO DE MECANISMOS DE UN ANIMATRóNICO PARA LA CONSERVACIóN DE LA LENGUA NAHUATL
CREACIóN Y DESARROLLO DE MECANISMOS DE UN ANIMATRóNICO PARA LA CONSERVACIóN DE LA LENGUA NAHUATL
de la Cerda Villaseñor Flavio, Universidad de Guadalajara. Melo Muñoz Luis Enrique, Instituto Tecnológico Superior de Huauchinango. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
La lengua Nahuatl se consolidó como uno de los pilares más importantes en la historia de México, teniendo un gran peso político y una imponente distribución geográfica. Esta lengua se ha ido abandonado con el paso del tiempo debido al acelerado crecimiento de las ciudades, lo que conlleva a la reducción de las zonas indígenas, y por ende de los pobladores que tenían el dominio de este lenguaje. El objetivo de este proyecto es crear un animatrónico didáctico que recreará los movimientos faciales humanos durante el habla, generando una reconstrucción del lenguaje Nahuatl por medio de diversos mecanismos enfocados principalmente en los oculares y mandibulares en software de diseño 3D. Esto para la preservación, concientización y distribución de la lengua Nahuatl, buscando mantener vivo no solo el lenguaje, sino también toda la tradición, cultura e historia que representa.
METODOLOGÍA
El desarrollo de este trabajo conllevó una investigación previa, se busca que el animatrónico sea lo más familiar posible a un humano, esto con la finalidad de generar una presencia con cierta amenidad y facilitar la interacción de las personas con el animatrónico. Está pensado para colocarse en el Instituto Tecnológico Superior de Huauchinango, lo que conlleva a realizar un diseño que resulte familiar a la población, además de que preserve la esencia de la cultura en la región, que como se pudo analizar anteriormente, estadísticamente Puebla es el lugar con más hablantes de Nahuatl en el país.
El animatrónico cuenta con mecanismos que permiten el movimiento ocular de ambos ojos de manera independiente entre sí, lo que conlleva el uso de la parte superior anterior del cráneo. También, existe una placa de control en donde se colocan ciertos electrónicos como una placa Arduino y las fuentes de voltaje para los motores. Esta placa se coloca de manera vertical en la parte medial del cráneo, paralela a los ojos. Esta distribución permite tener libre la parte inferior del cráneo, desde el paladar hasta el cuello, ya que no habrá mecanismos que muevan este último. Así mismo, se cuenta con la mayor parte posterior del cráneo libre. La parte que más destaca de este trabajo fue la mandíbula, esta conlleva una gesticulación donde a través del trabajo de investigación previamente realizado se logró identificar un mecanismo que fura capaz de imitar un movimiento mandibular que necesario para que el animatrónico pueda tener una pronunciación más fluida.
CONCLUSIONES
En el transcurso de este verano de investigación los conocimientos adquiridos fueron invaluables, desde investigación previa para el análisis del funcionamiento biomecánico tanto de la mandíbula como de los globos oculares, hasta la manipulación de software de diseño 3D en el cual se buscó recrear los movimientos funcionales de las zonas anteriormente mencionadas.
Gracias a el trabajo y modalidad de seguimiento conllevado durante el verano se desarrolló un carácter autodidacta e investigativo por medio del cual se conllevaron a cabo trabajos de investigación y diseño del modelado mandibular y ocular del animatrónico que asemejan a los movimientos humanos, para crear un ambiente de confianza en la interacción de la población y el animatrónico con la finalidad de preservar el Nahuatl y todo el trasfondo cultural e histórico.
Mendez Flores Itsel Regina, Universidad de Sonora
Asesor:Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo
IMPLEMENTACION DE TRATAMIENTO DE DATOS PARA PREVENIR LA VIOLENCIA EN PAREJA
IMPLEMENTACION DE TRATAMIENTO DE DATOS PARA PREVENIR LA VIOLENCIA EN PAREJA
Mendez Flores Itsel Regina, Universidad de Sonora. Asesor: Mtra. Mariana Carolyn Cruz Mendoza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Significado de Bi.
Ayuda en la toma de decisiones, contiene herramientas de software y es un apoyo hacia las empresas para poder aumentar el valor a sus productos.
La manera de organizar un sistema de información es muy importante, depende el para que será utilizado y cuál será su resultado final, los datos deben estar colocados de una manera visible para lo que se quiera obtener, tener una interfaz simple, para que cualquier persona pueda utilizarla sin necesidad de mucho conocimiento y por último que los datos se representen de una forma clara, por ejemplo, con recursos visuales.
Elementos para considerar en los sistemas de información.
Es realmente importante el hecho de buscar el mejor conocimiento sin tomar tanto en cuenta el lado económico, a un futuro puede salir aún más caro el hecho de haberse ido por algo mucho más económico.
Errores comunes en la gestión de información en las empresas.
Información repetida
Bases de datos sin relación entre si
Problemas al momento de querer entender la base de datos
Depender de otra persona para poder obtener informes
Tipos de datos en un sistema de información.
En ellas existen tres tipos de variables; Temporales que son las que se realizan en minutos, horas, días, semanas, etc. en pocas palabras indican un tiempo. Las cualitativas expresan las cualidades de los datos que se están utilizando, dan información del dato. Cuantitativas estas son utilizadas de forma numérica, mediante sumas, restas, multiplicaciones, etc.
Necesidades de un sistema.
Tener la información de forma rápida
Diversas fuentes de información
Valor de los datos.
Para que la empresa tenga un valor más alto, se debe invertir en conocimientos, tener un modelo adecuado y definir lo que se quiere lograr a un futuro.
METODOLOGÍA
Almacén de datos.
Su función es el disponer de sistemas de información de apoyo a la toma de decisiones. En ella se integran distintas fuentes de datos, los datos se organizan tomando en cuenta el interés de la organización, snapshoots que muestran periodos de tiempo y con ellos se pueden crear copias de los sistemas.
Retos en inteligencia de negocio.
Estrategia: La organización debe estar segura de sí misma y tener en claro hacia donde quiere ir.
Información: Saber el valor que tienen los datos y defenderlos.
Integración: Es importante el considerar reducir los costos, mejorar en todos los aspectos, conocer los clientes que se tienen, aumentar los beneficios.
Disciplina, experiencia y conocimiento: Ser conscientes que la tecnología es uno de los múltiples elementos que dan solución a los problemas y también se debe de tomar en cuenta que varios de los errores que se generan es cuando se realizan de forma manual.
Inteligencia de negocio móvil.
Es donde les permite a los trabajadores por medio de aplicaciones en los celulares el poder obtener información del negocio a través de análisis de información.
Inteligencia de negocio en la nube y big data.
Permite la recopilación, almacenamiento, gestión, análisis y visualización.
CONCLUSIONES
Minería de datos.
En ella se estudia el cómo se puede llegar a tener la extracción de información que se encuentra de forma oculta en la base de datos.
Con ayuda de ella se puede obtener un modelo de conocimiento
Problemas.
Caer en una errónea interpretación.
Poca información disponible
Incertidumbre
Fases del data mining.
Para poder realizar un proyecto de minería de datos se debe de pasar por las siguientes fases.
Filtrado de datos:
Selección de variables: Se utiliza para reducir la cantidad de datos eligiendo las variables más significativas en el problema.
Existen dos métodos para la selección de características
Basados en la elección de mejores atributos al problema
Buscan variables independientes mediante algunas maneras como, algoritmos de distancia o heurísticos.
Extracción de conocimiento: Con la ayuda de la minería de datos se obtiene un modelo de conocimiento.
Interpretación y evaluación: Se comprueba que los resultados sean acordes.
Técnicas de minería.
Métodos estadísticos: Se utiliza para grandes volúmenes de datos.
ANOVA
Ji cuadrado
Componentes principales
Análisis de clusters
Análisis de discriminante
Regresión lineal
Regresión logística
Arboles de decisión.
Es una herramienta analítica empleada para el descubrimiento de reglas y relaciones. Se realiza hasta terminar de encontrar diferencias significativas de influencia.
Reglas de asociación.
Provienen de un tipo de análisis que sustrae información por coincidencias. Ayuda a encontrar correlaciones o co-ocurrencias en la base de datos.
Redes neuronales.
Detectan y aprenden patrones y características de los datos. Una vez guiadas las redes pueden hacer previsiones, clasificaciones y segmentación.
Mendez Rendon Leonardo, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
EVALUACIóN DE LOS RIESGOS LABORALES PRESENTES EN LA PLATAFORMA SOLAR DE HERMOSILLO
EVALUACIóN DE LOS RIESGOS LABORALES PRESENTES EN LA PLATAFORMA SOLAR DE HERMOSILLO
Mendez Rendon Leonardo, Universidad de Sonora. Varela Martínez Ana Sofia, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los riesgos de trabajo están presentes en todas las áreas de trabajo que existen y son causantes de lesiones leves y graves en trabajadores, esto puede ser provocado por una mala distribución de objetos en el área de trabajo, así como por la falta de equipo de protección de personal adecuado y la ausencia de medidas de seguridad.
Para detectar los factores de riesgo que existen en las áreas de trabajo es necesario realizar una evaluación de riesgos laborales que tiene por objetivo adaptar el espacio de trabajo a las necesidades de las personas con el fin de facilitar la realización de sus tareas y evitar afectaciones en su salud.
Durante el verano de investigación se realiza una evaluación de riesgos laborales con el fin de prevenir y reducir factores de riesgo presentes en la Plataforma Solar de Hermosillo.
METODOLOGÍA
Primeramente, se obtuvieron las características más importantes de la institución a la cual se le aplicó la evaluación. En este caso se analizó la Plataforma Solar de Hermosillo (PSH) la cual es una instalación creada por la Universidad de Sonora y la Universidad Nacional Autónoma de México con el objetivo principal de llevar a cabo investigación, desarrollo e innovación relacionada con la tecnología para el aprovechamiento de la energía solar térmica con concentración.
La PSH además de contar con tecnología de torre central, actualmente posee tecnología de concentración de disco parabólico, lineal fresnel y canal parabólico. Estos sistemas se utilizan principalmente para el desarrollo tecnológico, la investigación y la formación de recursos humanos de alta calidad.
Estas instalaciones poseen una jornada laboral con inicio a las 8:00 am y final a las 4:00 pm. En un día normal de trabajo laboran alrededor de 4 técnicos académicos los cuales se encargan del mantenimiento de equipos, apoyo técnico en proyectos de investigación y el armado de prototipos y 1 Investigador. En los días no rutinarios se reciben grupos de entre 10 a 15 estudiantes, los cuales acuden a las instalaciones con fines académicos.
La Plataforma Solar se encuentra ubicada en una zona desértica al poniente de Hermosillo, para su estudio se dividió el campo en 3 áreas: torre central, oficinas y exteriores. En el área de la torre central se encuentra una torre de 32 m de altura y alrededor de ella se posicionan 25 heliostatos. El área de oficinas está compuesta por 4 cubículos, un taller, un área común y un tejabán. Los exteriores es el área restante del campo la cual está cubierta en su mayoría por arbustos y árboles, además de algunos residuos o herramientas.
En la PSH se encuentran diversas herramientas tales como taladros, tornos, prensas de tornillo, cortadora, máquina soldadora, entre otros. Cuentan con una serie de equipos de protección individual tales como cascos, lentes y guantes. Además de esto, existen una serie de señalamientos básicos que indican rutas de evacuación, extintores y medidas sanitarias.
En un día normal de trabajo las personas pueden estar expuestas a la radiación solar en un periodo de 2 a 4 horas realizando pruebas con los heliostatos o armando prototipos, pero también pueden pasar su día dentro de las oficinas que cuentan con aire acondicionado haciendo uso de los equipos de cómputo. También están en contacto constante con el taller y todas las herramientas que se encuentran en él.
Posteriormente a la descripción de las características de la institución y puestos de trabajo, se analizaron una serie de encuestas aplicadas a los trabajadores y checklist de identificación de riesgos llevados a cabo en el año 2020, además se llevó a cabo una observación minuciosa del área de trabajo, fuentes que sirvieron para determinar los tipos de riesgos a los que se encuentran expuestos los trabajadores en la Plataforma Solar de Hermosillo.
Se encontró que los riesgos a los que los trabajadores están mayormente expuestos son a riesgos de seguridad, físicos y biológicos. Los riesgos de seguridad pueden presentarse debido a la falta de espacios para almacenar las herramientas de trabajo y la falta de organización de las áreas de trabajo, falta de protección en ciertas áreas, situaciones que pueden provocar caída de objetos, tropiezos y lesiones. Los riesgos físicos se presentan debido a que los trabajadores al estar en una zona desértica se encuentran en contacto constante con radiación solar y rayos UV, lo que puede provocar insolación, desmayos y agotamiento. Los riesgos biológicos pueden manifestarse debido al excremento de palomas, la exposición a picaduras de insectos, serpientes y la exposición a la flora presente en la región, esto puede provocar diversas enfermedades y envenenamiento a nivel cutáneo y neurológico.
CONCLUSIONES
El alcance de nuestra evaluación de riesgos laborales realizada durante el verano fue de nivel básico, solamente se adquirió conocimiento acerca de las particularidades de la institución y se detectaron los factores de riesgo presentes en la PSH.
Debido a que sí se logró identificar una serie de riesgos que pueden perjudicar la salud e integridad física del trabajador, la evaluación debe extenderse a un nivel avanzado en el cual se evalúa la amplitud de los factores de riesgo detectados mediante la implementación de diversos métodos de evaluación. Cabe resaltar que esta evaluación debe ser llevada a cabo por un experto en el tema.
Sin embargo, algunas recomendaciones que podemos aportar como estudiantes es que se haga seguimiento de los lineamientos presentes en los manuales publicados por la OSHA, así como de las normas oficiales mexicanas en términos de salud y seguridad en el trabajo.
Algunas otras acciones que se pueden llevar a cabo es la organización y limpieza de los espacios pertenecientes a la PSH mediante la realización de un inventario de las herramientas que son útiles y las que no. Además, se debe recalcar en las personas que asisten a la PSH la importancia de la utilización de vestimenta adecuada y el equipo de protección personal.
Méndez Tejeda María de Jesús, Instituto Tecnológico de La Piedad
Asesor:Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
EXPECTATIVAS DEL USUARIO EN ACCESIBILIDAD E INCLUSIóN EN ARQUITECTURA GUBERNAMENTAL DE
MéXICO.
EXPECTATIVAS DEL USUARIO EN ACCESIBILIDAD E INCLUSIóN EN ARQUITECTURA GUBERNAMENTAL DE
MéXICO.
Méndez Tejeda María de Jesús, Instituto Tecnológico de La Piedad. Puentes Ramirez Paz, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
Un Plan de Accesibilidad es un plan de actuación de carácter, generalmente, municipal. Su objetivo es hacer accesible gradualmente el entorno existente, a fin de que todas las personas lo puedan utilizar libre y autónomamente. El Plan evalúa el nivel de barreras que existen en un espacio determinado, define las actuaciones necesarias para adaptarlo, las valora y prioriza proponiendo un plan de etapas para su ejecución.
Por lo regular, los ámbitos analizados por el Plan son:
Los espacios de uso público, como son calles, plazas, parques, etc.
Los edificios públicos, tales como equipamientos culturales, administrativos, sanitarios, escolares, etc.
Los elementos de la cadena de transportes, desde las paradas y estaciones hasta el material móvil.
La señalización informativa y la comunicación sensorial.
(Fernández, García, Junca, Torralba, & Santos, 2005, pág. 252)
1. Objetivo:
Identificar las características de infraestructura, tecnología y operación que se deben cumplir en un edificio público de carácter gubernamental como lo es el Palacio Municipal de la Piedad y el de Xalatlaco, verificando su cumplimiento para asegurar la accesibilidad e inclusión de todas las personas en igualdad de condiciones.
METODOLOGÍA
2. Métodos:
a. Diseño de la investigación: El diseño de la investigación fue de tipo no experimental, seccional, descriptiva y explicativa, dado que mediante la recopilación de información de varias fuentes se pudo obtener una lista de cotejo. Con dicha lista se visitaron los sitios de estudio para analizar con parámetros cuantitativos y cualitativos, la accesibilidad e inclusión con las que cuenta cada espacio que se seleccionó del ayuntamiento. Esta investigación fue comprendida desde el 14 de junio hasta el 30 de julio de 2021
b. Sitio del estudio: La presente investigación se llevó a cabo en los Palacios Municipales de La Piedad de Cavadas Michoacán y Xalatlaco Estado de México, seleccionados por ser espacios públicos accesibles a la investigación científica. Estos lugares fueron visitados por los participantes de la investigación, para poder identificar de manera más exacta las medidas de accesibilidad e inclusión con las que cuentan los Palacios previamente mencionados.
c. Unidades de estudio: Para este estudio, se consideró a la población en general, en igualdad de condiciones, ya que todo ser humano tiene derecho a un acceso fácil a cualquier lugar público, así sea una persona discapacitada, adulto mayor o mujer embarazada.
d. Intervenciones: Se realizó la evaluación in situ de las condiciones de accesibilidad e inclusión en los lugares de estudio apegada a los parámetros establecidos para la infraestructura y accesibilidad de la normatividad vigente en México y se realizó el contraste con la percepción de los usuarios. Con esto se pudo observar que los usuarios esperan que los espacios públicos cuenten con las medidas mínimas de accesibilidad e inclusión para poder moverse o desplazarse por cualquier lugar con plena autonomía. Aunque también consideran que el mantenimiento de dichos lugares es indispensable para que estos tengan la eficiencia necesaria.
CONCLUSIONES
3. Resultados principales:
Se realizó una encuesta con un instrumento previamente validado en una prueba piloto, llevándose a cabo la recolección de datos a través de redes sociales para conocer la percepción de inclusión y accesibilidad que tiene la población del Estado de México y Michoacán. Se consideraron las características de infraestructura, tecnología y operación bajo el enfoque de universalidad, de las cuales el 99% de las personas encuestadas considera que sí es importante la accesibilidad dentro de los espacios públicos. Así mismo, el 65% de ellos en alguna ocasión se han sentido limitados para acceder y desempeñarse en un lugar por cuestiones de la infraestructura.
4. Conclusiones:
Cualquier persona creería que un espacio público, como lo es el Palacio Municipal, permite el ingreso a toda persona y sin problema le puede dar el servicio requerido. Desafortunadamente las cosas no son así de sencillas. A simple vista no se puede valorar si un espacio es funcional o no, es hasta el momento de recorrer e inspeccionar con el conocimiento del cómo, qué, dónde debe ser o estar, cuando podemos identificar que hay características en cuanto a infraestructura, atención del personal y mecanismos automáticos que, como mínimo, debería tener un espacio público y no se están cumpliendo.
Realizado el levantamiento de campo en los Palacios Municipales de La Piedad de Cavadas, Michoacán y Xalatlaco, Estado de México, podemos confirmar que realmente no hay esa accesibilidad e inclusión que tan mencionada es actualmente. Se entiende que al ser edificios históricos se tiene la limitación de hacer modificaciones, pero se puede acondicionar y equipar un área de fácil acceso con personal capacitado para atender a estos grupos minoritarios de discapacitados y adultos mayores.
KEYWORDS: Accesibilidad, inclusión, arquitectura gubernamental.
Méndez Velázquez Britney Jaqueline, Universidad Veracruzana
Asesor:Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México
DISEñO DE ELEMENTO DE RECONOCIMIENTO PARA CáNCER DE PULMóN NO MICROCíTICO USANDO HERRAMIENTAS DE QUíMICA COMPUTACIONAL
DISEñO DE ELEMENTO DE RECONOCIMIENTO PARA CáNCER DE PULMóN NO MICROCíTICO USANDO HERRAMIENTAS DE QUíMICA COMPUTACIONAL
Méndez Velázquez Britney Jaqueline, Universidad Veracruzana. Asesor: Dr. Angel Ramon Hernandez Martinez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En medida mundial, el cáncer es la causa principal de defunciones, esta es una afección que se manifiesta como un aumento descontrolado de células anormales que sobrepasan a las células normales y puede desarrollarse en cualquier parte del cuerpo.
Se sabe que en México la mortalidad por cáncer está situada en tercer lugar. Si bien todas las enfermedades oncológicas son importantes, para esta estancia nos centramos en el cáncer de pulmón (CP) pues, a diferencia de otros tumores, es el más agresivo y mortal. El Cáncer de pulmón de células no pequeñas (CPCNP) representa un 80% dentro del CP y de acuerdo con el Instituto Nacional de Salud Pública (INSP) en el 2020, en México se registraron 7,811 casos nuevos y 6,733 muertes a causa de él.
Su alta mortalidad se puede atribuir a su característica asintomática dentro de etapas tempranas, lo cual hace que su detección se vea retrasada y es aquí donde nace su principal problemática. Por lo que en este verano de investigación se buscó diseñar un elemento de reconocimiento para un biosensor que ayude a la detección oportuna del cáncer de pulmón no microcítico.
METODOLOGÍA
De acuerdo con la IUPAC, un biosensor es un dispositivo que está conformado por al menos 3 partes, El elemento de reconocimiento biológico que puede ser tomado de la naturaleza o ser un producido en laboratorio, el transductor que acopla al elemento de reconocimiento con el tercer elemento, y además traduce la señal emitida por el sensor, y por último el detector.
Ahora bien, para el diseño del elemento de reconocimiento del biosensor para el cáncer de pulmón no microcítico, el primer paso fue reunir los datos básicos de esta enfermedad a través de una búsqueda bibliográfica. Posteriormente se seleccionó como biomarcador y molécula objetivo, una de las más de 10 biomoléculas con las que se puede determinar la presencia de cáncer de pulmón no microcítico. En este caso el antígeno carcinoembrionario (CEA) fue la biomolécula seleccionada. El nivel de corte del CEA es < 5 ng/ml, con un umbral de probabilidad elevada (>95%) de >25ng/ml y la determinación cuantitativa del CEA en suero o plasma se realiza tradicionalmente en laboratorio clínico por medio de un kit de inmunoensayo enzimático DRG-CEA. Este es un ensayo en fase sólida de inmunoadsorción unidos a enzimas (ELISA) basados en el principio del sándwich. Lo anterior se puede ser posteriormente como prueba de validación del biosensor.
Para el siguiente paso, se realizó una búsqueda de la estructura química del CEA en el banco de proteínas denominado RCSB - PDB (Protein Data Bank). Aquí se buscó la estructura cristalina pura, así como una segunda con ligandos co-cristalizados, para determinar los grupos químicos funcionales que interactúan químicamente con el CEA y a partir de esta información diseñar una estructura química para un quimiosensor fluorescente para el CEA.
Para lograr la fluorescencia en el quimiosensor, nos inspiramos en la Rodamina, la cual es un compuesto orgánico heterocíclico fluorescente, cuya estructura química tiene como base el xanteno. Por lo que tomó la estructura química del xanteno y se decoró con los grupos funcionales químicos determinados a partir del análisis de los ligandos co-cristalizados con el CEA, como el Glicerol que contiene 3 grupos hidroxilos el cual se unió a un átomo de Hidrogeno libre de la Rodamina, para no romper los anillos bencénicos causantes de la fluorescencia.
Para realizar el modelo y su posterior optimización geometría-energía se usó el programa Avogadro, con el cual se generó el archivo de entrada para el programa Orca.
CONCLUSIONES
Se espera que la propuesta presentada tenga una respuesta favorable en los pasos siguientes de la metodología, los cuales son:
Obtención del espectro Uvvis usando el programa ORCA
Estudiar las interacciones químicas entre el quimiosensor propuesto y el CEA.
Mendieta Cabrera Benjamín Osvaldo, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
MEDICIóN DE ESPALDA PARA LA ASISTENCIA DE DIAGNóSTICO EN LESIONES DE COLUMNA VERTEBRAL
MEDICIóN DE ESPALDA PARA LA ASISTENCIA DE DIAGNóSTICO EN LESIONES DE COLUMNA VERTEBRAL
Mendieta Cabrera Benjamín Osvaldo, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En la práctica de las actividades físicas y deportivas, las lesiones siempre han sido un problema constante. Aunque el estudio de la biomecánica y el apropiado uso del equipo de seguridad protegen al usuario, es inevitable que se presenten lesiones en el momento de realizar actividad física intensa laboral o deportiva.
Las lesiones pueden presentarse en cierta escala de gravedad provocando incapacidad de empleados que desarrollan trabajo físico, o deportistas de alto rendimiento. Cabe señalar que el riesgo de sufrir una lesión no es exclusivo del trabajo pesado o el deporte. Las actividades diarias comunes como caminar con calzado inadecuado, o conducir un vehículo por periodos de tiempo prolongados, también pueden inducir lesiones. Cuando una lesión no es detectada a tiempo, el daño puede ser grave o incluso permanente. Es por eso que es importante contar con un método de diagnóstico simple, rápido, y económico disponible para todos. Entre los padecimientos por actividad laboral y deportiva, las lesiones de columna vertebral son bastante recurrentes. A pesar de que existen métodos de diagnóstico basados en tomografía y resonancia magnética, los estudios son muy especializados y costosos.
En este proyecto, se desarrolló un método para la evaluación de deformación de la espalda como medio de apoyo en el diagnóstico de lesiones en la columna vertebral. Se empleó el método de proyección de franjas para digitalizar en 3D la espalda del paciente en diferentes posturas de una rutina física. El esfuerzo provocado durante la rutina, exhibe zonas de deformación en la espalda útiles como asistencia al médico para detección y diagnóstico de una lesión de la columna vertebral.
METODOLOGÍA
En este proyecto se construyó un perfilometro óptico, utilizando, una cámara, un proyector y una computadora con un software capaz de procesar los datos. Para entender cómo funciona y cómo se construyó dicho perfilómetro es fundamental que se realice la revisión de los aspectos teóricos. En primera instancia tenemos el tema de coordenadas homogéneas el cual nos permite llevar de coordenadas cartesianas por medio de un operador. Las coordenadas homogéneas nos ayudarán a obtener los vectores necesarios para las digitalizaciones. Otro aspecto a considerar es el tipo de cámara que se utilizó. En este proyecto se empleó el modelo pinhole el cual nos permite transformar las imágenes planas con coordenadas homogéneas a unidades pixel y dichas unidades pixel tendrán la altura y el ancho.
También es importante conocer la construcción de la matriz de un plano en la escena con el plano diapositiva; es decir, la imagen que despliega el proyector. En este trabajo de investigación se emplearon múltiples homografías para calibrar el sistema. Posteriormente, se capturaron múltiples patrones de franjas con un total de 48 fotografías por cada una de las posiciones en las que se digitalizó la espalda del paciente para así poder obtener la mayor visualización de cómo se comporta la espalda con cierto tipo de movimientos o rutinas. Es importante mencionar que los resultados deben ser revisados por un especializar para determinar la deformación y detectar la posible lesión de la columna vertebral.
Para calibrar el sistema, se capturaron 31 imágenes de un patrón de calibración de tipo tablero de ajedrez. Posteriormente se realizó la proyección de franjas los cuales son patrones que despliegan los ejes (x, y) a ser procesados después en un programa que implementamos en Matlab, se desplegaron las rejillas en ambos ejes para posteriormente procesar las imágenes y obtener los mapas de fase. Finalmente, la fase es empleada para realizar triangulación y obtener la digitalización de la espalda del paciente. El proceso se repite mientras el paciente realiza diferentes posturas de una rutina física con la finalidad de obtener mayores mediciones y detectar deformaciones atípicas provocadas por una posible lesión.
CONCLUSIONES
Para concluir con este proyecto, puedo decir que esté perfilómetro que se realizó ayuda en la velocidad y la adquisición de los resultados. Además de que puedes ser incluso portátil y que estoy seguro que brindará a los médicos en una forma más eficaz de realizar los diagnósticos y asignar los tratamientos a los pacientes que sufran lesiones de este tipo. Además de que los costos resultan menores a comparación de otro tipo de método el cual requiere de aparatos e instalaciones muy complejas para poder realizar los estudios. También son una excelente opción para ser ocupados en centros médicos pequeños, como lo pudieran ser incluso los de los mismos estadios de juego o estaciones de trabajo en la industria.
Mendoza Burgoa Diana Leticia, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente
EVALUACIóN DEL USO POTENCIAL DEL GRILLO (SPHENARIUM PURPURASCENS) COMO FUENTE ALIMENTARIA ALTERNATIVA PARA CONSUMO HUMANO. ARTíCULO DE REVISIóN
EVALUACIóN DEL USO POTENCIAL DEL GRILLO (SPHENARIUM PURPURASCENS) COMO FUENTE ALIMENTARIA ALTERNATIVA PARA CONSUMO HUMANO. ARTíCULO DE REVISIóN
Martinez Romero Flor Angélica, Instituto Tecnológico de Toluca. Mendoza Burgoa Diana Leticia, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Ana María Aristizábal Montoya, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
Más de 100 millones de personas padecen hambre o desnutrición alrededor del mundo, el costo de los alimentos y la falta de asequibilidad impiden que lleven una dieta equilibrada y saludable, es por ello se impone la necesidad de encontrar nuevas fuentes alimentarias que cubran los requerimientos nutricionales y contribuyan a lograr el objetivo de desarrollo sostenible hambre cero, ya que la producción de alimentos no avanza al mismo ritmo que el crecimiento demográfico.
La FAO calcula que a 2030 tendremos que alimentar a más de 9.000 millones de personas, además de a los miles de millones de animales que se crían anualmente con fines alimentarios o recreativos y como mascotas. Dicha demanda, tiene efectos adversos como la contaminación del suelo y del agua debida a la ganadería intensiva y el sobrepastoreo que provocan la degradación de los bosques, con efectos sobre el cambio climático e impactos ambientales destructivos.
La entomofagia es el consumo de insectos por los seres humanos, un hábito que ha estado presente en la conducta alimentaria en muchos países en el mundo, principalmente en regiones de Asia, África y América Latina. La ingesta de insectos complementa la dieta de aproximadamente 2.000 millones de personas. Sin embargo, esta práctica ha empezado a ser desarraigada dada la influencia de Norte América y Europa, donde el consumo de insectos es un tabú (Rodríguez-Miranda et al., 2019).
METODOLOGÍA
La revisión documental acerca de la determinación del uso potencial de grillo (Sphenarium purpurascens) para el consumo humano, siguió la metodología e indicaciones propuestas por Green, Johnson, & Adams, 2006, Gülpinar & Güçlü, 2013, Vera Carrasco, 2009; reflejada en tres grandes actividades: la búsqueda bibliográfica, organización de la información y redacción del artículo de revisión.
La búsqueda de la información correspondió a publicaciones de los últimos 5 años, en bases de datos científicas como PubMed, Scopus, ScienceDirect, Ebsco, Elsevier, Springer, Wiley, entre otras, y páginas de entes oficiales (INVIMA, COFEPRIS, SENASICA, OMS, FAO). Mediante el uso de palabras clave y descriptores como Sphenarium purpurascens, Grasshopper, protein, alimentación, consumo humano, edible insects, acompañados de los operadores booleanos AND, OR y NOT en dichos rastreos, se descartaron los artículos que no cumplían los criterios de inclusión establecidos. Dicha exclusión se realizó mediante la lectura independiente de cada uno de los investigadores, y una contrastación posterior de material evaluado en reunión con el asesor.
La selección de los estudios para elaborar del artículo se realizó a través las lecturas completas de dichas publicaciones, agrupándolas por las temáticas de interés; origen y descripción del grillo, condiciones de producción y ciclo de vida, composición y aporte nutricional, obtención de productos y aplicaciones para el consumo humano.
La redacción del documento siguió el orden de introducción, metodología, desarrollo de los tópicos propuestos en relación determinación del uso potencial de grillo (Sphenarium purpurascens) como fuente alimentaria alternativa para el consumo humano, una discusión de los hallazgos, conclusiones y las referencias, cumpliendo con el requisito de mínimo 50 para denominarse artículo de revisión.
CONCLUSIONES
Las investigaciones recientes se han interesado por la producción sustentable y las fuentes alimentarias alternativas que cubran los requerimientos esenciales de la población, como consecuencia de ello se puede apreciar un notable resurgimiento de la entomofagia
De acuerdo con los estudios revisados el grillo aporta un significativo contenido de fibra, bajo porcentaje de grasa y un elevado aporte de proteína de alto valor biológico convirtiéndolo en una alternativa viable para remplazar fuentes tradicionales de proteína de origen animal, como res, pollo, pescado, etc. Sumado a su atractivo perfil nutricional, el impacto ambiental es mínimo, ya que implica una menor demanda de recursos y una reducción considerable de emisiones. Adicionalmente, trabajar con grillos en un ambiente controlado requiere poco espacio y bajos costos.
La tecnificación de la producción de grillo y su transformación industrial amplia las posibilidades de aplicación en la elaboración y fortificación de productos alimenticios, en especial para llegar a poblaciones donde las condiciones de inseguridad alimentaria apremian.
Para la industrialización y comercialización del chapulín, hace falta una regulación que defina los requerimientos para garantizar la inocuidad del producto dado que la aplicación de las buenas prácticas de manufactura no es suficiente tratándose de un alimento para el consumo humano.
Mendoza Jiménez Edwin Geovani, Instituto Politécnico Nacional
Asesor:Mtro. Elmar Montiel Jimenez, Instituto Tecnológico Superior de Libres
DISEñO DE UN SISTEMA DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE PLACAS EN EL SOFTWARE DE SCILAB.
DISEñO DE UN SISTEMA DE VISIóN ARTIFICIAL PARA EL RECONOCIMIENTO DE PLACAS EN EL SOFTWARE DE SCILAB.
Mendoza Jiménez Edwin Geovani, Instituto Politécnico Nacional. Asesor: Mtro. Elmar Montiel Jimenez, Instituto Tecnológico Superior de Libres
PLANTEAMIENTO DEL PROBLEMA
La presencia de la Inteligencia Artificial (IA) ha aumentado con el paso de los años, en la actualidad se ha vuelto común encontrarla en nuestras tareas cotidianas. La visión artificial, que es un campo de la IA, tiene una gran importancia al querer emular la visión del humano, a partir del procesamiento, análisis y obtención de información relevante dentro de imágenes digitales.
Este campo de visión artificial tiene múltiples aplicaciones: metrología, óptica, reconocimiento de caracteres y objetos, construcción de modelos 3D, vigilancia, entre otras. Una aplicación más puede ser para el reconocimiento de placas de automóviles, la cual puede ayudar de distintas formas, por ejemplo, para cuestiones de seguridad y control de acceso a instituciones o lugares que requieran cierta restricción.
En la situación actual, la mayoría de establecimientos no cuenta con un sistema que permita realizar dicha aplicación de reconocimiento de placas. El contar con alguno, permitiría automatizar procesos y ahorraría tiempo y trabajo humano. En este proyecto se planteó un diseño de un sistema que fuera capaz de realizar dicha tarea, desarrollado en el software de Scilab ya que cuenta con una gran variedad de funciones, es de código abierto y no necesita de muchos recursos computacionales para su buen funcionamiento.
METODOLOGÍA
El desarrollo de este sistema fue realizado con la librería de OpenCV, que es una librería disponible en Scilab y que es de código abierto para tareas de visión por computadora.
Se tuvieron cuatro etapas relevantes: la detección de la placa, la detección de sus caracteres, la obtención de los descriptores de cada caracter y el entrenamiento de una red neuronal.
La primera etapa consistió en el procesamiento de las imágenes, las cuáles eran fotografías de la parte delantera o trasera de un vehículo donde se visualizara la placa. Se redimensionó la imagen, se pasó a escala de grises (niveles de 0 a 255 por pixel), se realizó una umbralización por el método de Otsu para obtener una imagen binaria (0 - negro, 255 - blanco), se obtuvieron los contornos de los objetos dentro de la imagen (utilizando la función Canny) y de ahí, se rescató aquel contorno que fuera aproximadamente un rectángulo que corresponde a la forma de la placa. Con esto se obtuvo la localización de la placa dentro de la imagen, y se procedió a recortarla para ser utilizada en la siguiente etapa.
Ahora se realizó la detección de caracteres, para ello se realizó una nueva umbralización por el método de Otsu. Ya que las placas cuentan con una gran variedad de logotipos, dibujos u otros, se aplicó un filtro de erosión y dilatación para conseguir lo más limpio posible los caracteres y, en seguida, se buscaron los contornos de los objetos y se obtuvieron aquellos que fueran más grandes que hacían referencia a los caracteres de la placa.
Con la obtención de cada caracter, ahora fue necesario conocer aquellas características que los describieran. Se realizó una búsqueda de los blobs de la imagen (objetos binarios que contienen información útil) y se obtuvieron sus descriptores como área, contorno, centroide. Unicamente se almacenaron los descriptores del blob más grande que correspondían al caracter.
La información de la etapa anterior se realizó con distintas imágenes para obtener cierta cantidad de datos para entrenar un modelo de red neuronal, asignando los descriptores de cada caracter a un valor objetivo o de salida, y de esta forma dar solución al reconocimiento de placas de automóviles.
CONCLUSIONES
El utilizar técnicas de visión artificial puede ser bastante útil en la solución de diversas problemáticas, además, ha sido una tendencia la inclusión de esta tecnología en distintos campos. El desarrollo de este sistema ayuda como una guía para el desarrollo de un sistema más complejo, el detalle relevante es la cantidad de datos necesarios para un mejor desempeño del diseño propuesto.
Al ser un proyecto desarrollado con un software de código abierto y que no utiliza grandes recursos computacionales, puede ser implementado en un sistema embebido y cumplir adecuadamente esta función de detección de placas. Lo anterior aunado con el aumento de los datos de entrenamiento de la red neuronal, puede verse como un trabajo a futuro de este sistema.
Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Manuel Antonio Ramos Murillo, Universidad Autónoma de Ciudad Juárez
ESTRUCTURA ELECTRóNICA CON DFT PARA INTERCALADO DE CAPAS ENTRE GRAFENO Y DISULFURO DE MOLIBDENO.
ESTRUCTURA ELECTRóNICA CON DFT PARA INTERCALADO DE CAPAS ENTRE GRAFENO Y DISULFURO DE MOLIBDENO.
Mendoza López Irmin Didier, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Manuel Antonio Ramos Murillo, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La creciente demanda de baterías en vehículos eléctricos y electrónica móvil requiere el desarrollo de fuentes de energía con alta densidad de energía y alta densidad de potencia. Debido al abundante almacenamiento de elementos y la alta conductividad, el grafito se utiliza como material de electrodo comercializado para baterías de iones de litio. Sin embargo, su capacidad disminuye al aumentar la densidad de corriente, y su capacidad teórica también es limitada. Se ha realizado un gran esfuerzo para explorar nuevos materiales de ánodo que posean un excelente rendimiento electroquímico.
METODOLOGÍA
En el presente trabajo se analiza el intercalado de capas de grafeno en 2H-MoS2 de dos formas distintas. La primera que se estudia es donde se intercalan capas de grafeno en el espacio entre las dos capas de MoS2. Las distancias entre cada capa de MoS2 es de 1.01 nm (midiendo la separación respecto a los átomos de molibdeno) y la distancia entre la capa de grafeno y MoS2 es de 0.5 nm. En segundo lugar, se estudia aquella donde se coloca una capa de grafeno arriba y otra abajo de la estructura 2H-MoS2, similar a una heterounión, respetando la misma distancia entre capas que se aplica en el primer caso.
La investigación se realiza aplicando cálculos DFT. Antes de calcular la densidad de estados y los cálculos de estructura de bandas, las geometrías iniciales se optimizan geométricamente utilizando el algoritmo de Broyden-Fletcher-Goldfarb-Shanno. Todos los cálculos de DFT se realizan utilizando CASTEP con una aproximación de gradiente general funcional de Perdew-Burke-Ernzerhof revisada (RPBE), energía de corte de 300 eV en el espacio recíproco, con puntos k de 3x3x1, con un rango de convergencia de campo auto consistente (SCF) de 1x10-6 eV por átomo. Todas las estructuras serán representadas por un pseudopotencial ultrasuave.
CONCLUSIONES
Estructura de la fase 2H-MoS2
La estructura construida de la fase de 2H-MoS2 se optimiza geométricamente bajo el mismo nivel de teoría y asignando los mismos parámetros de la sección de la metodología. La optimización muestra que los átomos de azufre y de molibdeno se eclipsan en una vista superior de la celda construida, lo que es muy acertado con lo mencionado en la literatura sobre esta fase. La distancia entre el átomo de azufre más cercano al átomo de molibdeno de la segunda capa es de 5.066 Å, además, la distancia del enlace Mo-S está entre 2.41 y 2.42 Å. Los cálculos de estructura electrónica muestran que esta fase tiene una brecha energética prohibida (band gap) de 0.020 eV, lo que la aproxima a un comportamiento metálico. La estructura de bandas revela que tiene un band gap indirecto y la densidad de estados muestra que no hay una separación entre los niveles de energía por arriba y abajo del nivel de Fermi, por lo que comprueba que el sistema de se comporta como metálico.
Capas de disulfuro de molibdeno entre capas de grafeno
Realizando el análisis estructural se observa que la distancia entre capas de MoS2 se modifica ligeramente en comparación con la fase 2H-MoS2 aislada. Pasa de 5.066 a 4.311 Å, lo que concluye que las capas de grafeno comprimen la estructura. Por otra parte, la distancia entre un átomo de carbono al átomo de azufre más cercano es de 3.246 Å y de 4.858Å al átomo de molibdeno. La estructura de bandas se modifica por completo por efecto de las capas de grafeno. El band gap aumenta a 0.037 eV y esta configuración mantiene el band gap indirecto, sin embargo, el análisis de la densidad de estados muestra un mejor flujo de electrones por arriba del nivel de Fermi.
Capa de grafeno entre capas de disulfuro de molibdeno
Colocar una capa de grafeno entre las capas de la fase 2H-MoS2 implica separar las mismas. La distancia entre el átomo de carbono al átomo de molibdeno más próximo es de 5.584 Å, por lo que cada capa de MoS2 se aleja del grafeno. La distancia del enlace Mo-S se encuentra entre 2.40 a 2.41 Å. La estructura de bandas indica que este sistema se comporta como un metal, ya que no existe band gap para esta configuración. Esta razón explica el uso del intercalado de capas de grafeno en MoS2 porque permite el flujo excelente de electrones. Además, la densidad de estados muestra que los electrones pueden fluir libremente para los niveles de energía por arriba del nivel de Fermi.
Mendoza Martinez Maria Isabel, Universidad de Sonora
Asesor:Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
DESARROLLO DE UN SISTEMA WEB DE APRENDIZAJE DE INGLéS PARA PERSONAS CIEGAS
DESARROLLO DE UN SISTEMA WEB DE APRENDIZAJE DE INGLéS PARA PERSONAS CIEGAS
Blanco Soriano María Alexandra, Instituto Politécnico Nacional. Mendoza Martinez Maria Isabel, Universidad de Sonora. Asesor: Dra. Teresita de Jesús Alvarez Robles, Universidad Autónoma de Baja California Sur
PLANTEAMIENTO DEL PROBLEMA
Durante los últimos años se ha visto que la tecnología digital ha revolucionado la manera tradicional de dar clases, brindándole ahora la posibilidad al usuario de gestionar su propio aprendizaje y de volverse autodidacta. Sin embargo, este beneficio no es igual para todos los sectores de la población, ya que ciertos grupos son usualmente minimizados y sus necesidades se ven ignoradas al querer aprender nuevas técnicas y obtener nuevos conocimientos. Dentro de estas categorías entran las personas con discapacidad visual o ceguera, los cuales se ven obstaculizados en el aprendizaje ya que las tecnologías que se utilizan en la actualidad no fueron, en su mayoría, desarrolladas con el fin de ser accesibles para estos usuarios. Para superar estas barreras, se plantea desarrollar un sistema web de aprendizaje del idioma inglés que sea accesible para personas con discapacidad visual utilizando métodos de experiencia de usuario para evaluar la estructura del mismo.
METODOLOGÍA
El estudio se dividió en 5 fases: análisis, diseño, desarrollo, pruebas con los usuarios y lanzamiento. Dentro de la fase de pruebas, los métodos de experiencia de usuario utilizados fueron Card Sorting y Thinking Aloud, los cuales se aplicaron de manera remota, y contaron con una participación de 4 voluntarios ciegos con un nivel mínimo de experiencia con dispositivos móviles.
CONCLUSIONES
A partir de los datos obtenidos se diseñó un prototipo a bajo nivel de las tareas y subtareas con las cuales cuenta el sistema, el cual utiliza texto a voz para que los usuarios puedan navegar dentro de él, al igual que se implementa un número mínimo de botones para favorecer la experiencia del usuario. Al trabajar con tecnologías accesibles es importante no solo considerar el aspecto técnico al desarrollar estos sistemas, sino que se deben tener en cuenta las diferencias que existen en el proceso de aprendizaje de una persona ciega comparadas con el de alguien sin esta discapacidad visual; por esto mismo, durante la investigación, se buscó que ésta fuera diseñada bajo la correcta interacción entre el estudiante y el material que se está aprendiendo.
Se recomienda a investigaciones futuras trabajar con una versión para dispositivos móviles del sistema que cuente con retroalimentación vibratoria.
Meneses García Claudio, Universidad Autónoma de Guerrero
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
EFECTO DE LA CARBONATACIóN EN LA DURABILIDAD DE ESTRUCTURAS DE CONCRETO REFORZADO
EFECTO DE LA CARBONATACIóN EN LA DURABILIDAD DE ESTRUCTURAS DE CONCRETO REFORZADO
Meneses García Claudio, Universidad Autónoma de Guerrero. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad la mala supervisión o escasa de ésta en una obra de construcción es lo que
nos puede conducir a una mala ejecución de la misma, en algunos casos no se contrata a gente
profesional en el trabajo a desempeñar, y por ahorrar unos pesos se emplea a un albañil y al
peón, que tal vez si saben construir pero de una manera empírica, y no con lo que es requerido
en las normas de construcción, siendo un ahorro mal entendido, ya que después puede ocurrir
que la obra presente problemas de durabilidad y se demerite de manera prematura. Uno de
los problemas es la carbonatación del concreto armado, que permite el ingreso de bióxido de
carbono, disminuyendo el pH del concreto a valores menores a 9 y es cuando la matriz
cementicia deja de proteger al acero de refuerzo, siendo posible el inicio de la despasivación
de la varilla, con el consecuente inicio de la corrosión. Esto se puede presentar en ambientes
agresivos.
METODOLOGÍA
La carbonatación se puede determinar de manera práctica por medio de la fenoltaleína, que
es un indicador del pH que tiene la matriz de cemento portland, la cual hace que el concreto
en estado sólido adquiera cierta tonalidad de color violeta en la zona no carbonatada,
pudiéndose así medir el avance del frente de carbonatación, en su caso.
La carbonatación es un problema muy presente en construcciones localizadas en zonas
industriales y en donde existe gran tránsito vehicular, pudiendo deberse a que se realizan
concretos sin supervisión adecuada, alta relación agua/cemento, una mala colocación del
acero de refuerzo, por poco recubrimiento, por tener mal vaciado del concreto, mal vibrado,
o una mala colocación de las cimbras.
Las estructuras construidas a base de concreto armado, pueden tener problemas como son la
porosidad, que nos lleva a filtraciones de agua hacia el concreto y esto afecta mucho al acero
de refuerzo que poco a poco va presentando corrosión y como ya sabemos éste se expande
hasta fracturar partes del concreto provocando desprendimientos parciales.
El ACI 201 (ACI 2002) define la durabilidad del concreto como su capacidad para resistir a
la acción del tiempo, los ataques químicos, la abrasión o cualquier otro proceso de deterioro
Esto quiere decir que nuestro concreto armado debe resistir sin deformarse a los cambios
climáticos o cualquier otro tipo de fenómeno que el área en la que estamos construyendo
presente.
En la autoconstrucción el costo de las remodelaciones es mayor que el de la construcción
misma ya que se construye sin características de durabilidad de los materiales, este es un
problema grave, en una estructura no podemos usar cualquier material si no conocemos
resistencias y propiedades de estos, ya que para cada región y clima se utilizan diferentes
tipos de estos, que son los que la zona requiere.
Objetivos
Al dar esta información se pretende concientizar a la población en general que no es mala la
autoconstrucción sin embargo esta puede llegar a presentar demasiados fallos en su
realización y por ende la vida de esta se reduce, ya que no se cuenta con los conocimientos
requeridos para llevarla a cabo, esto puede ser contraproducente para su economía ya que
esta no tendrá la vida útil pensada en un principio, por esta razón es más recomendable
contratar a un diseñador de estructuras que aunque será algo más costoso nos garantizará una
vida útil más extensa en dicha construcción.
Fundamento teórico
El propósito de esta investigación es dar a conocer los problemas que provienen de la
carbonatación en las estructuras de concreto armado y como se pueden evitar ya que este
problema no puede ser 100% eliminado totalmente, pero podemos hacer que sea lo menos
posible disminuyendo al mínimo la porosidad en el concreto, esto se logra dando un buen
recubrimiento al acero de refuerzo, entre otros aspectos constructivos.
CONCLUSIONES
Conclusión
Hay tres aspectos básicos que se deben de respetar al construir, según se indica en la Norma
NMX-C-530-2018-ONNCCE:
1.- Mantener una cantidad mínima de cemento portland, por metro cúbico al realizar las
mezclas de concreto.
2.- Respetar cantidades mínimas de recubrimiento del concreto al acero, el cual le otorga una
doble protección, tanto química como física.
3.- Cuidar que la relación agua/suma de cementantes no sobre pase cierta cantidad, todo
indicado en la norma antes mencionada
Debemos acudir con personal profesional en la construcción, si no queremos que nuestra
obra presente fallos en un corto plazo, y se presenten problemas de diferentes tipos entre
estos la carbonatación.
Agradecimiento al Dr. Wilfrido Martínez Molina por ser mi asesor y aceptarme para el
programa Delfín, así como a todos los maestros por sus excelentes ponencias y compartir su
conocimiento con nosotros los estudiantes.
Bibliografía
Solís Carcaño, Rómel G., & Moreno, Éric Iván, & Castro Borges, Pedro (2005).
Durabilidad en la estructura de concreto devivienda en zona costera. Ingeniería, 9(1),13-
18.[fecha de Consulta 29 de Julio de 2021]. ISSN: 1665-529X. Disponible
en: https://www.redalyc.org/articul
Mera Campa Ammy Diana, Instituto Tecnológico de Pachuca
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
ANáLISIS Y EVALUACIóN DEL MODELO DE PRODUCTIVIDAD APLICANDO BALANCED SCORECARD AL PROCESO DE RESINACIóN
Avila Sánchez Bryan Alberto, Instituto Tecnológico de Pachuca. Cruz Vargas Ivonne, Instituto Tecnológico de Pachuca. López Hernández Jacqueline, Instituto Tecnológico de Pachuca. Mera Campa Ammy Diana, Instituto Tecnológico de Pachuca. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
UUMBAL Agroforestal, es una empresa dedicada al establecimiento, manejo y aprovechamiento de plantaciones forestales de pino de manera sustentable. Debido a que en la empresa se presenta un desconocimiento de los diferentes indicadores de productividad, eficiencia y económicos dentro de la empresa, se detectan áreas de oportunidad en el área forestal específicamente en el proceso de producción de resina natural de pinos tropicales.
Del antecedente anterior, cabe señalar que debido a la falta de implementación de una metodología balanced scorecard, la empresa carece de un método de trabajo adecuado. Su propósito es medir la eficiencia operativa de la empresa, debido a que se han suscitado riesgos de calidad al no cumplir con las especificaciones de material y del proceso de producción del producto.
Finalmente, se logra evidenciar, que estos problemas en el proceso de operación y producción de la producción de resina, provoca cambios y pausas debido a razones inherentes al proceso.
METODOLOGÍA
La empresa UUMBAL agroforestal cuenta con cuatro fincas; Los pericos, Santa Elena, Chicoapilla y La piedra, de plantación de pino tropical para el proceso de obtención de resina, se analizó que por cada hectárea que poseen las fincas se cuenta con aproximadamente 1100 árboles con una distancia de 3 metros entre cada uno.
A partir de los datos obtenidos se definió que el proceso de producción de resina inicia después de 6 a 7 años de haber plantado el árbol, se procede con el retiro de la corteza hasta encontrar la albura de una de las caras del pino tropical para posteriormente realizar el bigote en donde se coloca la bolsa que capta la resina.
Una vez preparado el árbol se comienza a realizar el proceso de estriado que consiste en realizar una estría cada semana durante 6 u 8 semana, posteriormente se aplica una pasta estimulante en cada estría hasta a completar 7 estrías con un total de 630 gr de resina aproximadamente.
De acuerdo con la información adquirida se elaboró un Balance Scorecard el cual consiste en definir un sistema de gestión que proporciona retroalimentación sobre los procesos comerciales internos y los resultados externos con el fin de mejorar continuamente el desempeño y los resultados estratégicos.
CONCLUSIONES
De acuerdo al análisis y observación que se realizó durante la estancia de verano en el programa Delfín, se lograron adquirir conocimientos teóricos y posteriormente ponerlos en práctica, así como aplicar conceptos relacionados con productividad, eficiencia, a través del desarrollo de un Balance scorecard en el que fue posible identificar las áreas de oportunidad dentro de la empresa y así poder cumplir los objetivos orientados a la misión y visión de la empresa para garantizar una sincronización estratégica dentro de la misma.
Mercado Alvarez Fernando, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Mg. Santiago Murillo Rendon, Universidad Autónoma de Manizales
TRATAMIENTO DE CINOFOBIA MEDIANTE TRATAMIENTO DE EXPOSICIóN A TRAVéS DE UN ENTORNO DE REALIDAD VIRTUAL.
TRATAMIENTO DE CINOFOBIA MEDIANTE TRATAMIENTO DE EXPOSICIóN A TRAVéS DE UN ENTORNO DE REALIDAD VIRTUAL.
Mercado Alvarez Fernando, Tecnológico de Estudios Superiores de Valle de Bravo. Romero Amaro Jesus Ismael, Instituto Politécnico Nacional. Asesor: Mg. Santiago Murillo Rendon, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Una fobia es un miedo incontrolable, irracional y persistente a un objeto, actividad o situación que pueden desatar respuestas extremas, tales como ataques de pánico. Una fobia específica se refiere a un miedo extremo por algo que en circunstancias normales no es dañino y se es diagnosticado cuando esto interfiere en las actividades diarias de una persona.
La fobia a los perros o cinofobia provoca ansiedad en las personas cuando están cerca de ellos, cuando sólo piensan en encontrárselos o al miedo a una respuesta de pánico. Algunos síntomas físicos, cognitivos y conductuales son pánico, aceleramiento del ritmo cardiaco, hiperventilación, temblores, desorientación, sudoración excesiva, tensión muscular, angustia, entre otros. No existe un tratamiento único a base de medicación, sin embargo, existe una terapia cognitivo-conductual llamada desensibilización o de exposición, en la que los pacientes son expuestos de forma repetida, gradual y sistemática a aquello que los aterroriza hasta que su miedo desaparezca o que pueda ser manejado por el paciente.
La terapia de exposición a realidad virtual o ERV, va auxiliada por pantallas binoculares, sonido estéreo y seguimiento del movimiento. Se ha mostrado que la ERV resulta efectiva como tratamiento a fobias específicas como a cucarachas y arañas, al igual que en fobias sociales y agorafobia, según un estudio publicado por la Revista de Psiquiatría y Salud Mental del 2012.
METODOLOGÍA
Se seleccionó software Unity para el desarrollo de un entorno virtual propuesto y para implementar la conectividad con la tarjeta electrónica BITalino, para la elaboración de distintos entornos para distintos niveles de inmersión, así como la adquisición de señales corporales para el monitoreo de la frecuencia cardiaca del usuario, respectivamente.
De primera instancia se familiarizó con la interfaz del software Unity, el uso de prefabs, assets y cámaras en un entorno virtual. Este software emplea el lenguaje C#, para programar videojuegos y entornos virtuales. La primera tarea en desarrollarse fue una propuesta de menú en la que el usuario pueda registrar y seleccionar el nivel de inmersión deseado. Posteriormente se procedió a la creación de distintos entornos virtuales que serán usados en distintos niveles de inmersión de acuerdo con una terapia de exposición normal para cinofobia, que podrá ser desde presentar situaciones que provoquen un recuerdo o evoquen a un perro a la mente del usuario hasta tener un paseo en una ciudad virtual en medio de un parque con diversos perros y diferentes reacciones, así como el poder instanciar nuevos perros en la escena virtual de acuerdo a la respuesta que se vaya a registrar en la frecuencia cardiaca del usuario.
Una vez teniendo distintos niveles de inmersión propuestos, se consiguió la conexión Unity - BITalino (es un kit electrónico para la adquisición de señales biológicas) para la adquisición de la frecuencia cardiaca del usuario y su despliegue en pantalla mediante una interfaz que sea agradable al usuario, de forma que se cuente con las bases necesarias para empezar con el proceso de gamificación de esta ERV tomando en cuenta la teoría del Flow, que señala que para mantener la concentración justa al realizar una tarea dependerá de qué tan inmersa esté una persona y de la tarea que se le presente, pues esta no debe ser altamente complicada, al grado que provoque ansiedad, ni que exija un bajo nivel de habilidad que cause aburrimiento, por lo que se debe tener una relación con el nivel de complicación - nivel de habilidad requerido.
Posteriormente se revisaron los frameworks Octalysis y MDA (Mechanics, Dynamics and Aesthetics) como guía para el proceso gamificación, pues teniendo una dinámica de juego que mantenga la atención y motivación del usuario durante una terapia, en lugar de verlo como algo complicado de realizar. Para esto considerar distintas modalidades de juego que pueden ser empleadas como el sentido de aventura, fantasía y drama, el colocar retos que muestren al usuario su crecimiento y logros, el contacto con la comunidad para compartir avances, recibir retroalimentación y la sensación de empoderamiento para mantener la sensación de curiosidad por continuar con la ERV.
De igual manera, se realizó el registro y ponencia sobre los avances del proyecto en este verano investigativo en el VII Encuentro Internacional de Pasantías de Investigación Delfín 2021, este evento es organizado por el capítulo Colombia Delfín, el cual tuvo lugar los días 22 y 23 de julio 2021 de forma online.
Finalmente se realiza la adaptación de los entornos virtuales construidos en Unity a un visor de realidad virtual Google Cardboard, que presentan una opción accesible y de fácil uso para la implementación de aplicaciones para VR, en las que solo se necesita un teléfono inteligente para poder colocar en el visor para comenzar con una experiencia de terapia de ERV.
CONCLUSIONES
A lo largo de la pasantía de investigación se desarrollaron habilidades prácticas para la elaboración de entornos visuales implementados para realidad virtual que puedan ser implementados en terapias, así como se adquirió conocimiento teórico sobre qué es y cómo tratar la cinofobia, de igual manera el cómo hacer un proceso de gamificación con los frameworks adecuados para que el usuario pueda mantener la motivación y atención de este sin que pueda llegar a sentirse aburrido o presionado.
Mesino Vega Edgar Said, Instituto Tecnológico de Chilpancingo
Asesor:Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
DISEñO DE BASE DE DATOS DE CONOCIMIENTO
DISEñO DE BASE DE DATOS DE CONOCIMIENTO
Maldonado Maldonado Kevin Alejandro, Instituto Tecnológico de Chilpancingo. Mesino Vega Edgar Said, Instituto Tecnológico de Chilpancingo. Asesor: Dr. Juan Antonio Aguilar Rodríguez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La gran diversidad de plantas ornato en el mundo resulta un desafío para poder identificar con exactitud cada una de estas plantas incluso para personas que están entrenadas en el campo de la botánica, debido a la inmensa cantidad de información que se puede obtener de las plantas es imposible para un ser humano poder acceder a esa información de forma inmediata y trabajar con ella.
METODOLOGÍA
nuestro aporte será específicamente para las plantas de Ornato y una particularidad que nos ayudó a encontrar el Agrónomo Ernesto Mesino, fue que nos enfatizó que una de las utilidades que podrían ser de gran ayuda,
Es que pudiéramos agregar un campo de descripción que ayudara a saber los distintos usos que se le puede dar a la planta por ejemplo:
Algunas plantas son de fruto y otras plantas llegan a ser para adorno y se pueden distinguir si es para adornar interiores o exteriores por lo tal describiremos a continuación la forma que se recopilaron las ideas y se estructuro la base de datos.
Primero fuimos desglosando la informacion obtenida por los agrónomos e informacion en internet y nos enfocamos en sacar las identidades entre las cuales están:
Nombre_Planta
Temperatura
Colores
Imagen
Ficha_tecnica
Imagen_ficha
Nombre_Planta: como atributos los campos de nom_comun y nom_cientifico también agregamos el campo de Id_nombre como identificador único.
Temperatura: se decidió crear los campos de Tem_min_temperatura para la temperatura mínima, Tem_max_temperatura para su temperatura máxima de la planta y el respectivo identificador para cada registro el cual nombramos Id_temperatura.
Colores: se decidió colocar los campos color_follaje para el color del tallo y color_flores para el color de la flor o flores, a esta entidad también agregamos su correspondiente identificador llamado id_colores que nos ayudara para cada registro
Luego se trabajó con la entidad imagen la cual será la entidad encargada de almacenar las distintas perspectivas en fotos sobre cada tipo de planta para esto agregamos los siguientes atributos:
Imagen que nos ayudara a almacenar las imágenes este campo será de tipo Blob ya que es el adecuado para almacenar archivos de imágenes.
También se le agrego su respectivo identificador llamado id_imagen
Ficha_tecnica: los campos de ficha tecnica fueron id_ficha de tipo INT, id_nombre_planta de tipo INT, exposicion_de_luminosidad de tipo varchar, id_temperatura de tipo INT, riego_recomendado_varchar, plagas_enfermedades de tipo varchar y por ultimo descripcion de tipo varchar
Imagen_Ficha: sus atributos son: id_ficha de tipo Int, id_imagen de tipo Int, imagen_No_Conocida tipo TINYINT
CONCLUSIONES
En el presente trabajo de investigación mi compañero y yo realizamos de manera eficiente, de acuerdo al planteamiento del problema el cual se presentó ante el docente el cual fue desarrollar un identificador de plantas de ornato con inteligencia artificial y bases de datos de conocimiento, con el cual se a podido adquirir un conocimiento más amplio sobre las áreas de investigación de los temas de plantas de ornato, con el que por investigación propia se recopiló la informacion necesaria para la realización del proyecto, identificador de plantas de ornato, ayudados de dos profesionales en el área de la agronomía para tener informacion más exacta para las bases de datos de conocimientos, que fue la parte en la que mi compañero y yo estuvimos trabajando en el proyecto, logrando así cumplir con los objetivos de desarrollar una estructura que contenga las entidades, atributos y relaciones necesarias para abastecer las necesidades del proyecto de reconocimiento de plantas.
Entre las complicaciones que se tuvieron fue que el tema era nuevo para nosotros y no teníamos el conocimiento adecuado para generar las entidades correspondientes para el proyecto, como también el trabajar a distancia por la situación actual se complico ya que no pudimos contactar a mas personas relacionadas con la materia que nos pudieran aportar mayor información.
Para concluir esta a sido una primera experiencia relacionada con el campo de la investigacion que nos a dado la oportunidad de aprender del trabajo colaborativo de la mano de un profesional en el campo de la investigación, dándonos la pauta de que en un futuro podamos desarrollar en su totalidad este proyecto, así como cualquier otro tema que se pudiera investigar.
Meza Chavez Litzi, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
DETERMINACIóN DE LA EVAPOTRANSPIRACIóN DEL CULTIVO DE RáBANO (RAPHANUS SATIVUS) EN LA REGIóN DE TACáMBARO, MICHOACáN
DETERMINACIóN DE LA EVAPOTRANSPIRACIóN DEL CULTIVO DE RáBANO (RAPHANUS SATIVUS) EN LA REGIóN DE TACáMBARO, MICHOACáN
Meza Chavez Litzi, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Es posible conocer la cantidad de agua que pierde un cultivo por efecto de evapotranspiración.
La evapotranspiración, es un fenómeno que ocurre cuando las plantas pierden agua de sus tejidos por dos fenómenos que actúan en su conjunto: la evaporación y la transpiración (MeteorologíaenRed).
En el mundo, únicamente el 2.5% es agua dulce, de la cual el 69% se encuentra en los polos y en las cumbres de las montañas más altas y se encuentra en un estado sólido, mientas el 30%, se encuentra en la humedad del suelo y en los acuíferos profundos y solo el 1% del agua dulce en el mundo, escurre por las cuencas hidrográficas en forma de arroyos y ríos, que se depositan en lagos, lagunas y en otros cuerpos superficiales de agua y en acuíferos (Maguey, 2018).
El consumo del agua en México, al igual que en la mayor parte del mundo, se divide en uso personal, de industria, y de agricultura. A nivel mundial, se utiliza el 70% para la agricultura, según datos de la ONU. Según la Comisión Nacional del Agua, la agricultura en México utiliza entre 68 y 70% (JUMAPAM).
La evapotranspiración es complicada de medir directamente en campo, por ello no se tiene un dato exacto de la cantidad de agua que se pierde por dicho fenómeno. Sin embargo se puede determinar con la ayuda de mediciones precisas de parámetros ambientales (Intagri).
METODOLOGÍA
La primera actividad que se realizo fue la revisión bibliográfica, para poder obtener la información adecuada y poder seguir con nuestra investigación.
La segunda actividad fue la obtención de los datos meteorológicos como son:
Radiación solar
Temperatura del aire
Humedad del aire
Velocidad del viento
Los cuales obtuvimos de la página NASA POWER, ya que no se contaba con una estación meteorológica, y esta página nos brindaba la información exacta.
La tercera actividad fue la obtención de parámetros atmosféricos:
Presión atmosférica
Calor latente de vaporización
Constante psicrométrica
Que se obtienen a base de formulas o de las tablas adquiridas en la guía de Evapotranspiración del cultivo, que se utilizan en base a la longitud del lugar o a parámetros meteorológicos.
La cuarta actividad fue determinar de la evapotranspiración de referencia (ETo), la cual se calcula mediante el método de FAO Penman-Monteith que ahora se recomienda como el único método estándar. Para esto utilizamos los datos climáticos obtenidos anteriormente, e incluso con este método se puede calcular la ETo sin obtener todos los datos climáticos.
La quinta actividad fue determinarde la evapotranspiración del cultivo
La sexta actividad fue calcular el coeficiente único del cultivo
Y por último fue el cálculo del coeficiente dual del cultivo
CONCLUSIONES
Durante la estancia del verano se adquirieron conocimientos de los parámetros que intervienen en el efecto de la evapotranspiración, estos se calcularon bajo las condiciones climáticas del mes de mayo, puesto que este es el mes del año con mayor temperatura, y que consideramos que se obtiene una mayor evapotranspiración.
Estos son algunos de los parámetros que se investigaron o se calcularon para poder calcular la evapotranspiración:
La velocidad del viento de 1.87 m/s-1 se obtuvo a 10m sobre la superficie
El flujo de calor del suelo es de -0.0413
La humedad relativa de 44.27
La constante sicométrica de 0.08 kPa°C-1
La presión atmosférica 83.36 kPa
Resistencia superficial (total) 55.56 s m-1
Resistencia aerodinámica 171.72 s m-1
Una vez adquirido dicho resultado se espera poder aprovechar mejor el recurso hídrico, además de que nuestra planta se desarrolle en una mejor condición ya que evitaremos el estrés hídrico.
Meza Enciso Jonathan Alejandro, Universidad Tecnológica de Nayarit
Asesor:Mg. Mauricio Andres Vásquez Carbonell, Universidad de la Costa
DISEñO Y DESARROLLO DE UN PROTOTIPO DE APLICACIóN EDUCACIONAL PARA AFIANZAR LOS CONOCIMIENTOS EN INFORMáTICA A ESTUDIANTES UNIVERSITARIOS.
DISEñO Y DESARROLLO DE UN PROTOTIPO DE APLICACIóN EDUCACIONAL PARA AFIANZAR LOS CONOCIMIENTOS EN INFORMáTICA A ESTUDIANTES UNIVERSITARIOS.
Flores Tapia Roberto Carlos, Universidad Tecnológica de Nayarit. Meza Enciso Jonathan Alejandro, Universidad Tecnológica de Nayarit. Asesor: Mg. Mauricio Andres Vásquez Carbonell, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Las aplicaciones educativas están definidas por Hirsh-Pasek et al. (2015) como aquellas en los que los niños son cognitivamente activos y comprometidos, cuando las experiencias de aprendizaje son significativas y socialmente interactivas, y cuando el aprendizaje está guiado por un objetivo específico (p. 5).
Mediante una revisión de la literatura efectuaba en una base de datos científica, se pudo constatar que las TIC han ido permeando los contextos escolares, convirtiéndose en recursos esenciales al interior de las instituciones educativas; a pesar de ello, la integración y apropiación de éstas no ha sido fácil, ya que se ha evidenciado por parte de muchos autores, la falta de la calidad de las apps y de un correcto uso de estas herramientas tecnológicas limitando su potencial. (Papadakis et al., 2018)
Chang, Lai, & Hwang en el 2018, explica que el aprendizaje basado en la investigación, el aprendizaje móvil contextual, las herramientas mentales, el aprendizaje basado en proyectos y la evaluación por pares podrían ser beneficiosos para los alumnos en términos de su pensamiento de orden superior, como la resolución de problemas y el rendimiento del pensamiento crítico por lo tanto es importante la implementación de estas aplicaciones debido a que se ha demostrado que el grupo de usuarios que utiliza los dispositivos móviles están en una edad Típica para los estudiantes universitarios, la cual oscila entre 18 y 29 años, por lo que hay facilidad para el uso de estas, además de conocimiento por parte de los usuarios que serán beneficiados. Esto se confirma con algunos investigadores, como la de Kallissa et al. (2017), la cual demuestra que el teléfono celular continúa siendo el dispositivo electrónico más usado (43%).
Otra problemática encontrada, relacionada con la principal, es la queja de varios autores expresando la falta de una validación de las llamadas aplicaciones educativas, así como la falta de un correcto desarrollo de estas, debido a la ausencia de un grupo de expertos interdisciplinarios (Educadores, expertos en el área a desarrollar la aplicación, diseñadores y desarrolladores, por mencionar algunos) lo cual evita que la aplicación sea 100% beneficiosa de acuerdo al tema que planea abordar.
Vaala, Ly y Levine en el 2015, comentan que la mayoría de las aplicaciones no cumplen con los requisitos educativos estándar para los niños de hoy y de mañana. En la mayoría aplicaciones educativas, el contenido educativo se basa solo en el formato de preguntas de tipo cerrado, como las de opción múltiple preguntas con una sola respuesta posible.
METODOLOGÍA
Inicialmente, se dividió la investigación en dos fases dentro de la primera se encuentra la búsqueda de información, la realización de prototipos y la codificación de la app, la segunda fase corresponde a la implementación de un SGBD (Sistema Gestor de Base de Datos) y la realización de las pruebas correspondiente a la app. De acuerdo a la fase 1 se realizó una búsqueda del estado del arte sobre aplicaciones educativas a fin de conocer las problemáticas relacionadas. Se revisaron diferentes artículos científicos enfocados a aplicaciones educativas para obtener una visión general y como resultado se encontró falencias en las validaciones de estas por ejemplo la falta de acompañamiento por educadores al momento de realizarlas, así como la falta de un correcto proceso de desarrollo.
Posteriormente, se inició el proceso de creación de una app educativa, utilizando para ello una herramienta para la creación de prototipos y bocetos de aplicaciones para dispositivos móviles y páginas web, llamada ninjamock. Se procedió a buscar el logo e iconos con ayuda de freepik para incorporarlos como contenido multimedia que se utilizaran a fin de diseñar la interfaz para luego proceder a codificar la aplicación educativa. Se utilizo el entorno de desarrollo de Visual Studio con la plataforma de código abierto de Xamarin para realizar las interfaces aprovechando que está diseñada para codificar aplicaciones multiplataforma. Iniciando la fase 2 se utilizo un SGDB (Sistema Gestor de Base de Datos) llamado SQLite para poder registrar y guardar la información, durante las pruebas correspondientes.
CONCLUSIONES
Como resultados de avance, se cuenta con la codificación de la aplicación móvil orientada al refuerzo de los conocimientos informáticos en estudiantes de universidad específicamente
en Excel, usando como base el plan de asignatura de la Universidad de la Costa, terminando así la fase 1 de la investigación y procediendo a implementar el SGBD (Sistema Gestor de Base de Datos) dentro de la app.
Meza Gutiérrez Juan José, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
Lizarraga Sarabia Alejandro, Universidad Autónoma de Sinaloa. Meza Gutiérrez Juan José, Benemérita Universidad Autónoma de Puebla. Mora Rubio Alejandro, Universidad Autónoma de Manizales. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La retinopatía diabética como consecuencia de la diabetes, causada por el daño a los vasos sanguíneos en la retina, es una complicación que afecta a los ojos provocando síntomas entre los cuales se encuentran el trastorno de la visión, visión borrosa, dificultad para percibir los colores y en los casos más graves la pérdida de la visión permanente.
Parte del diagnóstico de la retinopatía diabética consiste en el análisis de imágenes de fondo de ojo, donde se observa la retina del paciente en búsqueda de la presencia de lesiones como hemorragias, microaneurismas, exudados duros y blandos. Es por esto que una de las posibles maneras de ayudar a facilitar y agilizar su detección es el hacer uso del aprendizaje profundo, a través de la creación de un modelo que sea capaz de identificar aquellas lesiones relacionadas a la enfermedad. Por lo tanto, durante el verano de investigación Científica se plantea el profundizar en el uso de un framework de segmentación semántica que es un método de traducción imagen a imagen que permite identificar regiones y estructuras en una imagen de entrada. Este tipo de método resuelve problemas de clasificación pixel a pixel, en los cuales las clases están predefinidas. El resultado de la segmentación es clasificado a detalle, y contiene más información acerca de una escena que otros métodos.
METODOLOGÍA
El trabajo realizado consiste en la puesta en marcha del framework DR-Segmentation disponible de manera libre, que cuenta con modelos predefinidos de redes neuronales UNet, HEDNet, y HEDNet+cGAN para la segmentación semántica de cuatro diferentes tipos de lesiones presentes en la Retinopatía Diabética. La base de datos de entrenamiento, las opciones de preprocesamiento de imágenes de muestra, los modelos de redes neuronales y la forma de evaluarlos dentro del framework se comenta a continuación.
Los datos de entrenamiento corresponden a las imágenes y máscaras de segmentación disponibles a través de la base de datos de libre acceso Indian Diabetic Retinopathy Image Dataset (IDRiD), la cual cuenta con un total de 81 imágenes de fondo de ojo con máscaras de segmentación para el disco óptico y las diferentes lesiones (microaneurisma, hemorragia, exudados duros y blandos) según corresponda. Las imágenes se encuentran divididas en un conjunto de entrenamiento con 54 imágenes y un conjunto de evaluación con las imágenes restantes.
Debido a que las imágenes provenientes de IDRiD, tienen diferentes intervalos de iluminación y contraste entre ellas, el DR-Segmentation framework permite al usuario aplicar diferentes tipos de preprocesamiento al conjunto de datos de entrada, que dependiendo de la calidad de las imágenes originales puede mejorar los resultados de segmentación. Los dos tipos de preprocesamiento utilizados durante el experimento fueron el balance de brillo, que consiste en forzar a cada pixel de las imágenes de entrenamiento y evaluación a tener una intensidad de píxel promedio, igual a la intensidad de píxel promedio del conjunto completo de imágenes utilizadas, y en segundo lugar el mejoramiento de contraste, para asegurar que las intensidades de los pixeles cubren un amplio rango de valores, que hacen más evidentes los detalles de la imagen. El mejoramiento de contraste se implementa mediante el procedimiento conocido como CLAHE (Contrast Limited Adaptive Histogram Equalization).
Los tipos de redes neuronales utilizados para realizar la segmentación semántica de las lesiones fueron UNET y HEDNet. Acerca de UNET es importante mencionar que es un modelo ampliamente utilizado para segmentación de imágenes biomédicas, por otro lado, el modelo HEDNet es un modelo de detección de bordes anidados de manera holística basado en redes neuronales convolucionales profundas con un mejor desempeño frente a algoritmos como los de detección de bordes de Canny, en términos de velocidad y exactitud.
Para la evaluación de los modelos se utiliza la métrica DICE, la cual representa un coeficiente de similitud entre dos muestras, para nuestro caso la similitud entre dos máscaras de segmentación, la real provista por la base de datos y la predicción realizada por el modelo.
Con el objetivo de comparar las diferentes arquitecturas y operaciones de preprocesamiento, se realizan los siguientes experimentos:
Modelo U-Net, imágenes sin preprocesamiento (0)
Modelo U-Net, balanceo de brillo (1)
Modelo U-Net, aumento de contraste (2)
Modelo HEDNet, imágenes sin preprocesamiento (0)
Modelo HEDNet, balanceo de brillo (1)
Modelo HEDNet, aumento de contraste (2)
Los anteriores experimentos fueron desarrollados para la lesión de microaneurismas por Alejandro Lizarraga Sarabia, para la lesión de hemorragias por Juan José Meza Gutiérrez, y para la lesión de exudados duros por Alejandro Mora Rubio. La lesión de exudados blandos se excluyó de los experimentos debido a que no todas las imágenes del conjunto de entrenamiento presentan esta lesión.
Los resultados obtenidos al evaluar por medio del coeficiente de DICE cada uno de los modelos se encuentran registrados en la tabla 1.
Tabla 1: https://drive.google.com/drive/folders/1zIUBSoduuiVpjt0kIY7YFBIM81GFKKga?usp=sharing
CONCLUSIONES
En cuanto a los resultados, se puede observar en la tabla 1 que al aplicar la segmentación semántica a las imágenes de fondo de ojo, los mejores resultados se obtienen en la segmentación de microaneurismas con el modelo U-Net aplicando un preprocesamiento de aumento de contraste. En general también se puede ver que en el caso de U-Net los resultados de la evaluación mejoran, si se aplica algún tipo de preprocesamiento al conjunto de imágenes de entrenamiento, mientras que a excepción de los exudados duros en HEDNet el desempeño disminuye al aplicar algún preprocesamiento. Finalmente de acuerdo con la tabla 1, se puede afirmar que durante el ejercicio de segmentación semántica el modelo U-Net es superior en todos los casos.
Meza Villalvazo Angélica Nahomi, Instituto Tecnológico de Colima
Asesor:M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
DISEñO, MODELADO E IMPLEMENTACIóN DE MODELOS DE CAJA BLANCA Y CAJA NEGRA EN LA EVALUACIóN DE CARACTERíSTICAS SENSORIALES DE YOGUR NATURAL
DISEñO, MODELADO E IMPLEMENTACIóN DE MODELOS DE CAJA BLANCA Y CAJA NEGRA EN LA EVALUACIóN DE CARACTERíSTICAS SENSORIALES DE YOGUR NATURAL
Meza Villalvazo Angélica Nahomi, Instituto Tecnológico de Colima. Asesor: M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
El yogur es un derivado lácteo obtenido a partir de la fermentación de bacterias ácido-lácticas de la leche. Este producto alimenticio ha sido asociado en beneficio de la salud humana asociado al sistema digestivo como la prevención de cáncer de colon, reforzamiento de la flora intestinal, neutralización de helicobacter pylori causante de úlceras pépticas y, en caso de no ser tratado puede evolucionar a inflamación de la mucosa estomacal y, en situación extremas cáncer de estómago.
Para elaborar yogur se requiere de cinco elementos principales: leche, leche desnatada en polvo, estabilizante para yogur, edulcorante y cultivos lácticos, de los cuales depende significativamente la calidad del producto final. Al inicio de la preparación se lleva a cabo la estandarización de la materia, donde la leche pasteurizada es mezclada con la leche descremada en polvo (10% de sólidos totales), edulcorante y estabilizante; seguidamente se aplica un tratamiento térmico a 90°C durante 10 min y posteriormente se enfría. La mezcla se inocula con el cultivo (1% p/v) y se incuba a 43°C por 8 horas. Finalmente es refrigerado a una temperatura de 4°C.
Gracias a la facilidad de elaboración, así como facilidad de transporte sin requerir ser transportado en cadena fría se estima que en México se tuvieron ventas de mil 626 millones de dólares; siendo el segundo derivado lácteo más consumido durante el 2020.
Dada la alta demanda de este derivado lácteo y, dejando de lado el sabor del yogur, se ha propuesto incrementar las ventas de este producto a través del diseño de nuevas variedades asociadas al sentido del paladar como: viscosidad, capacidad de retención de agua, textura, estabilidad, parámetros que pueden convencer o no al cliente de seguir adquiriendo el producto.
METODOLOGÍA
La investigación se llevó a cabo en el departamento de Ingeniería Ambiental y Bioquímica del Tecnológico Nacional de México, Campus Colima; México.
El proyecto se dividió en dos vertientes principales: la experimentación, realizada en las instalaciones del Tecnológico Nacional de México, Campus Colima y el análisis estadístico de datos, mediante la implementación de softwares como Microsoft Excel y Minitab 19.
Para el desarrollo del caso de estudio, se partió de la experimentación que permitió la obtención de datos correspondientes a cada análisis realizado (pH, acidez, determinación de sinéresis y densidad), donde, dichos análisis fueron aplicados a las doce muestras diferentes de yogur, las cuales fueron elaboradas con tres diferentes tipos de leche entera, semidescremada y light (3, 2 y 1% de contenido de grasa/v) y distintas proporciones de sacarosa como edulcorante (0, 40, 55 y 70 g/lt).
Se sabe que, los principales factores de procesos asociados con la sinéresis son la rápida acidificación, la alta temperatura de incubación, el excesivo tratamiento térmico, el bajo contenido de sólidos, la muy baja producción de ácidos y uso de renina, por otra parte, la adición de solutos, como las proteínas del lactosuero y la leche en polvo, con el propósito de elevar los sólidos totales, han sido hasta ahora las técnicas más usadas para reducir la sinéresis en el yogur.
Posterior a esto, los datos fueron capturados en una base de datos y registrados en el programa Microsoft Excel. Habiendo realizado el registro de los datos, se llevó a cabo un análisis estadístico, el cual permitió que no se incluyeran datos atípicos en la muestra y validar la fiabilidad de los datos. Finalmente, en el programa Minitab 19, se llevó a cabo la captura de los datos, obteniendo así gráficas de contorno y diagramas de Pareto; los cuales permiten conocer la relación de las variables entre sí y su influencia.
CONCLUSIONES
Una correcta metodología de experimentación fue primordial para llevar a cabo un buen análisis estadístico; debido a esto, las muestras de yogur previamente elaboradas fueron analizadas por triplicado en el laboratorio, dicho procedimiento permitió obtener resultados con una mayor precisión. Partiendo de los datos obtenidos e implementando el programa Microsoft Excel, se prosiguió a la detección de datos atípicos por medio de prueba de hipótesis a dos colas (confiabilidad del 98%), con la cual no se identificaron datos atípicos en la muestra. A continuación, las gráficas de contorno, obtenidas en el programa Minitab 19, permitieron relacionar, la sinéresis del yogur, el tipo de leche (como variables de entrada) y la densidad como variable de salida; el diagrama de contorno obtenido indica que, conforme aumente la cantidad de grasa en leche y la sinéresis, la densidad incrementará. Así mismo, se evaluó la relación de la concentración de azúcar morena (0, 40, 55 y 70 g/lt) respecto al tipo de leche (1, 2 y 3%) y se obtuvo como respuesta la densidad (g/ml); determinado que, al aumentar la concentración de azúcar y la grasa contenida en la leche, se obtiene una mayor densidad en las muestras de yogur elaboradas. Finalmente, el diagrama de Pareto permitió la correlación de la densidad, pH, acidez y sinéresis vs el tipo de leche, en donde se observa que cada uno de los parámetros involucrados, tienen un nivel de significancia en relación con el tipo de leche utilizado.
Como trabajo a futuro se contempla llevar a cabo una comparativa de los resultados obtenidos en este caso de estudio, en el cual se empleó leche de vaca como ingrediente principal, con la elaboración de un yogur a base de bebida de soya y teniendo en cuenta la metodología antes mencionada, de manera que sea posible identificar características sensoriales particulares para cada una de las preparaciones
Millán Galván Laura Franceli, Universidad Autónoma de Sinaloa
Asesor:Mtro. Sabino Martinez Juarez, Benemérita Universidad Autónoma de Puebla
LA IMPORTANCIA DE LA ARTESANIA DEL YOREME. EL CASO DE SAN MIGUEL DE ZAPOTITLÁN, SINALOA, MÉXICO.
LA IMPORTANCIA DE LA ARTESANIA DEL YOREME. EL CASO DE SAN MIGUEL DE ZAPOTITLÁN, SINALOA, MÉXICO.
Millán Galván Laura Franceli, Universidad Autónoma de Sinaloa. Asesor: Mtro. Sabino Martinez Juarez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La propuesta emerge a través del estudio del territorio y sus derivados, en este caso, se especifica en la artesanía, una práctica cultural que desde sus inicios es importante para el desarrollo de la comunidad, así como favoreciendo su estabilidad, la artesanía se sitúa en un papel fundamental porque genera una identidad para la comunidad. Sin embargo, en las últimas décadas al fortalecerse la actividad de globalización, la artesanía ya no se vuelve una practica cultural sino una mercantilización y folclorización, restando el valor a la comunidad.
El estudio se desarrolla en la zona remota en el municipio de Ahome, un ejido llamado San Miguel de Zapotitlán, el cual es un asentamiento reconocido por el pueblo Mayo, en un contexto de reivindicación cultural y como resistencia, se autodenominan Yoreme, tal termino significa “el que se respeta”. Dicha zona significa para ellos su hogar y quieren conservarlo con el paso de las generaciones, sin embargo, en los últimos años se han impulsado políticas que contribuyen la discriminación hacia la comunidad, ha generado marginación, desventaja y una imagen negativa hacia la comunidad.
En algún momento el desplazamiento territorial, provocado por la colonización atribuyó al desprestigio del valor de la comunidad, ya que, bajo un contexto cultural, se le ha señalado de forma despectiva y no se les ha acreditado hasta el día de hoy desde su importancia como sujetos de derecho. Para el pueblo Yoreme, los valores culturales heredados como la artesania es considerado tanto desde su dimensión simbólica como económica, el flujo se genera en ciertas fechas del año por ejemplo la cuaresma, día de muertos, festival del Yoreme, entre otros.
La artesanía como medio de conservación cultural para el pueblo yoreme requiere de un estudio específico. Por ejemplo, existen distintos tipos de máscaras, que puede diferenciarse en su material de fabricación así como el uso que se le dará, la máscara de pascola se usa regularmente en danzas, como también en situaciones de mandas a la iglesia, donde se utilizan a lo que ellos llaman “máscara original”, atribuyendo a sus antepasados pero a su vez haciendo peticiones. Esto clarifica la dimensión simbólica que es muy importante conservar.
METODOLOGÍA
Se plantea utilizar la metodología cualitativa, a trevés del método etnográfico. Se desarrolla a través de dos puntos: primero una investigación documental por medio de lecturas teóricas relacionadas al concepto de territorio, el concepto de pueblos indígenas y el de artesanía. Segundo, se plantea el estudio sobre el caso de la comunidad yoreme donde se engloban temas como la cultura, la artesanía, la religión y la economía. Cabe aclarar que todo el estudio hasta el momento ha sido de manera virtual debido a la contingencia del COVID-19. Se deja pendiente un trabajo de campo cuando las condiciones lo permitan.
Se plantea desarrollar ejes temáticos tales como:
Cambios que se han presentado en cuestiones territoriales.
Problemática discriminatoria con las comunidades indígenas.
Políticas públicas enfocados en convservar la cultura.
La artesanía como cultura.
La artesanía como actividad económica.
Entre otros.
CONCLUSIONES
Lo conceptos teóricos de territorio y pueblo indígena analizados abren cuestiones importantes para visualizar la importancia de las comunidades indígenas, lo que representan para México y lo que aportan para la diversidad regional. Sus características son elementos valiosos desde su combinación de distintas religiones, así como su capacidad de adaptación tras cambios territoriales y como ha sabido desarrollar actividades económicas integrando métodos modernos y tradicionales.
El estudio de los pueblos indígenas, permite reconocer su importancia en la parte norte del país, especialmente en Sinaloa y Sonora, donde hay muy poca investigación y carece de estudios científicos sobre estos temas. Como civiles identificamos solo por titulo su comunidad, sin embargo, carecemos de conocimiento, de hecho, los eventos son escasos, la información de diferentes caracteres es difusa, ni mencionar los problemas sociales que sufren las comunidades.
Reconocemos al pueblo Yoreme que tiene una cosmovisión, prácticas tradicionales, capacidad artesanal, entre otros aspectos culturales que propician a la diversidad cultural regional, sin embargo, es necesario gestionar nuevas políticas culturales que se encargan de proteger esta riqueza. En un marco institucional donde no se simule con las buenas intenciones, o mercantilizar de manera estética y visual, sino apoyar realmente la vida comunitaria y el trabajo comunitario. Aquí interesa trabajar desde la artesanía, porque el pueblo Yoreme ha sabido trabajar desde la cuestión simbólica y es un eje importante para la reivindicación cultural, más allá del aspecto económico, las capacidades deben ser reconocidas desde los derechos más fundamentales.
Finalmente, el tema de los pueblos indígenas se relaciona con los Objetivos de Desarrollo Sostenible Objetivo con metas al 2030, principalmente con el objetivo 10: Reducir la desigualdad en y entre los países. Especialmente en la meta De aquí a 2030, potenciar y promover la inclusión social, económica y política de todas las personas, independientemente de su edad, sexo, discapacidad, raza, etnia, origen, religión o situación económica u otra condición. Y la meta garantizar la igualdad de oportunidades y reducir la desigualdad de resultados, incluso eliminando las leyes, políticas y prácticas discriminatorias y promoviendo legislaciones, políticas y medidas adecuadas a ese respecto. Sin embargo, se requiere de mucho trabajo para visivilizar a los pueblos indígenas a escala local y es por ello que este trabajo de investigación es pertinente.
Millan Uribe Christofer, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN QUERÉTARO, MÉXICO.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN QUERÉTARO, MÉXICO.
González Mena Fabiola, Tecnológico de Estudios Superiores de Jocotitlán. Millan Uribe Christofer, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En 2011 se da a conocer la Cuarta Revolución Industrial en la Feria de Hannover que es la Feria Industrial más grande del mundo, surgiendo un nuevo paradigma económico (Deutschland, 2014). El concepto forma parte de una estrategia de alta tecnología del gobierno alemán que describen la producción industrial en general donde, los elementos del sistema productivo están interconectados entré sí digitalmente. Después de 10 años, a este respecto Taboada y Sámano en Martínez, Álvarez y García (2020) afirman textualmente que:
… a diferencia de lo que en otros países y en distintos grados viene sucediendo - en particular en Alemania desde 2013 (Schroeder, 2017), en México, no hay una estrategia integral para participar y prepararse para los fuertes cambios de índole diversa que derivarán de esta fuerte transformación o revolución.
De acuerdo con el Clúster Industrial de México, durante 2020, las regiones con mayor crecimiento en digitalización de la industria en México fueron:
El corredor del Bajío y Guadalajara.
En el Norte: Monterrey, Tijuana, Ciudad Juárez y Hermosillo.
En el centro el Estado de México
Una de las grandes ventajas que tiene el estado es la vocación manufacturera, lo cual provoca una fuerte demanda por las empresas relacionadas con los componentes y servicios tecnológicos, mismos que se busca desarrollar a nivel local con técnicos e ingenieros especializados y en palabras del titular de la SEDESU, Marco Antonio del Prete Tercero … Hoy Querétaro está siendo la punta de lanza en la famosa revolución 4.0 (Almanza, 2017) La principal debilidad es la falta de recurso humano técnicamente habilitado en industria 4.0, considerando aspectos de teoría, práctica, contexto y normatividad. México es de las 12 economías más importantes del mundo en lo que a la industria manufacturera respecta, por su valor de producción y diversidad, con un sector industrial considerado robusto. Sin embargo, el sector corre el riesgo de rezagarse debido a la carencia de talento calificado y se ubica en el lugar 46 al considerar a los países más preparados para la industria 4.0. En nuestro país apenas 5% de las empresas conocen y aplican la industria 4.0 (Campa, 2019).
METODOLOGÍA
El proyecto de investigación aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) En desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) De acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) del estado de Querétaro, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Por factores de periodos vacacionales la información recolectada por las IES es poca, sin embargo, ya se cuenta con un amplio directorio para encuestas de diferentes IES para retomar en cuanto inicie el ciclo escolar.
De los datos obtenidos por nuestros encuestados podemos ver que para nuestros factores a encuestar; planta docente, estudiantes y estudiantes potenciales, planes de estudio, infraestructura y equipo, mercado laboral, liderazgo y políticas regionales y por último sostenibilidad, reflejan lo siguiente:
Factor Planta Docente: los datos muestran que la percepción sobre las capacidad y el número de profesionistas relacionados a la industria 4.0, incentivos tanto económicos y sociales son suficientes para el estado de Querétaro.
Factores Estudiantes y Estudiantes Potenciales: Para los estudiantes y estudiantes potenciales se muestra un claro interés sobre temas de industria 4.0, por otro lado, se considera un poco de confusión sobre las oportunidades laborales y remuneraciones económicas y oportunidades de desarrollo personal incentiven el interés sobre tópicos de industria 4.0.
Factor Planes de Estudio: se considera que los programas de estudio relacionados con la industria 4.0 son pertinentes a la industria 4.0 y aportan competencias profesionales para la digitalización de procesos, sin embargo, se considera ampliar más el catálogo y actualizar los existentes.
Mercado Laboral: según nuestros encuestados no hay suficientes aspirantes capacitados para la industria relacionada con la industria 4.0 pese a la remuneración del mercado laboral, la posibilidad de crecimiento profesional, igualmente se ve una tendencia que la industria regional ofrece y promueve poco la capacitación en industria 4.0.
Liderazgo y Políticas Públicas Regionales: según nuestros encuestados, no hay suficientes o muy pocas políticas públicas, agendas políticas, agendas académicas o industrial para desarrollar la industria 4.0 en la región.
Factor Sostenibilidad: se cuenta con pocos programas de becas para promover talentos en industria 4.0, sin embargo, se considera que son necesarios a corto y mediano plazo porque favorece el cuidado del medio ambiente, favorece el cuidado de la seguridad y salud ocupacional, ofrece la oportunidad de desarrollar planes de negocio innovadores.
Miranda Albiter Ervyn, Instituto Politécnico Nacional
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
Franco Enríquez Catalina, Universidad Autónoma de Occidente. Miranda Albiter Ervyn, Instituto Politécnico Nacional. Mujica Gómez Valeria, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El proyecto se basa en utilizar las Interfaces Cerebro-Computadora (BCI), para medir las señales electroencefalográficas y así convertirlas en salidas las cuales sean interpretadas en el uso de tecnologías de apoyo para las personas. En el proyecto se utilizan los potenciales evocados visuales en estado estable los cuales son registrados en la zona occipital del cerebro y se presentan mediante estímulos visuales; se le realizará la debida extracción de características y preprocesamiento con el fin de reducir en mayor medida los falsos positivos para prevenir riesgos que estos puedan generarse cuando un paciente hace uso de esta tecnología.
METODOLOGÍA
El modelo funcional está compuesto por un estimulador visual, una etapa de adquisición de biopotenciales, una etapa de procesamiento y por último el generador de comandos que manejará el dispositivo de asistencia al usuario.
Lo primero que se realiza es la adquisición de las señales a partir de la estimulación por medio de diferentes frecuencias; continúa el preprocesamiento de los datos para reducir artefactos, se procede a implementar la extracción de características, se clasifican y por último se efectúa el sistema de control.
CONCLUSIONES
Los registros se dividieron en cinco participantes, en donde nosotros únicamente estamos analizando al participante número dos, nos apoyamos de dos herramientas que son la matriz de confusión y la curva ROC.
Un parámetro para evaluar la eficacia de la prueba en la curva ROC es el área bajo la curva que tomará valores entre 1 (prueba perfecta) y 0,5 (prueba inútil).
En la matriz de confusión se obtienen verdaderos positivos y negativos, y falsos positivos y negativos en donde el mejor clasificador obtuvo 104 verdaderos positivos de 135 trials.
El modelo que tuvo más acierto fue el de regresión logística el cual se trata de un modelo de probabilidad lineal, en el que la probabilidad condicionada es función lineal de los valores de las variables de entrada. Por tanto, obtenemos la probabilidad de que la variable dependiente tenga un valor categórico u otro (0 o 1) debido a que es un clasificador binario.
Finalmente observamos que al realizar las pruebas de clasificadores con cada una de las frecuencias observamos que las primeras (5-7 Hz) y últimas (15-30 Hz) obtuvieron un menor porcentaje de exactitud, y entre 8-12 Hz se obtuvieron porcentajes más altos.
Y que al eliminar los trials con ruido obtenemos menores porcentajes de exactitud en los clasificadores.
De igual manera al analizar los datos obtenidos del estudio de modelos de clasificación, observarmos que las frecuencias de mayor exactitud son aquellas que forman parte de las ondas alfa y beta, relacionadas a actividades cerebrales de concentración y meditación que se relacionan de manera directa con el ensayo experiemental del cual se obtuvieron las bases de datos, de esta manera intuimos que los resultados obtenidos mantienen cierto grado de veracidad respecto a la relación que encontramos entre nuestros resultados y las referencias relacionadas al tema.
Miranda Chavéz Lisandra, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
ESTUDIO DE MERCADO PARA LA IMPLEMENTACIÓN DE ESTACAS A BASE DE PET PARA SU APLICACIÓN EN CULTIVOS DE BERRIES
ESTUDIO DE MERCADO PARA LA IMPLEMENTACIÓN DE ESTACAS A BASE DE PET PARA SU APLICACIÓN EN CULTIVOS DE BERRIES
Miranda Chavéz Lisandra, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
La tercera parte de basura doméstica son envases de PET pues 90 millones de botellas de refrescos y de agua, hechos con este material, son lanzados a la vía pública, carreteras, bosques, playas, ríos y mares. El diputado Germán Ernesto Ralis Cumplido en a año 2009 (Movimiento Ciudadano) relató que el consumo de PET en México asciende a 722 mil toneladas al año. Además, somos el segundo consumidor de envases de PET para refrescos en el mundo y el primero para recipientes de agua embotellada.
El proyecto que se presenta es para ver la viabilidad de sustitución de las estacas de madera por estacas realizadas a base de PET para su implementación en los cultivos de Berries y la obtención de más durabilidad de su funcionamiento en los cultivos trayendo consigo el cuidado del medio ambiente y la reutilización del PET desechado para bajar los niveles de residuos sólidos urbanos, evitando la tala de árboles para la creación de las mismas, siendo dirigido a un segmento de mercado productores de Berries en la zona geografía de Tacámbaro Michoacán.
METODOLOGÍA
Se realizó la indagación necesaria, para posteriormente lanzar la aplicación de encuestas las cuales fueron dirigidas a público objetivo para la recolección de datos y posterior a ello analizar las derivaciones para obtener el resultado de nuestra investigación de mercado.
A continuación, se mostrará algunos movimientos que se realizaron:
Consulta bibliográfica: consultar datos que sirven para identificar y describir a un documento u otro tipo de obra intelectual para ampliar el conocimiento.
Realizar segmentación de público objetivo: Hacer el proceso de personalización de las campañas, el enfoque en lo necesario y la agrupación de consumidores con intereses parecidos para dirigirse de manera rentable a ellos.
Diseño de las preguntas de investigación: Estructurar y/o a formular bien las preguntas y detalles sobre lo que queremos conocer la respuesta.
Aplicación de las encuestas a cliente objetivo: procedimiento dentro de los diseños de una investigación descriptiva para recopila datos mediante el cuestionario previamente diseñado, sin modificar el entorno ni el fenómeno donde se recoge la información de manera de encuestas.
Recolecta de los datos: Una vez obtenida, es necesario organizarla para procesarla de una forma coherente y así emitir conclusiones.
Redactar informe sobre los resultados: Realizar el analisis de los resultados obtenidos acerca del tema y de terminal si se llego a un resulatado desperado.
CONCLUSIONES
Durante la estancia de verano se obtuvo la experiencia de realizar una investigación de mercado la cual me fue de suma importancia para mi conocimiento el estar en esta estancia.
Además de aprender, el cómo se ejecuta un análisis de mercado de manera adecuada para posterior a ello efectuar el estudio de mercado, la cual la dividí en las fases, de indagación de información, aplicación de las encuestas a público objetivo y análisis de resultados del producto para ver la viabilidad de la implementación del producto en los plantíos de berries.
El objetivo de esta investigación es percibir la viabilidad de la implementación de estacas a base PET para la aplicación en cultivos de berries, como resultado de la investigación realizada hasta el momento al 50% de los productores de esta fruta se obtuvo el 75% de viabilidad para la implementación de este producto en sus plantíos, la cual se seguirá trabajando con los productores restantes para llegar al resultado final, esperando llegar a resultados positivos por las estadísticas que llevamos hasta el momento con una posibilidad del 85% al 95% de aprobación, en esta investigación si se cumplió con el objetivo de la misma.
Miranda Moreno María Salomé, Corporación Universitaria del Caribe
Asesor:Mtro. Jesus Rivera Carrasco, Benemérita Universidad Autónoma de Puebla
ESTUDIOS SOBRE PROCESOS CONSTRUCTIVOS DE LA ARQUITECTURA VERNáCULA Y ARQUITECTURA CONTEMPORáNEA EN LA REGIóN CALTEPEC-ZAPOTITLáN SALINAS, PUEBLA, MéXICO.
ESTUDIOS SOBRE PROCESOS CONSTRUCTIVOS DE LA ARQUITECTURA VERNáCULA Y ARQUITECTURA CONTEMPORáNEA EN LA REGIóN CALTEPEC-ZAPOTITLáN SALINAS, PUEBLA, MéXICO.
Miranda Moreno María Salomé, Corporación Universitaria del Caribe. Asesor: Mtro. Jesus Rivera Carrasco, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El hombre como ser cambiante ha visto la necesidad de construir una vivienda que mitigue y cumpla con sus principios básicos. Con esto, se logra establecer unos tipos de arquitectura, como la vernácula y la contemporánea, con los cuales se puede establecer una línea de tiempo que permite ver su trascendencia y el crecimiento geográfico de los tipos de vivienda, logrando que diferentes territorios como Colombia, Perú, Ecuador, Chile y México se apropiaran de los procesos constructivos para viviendas vernáculas y contemporáneas.
Así pues, se escoge especialmente a dos municipios del estado de Puebla en México que son, Caltepec y Zapotitlán Salinas. Estos se caracterizan por la belleza natural de sus montañas y los paisajes que los rodean. Su principal particularidad es la arquitectura del lugar, las técnicas constructivas empleadas y el gran turismo que manejan, gracias a que forman parte de la Reserva de la Biosfera Tehuacán-Cuicatlán. Es por ello que la investigación a realizar parte de la necesidad de responder a la siguiente pregunta, ¿Cómo son los procesos constructivos de la arquitectura vernácula en los municipios de Caltepec - Zapotitlán Salinas, Puebla y cómo impactan estos procesos a la intensificación turística de la región? la cual permitirá establecer el hilo conductor de lo que se quiere investigar.
METODOLOGÍA
La investigación se realizó mediante el método de análisis-síntesis, distribuido en 6 etapas. En la etapa 1, Observar, se realizó una sesión de fotografías de las viviendas vernáculas y contemporáneas, a través de la observación directa en la visita a las juntas auxiliares de Caltepec y Zapotitlán Salinas. Estas fueron condensadas en las Tablas de Clasificación de Viviendas, donde se evidencian las viviendas según su ubicación y el tipo de arquitectura a la que pertenecen.
En la etapa 2, Describir, se determinaron los elementos que hacen parte de ambos tipos de arquitectura mediante una Tabla Comparativa de Conceptos, para así entender cómo funcionan. En la etapa 3, Descomponer, se fraccionó cada tipo de arquitectura para hacer un estudio de partes. Esto se realizó escogiendo 10 viviendas en total, cinco viviendas en Caltepec, una en la cabecera municipal y sus cuatro juntas auxiliares, Acatepec, Santiago Coatepec, San Luis Atolotitlán y Atecoxco; y cinco viviendas en Zapotitlán Salinas, una en la cabecera municipal y sus cuatro juntas auxiliares, Los Reyes Metzontla, San Francisco Xochiltepec, Texcala y Atzumba. Esto se llevó a unas Tablas de Descomposición de Elementos Arquitectónicos para cada municipio, donde se anota el tipo de arquitectura y los materiales que cada una posee. De esta forma, se determina los materiales más usados en la vivienda vernácula, la tierra y la teja de barro, y en la vivienda contemporánea, el bloque de cemento y la pintura, todos usados en la cimentación, muros y marcación de vanos de puertas y ventanas.
La etapa 4, Enumerar, se llevó a cabo por medio de una Tabla de Desarrollo de Ítems, donde se tomó cada tipo de arquitectura, como una variable; se establece la dimensión, la vivienda, y se tienen los indicadores de la dimensión que son, cómo es el proceso constructivo y cómo se relaciona el proceso constructivo con el entorno. Finalmente, se pasa a los ítems o reactivos, los cuales son la descripción en partes de lo que comprende cada indicador. Con la información anterior, se realizó un diagrama de flujo sobre cómo es el proceso constructivo de ambas arquitecturas. Con esto, se consiguió entender mejor el proceso constructivo, los materiales que usan y el resultado que se obtiene.
En la etapa 5, Clasificar, se puede resaltar un ciclo de afectación continua de tres componentes, naturaleza, individuo y vivienda, donde uno contribuye al otro, logrando un crecimiento a nivel ambiental (naturaleza), social (individuo) y arquitectónico (vivienda). Finalmente, en la etapa 6, Concluir, se analizaron una serie de mapas del municipio de Caltepec y Zapotitlán Salinas, donde presentan características singulares. En estos se muestran las localidades e infraestructura de transporte, los diferentes relieves, la variedad del clima, los usos del suelo y la vegetación existente.
Siendo estos dos municipios parte de la Reserva de la Biosfera Tehuacán - Cuicatlán, resulta necesario dejar claro que los resultados obtenidos en cada etapa del método aplicado, van dirigidos al aporte y contribución del ODS 11 y de la Meta 11:4, la cual tiene por objeto redoblar los esfuerzos para proteger y salvaguardar el patrimonio cultural y natural del mundo.
CONCLUSIONES
Del análisis de la teoría encontrada en la bibliografía se puede concluir que los autores definen y recalcan que la arquitectura vernácula es aquella que no requiere de arquitectos, algo totalmente intuitivo y pragmático, que responde a las necesidades del hombre, emplea materiales tradicionales y/o locales. Por otra parte, la arquitectura contemporánea está inclinada a la aplicabilidad de otras técnicas, otros materiales, con fachadas distintas y en donde si hay un arquitecto de por medio.
Por lo tanto, Caltepec y Zapotitlán Salinas se convierten en un simbolismo como pertenecientes a la Reserva de la Biosfera Tehuacán - Cuicatlán, y su dimensión más tangible sería la vivienda, como aquel objeto creado con materiales particulares que guardan una historia. Así, los procesos constructivos y su impacto en una zona de reserva y protección, nos muestra, por un lado, el patrimonio arquitectónico como conjunto de valorización social. La vivienda reúne unas características y/o materiales que le son reconocidos por medio de lo que ofrece, ya sea, confort climático, espacios variados y valores históricos, en medio de un territorio completamente natural. Por otro lado, la importancia de conocer la arquitectura del lugar, vernácula y contemporánea, además de entender lo que ofrece la Reserva y cómo podemos contribuir a la salvaguarda de esta desde la construcción.
Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
Miranda Valdovinos Rosa Nayeli, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Dainet Berman Mendoza, Universidad de Sonora
ANáLISIS DE INFORMACIóN EN EL DESARROLLO DE UN DE SENSOR DE GAS A BASE DE ZNO
ANáLISIS DE INFORMACIóN EN EL DESARROLLO DE UN DE SENSOR DE GAS A BASE DE ZNO
Miranda Valdovinos Rosa Nayeli, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Dainet Berman Mendoza, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Durante los últimos años se ha observado la transformación que ha tenido el planeta debido al incremento de la población, la urbanización, la actividad industrial (que conlleva el desecho de productos químicos y gases tóxicos), la quema de combustibles fósiles para obtener energía, entre otros factores que han causado distintos problemas ambientales en el medio ambiente. La contaminación de los ecosistemas, la deforestación y el calentamiento global son algunos ejemplos de estos problemas. Las consecuencias de estos problemas se reflejan principalmente en la biodiversidad del planeta debido a las alteraciones que se generan en los ecosistemas, las cuales influyen en el desarrollo y comportamiento de los organismos, algunos de los cuales intentan adaptarse como mecanismo de supervivencia, sin embargo, esto también genera el desplazamiento y la extinción de varias especies.
El calentamiento global y el cambio climático son dos fenómenos que se asocian con el aumento de la concentración de los gases de efecto invernadero (GEI) en el planeta, algunos de estos gases existen de manera natural en el planeta en cambio algunos otros son producto de las actividades humanas.
Ante estos problemas ambientales una solución para detectar y controlar los GEI es mediante el sensado de los mismos. Los nanomateriales fabricados a partir de óxidos metálicos semiconductores son una propuesta altamente viable para la construcción de sensores de gas de alto rendimiento.
METODOLOGÍA
El óxido de zinc (ZnO) es un material semiconductor multifuncional debido a sus propiedades físicas y químicas, en los últimos años este material se ha empleado en la construcción de sensores de gas debido a su excelente respuesta de detección de gases el cual está asociada a sus propiedades piezoeléctricas y piroeléctricas, el bajo costo del material, la estabilidad térmica y química y a su fácil fabricación. La respuesta de detección del sensor de gas depende de las dimensiones de las nanoestructuras las cuales pueden ser: películas delgadas, nanoesferas, nanotubos, nanofibras, nanoagujas, entre otras.
La obtención de nanopartículas de óxido de zinc (ZnO) se puede llevar a cabo mediante los siguientes métodos:
Aproximación de arriba hacia abajo (Top - Down): Estas técnicas se pueden utilizar como métodos únicos o combinados para producir películas y/o partículas nanoestructuradas. Ejemplos de estas técnicas son: pulverización catódica por radiofrecuencia, molienda mecánica y deposición por láser de pulso.
Aproximación de abajo hacia arriba (Bottom - Up): Estas técnicas se caracterizan porque utilizan procedimientos químicos para llevar a cabo la síntesis de materiales compuestos nanoestructurados. Ejemplos de estas técnicas son: deposición química de vapor (CVD), síntesis hidrotermal, síntesis solvotermal, electrohilado (electrospinning), electrodeposición, método sol - gel, pirolisis por pulverización de llama.
Durante la estancia de investigación se llevó a cabo el análisis del proyecto de tesis titulado Incorporación de nanopartículas de plata en el semiconductor de ZnO para su aplicación de sensores de gas desarrollada por el Ing. Jesús Víctor López Fernández, el objetivo de la tesis es sintetizar nanopartículas de plata de 20 nm por medio de la técnica de electrolisis (primera etapa) a las cuales se les incorporará óxido de zinc (ZnO) mediante la técnica de CVD (segunda etapa).
La deposición química de vapor (CVD) se refiere al proceso de deposición de películas delgadas y nanoestructuras a través de reacciones químicas de precursores en fase de vapor este método se lleva a cabo en el interior de una cámara de vacío en donde se lleva a cabo la descomposición de uno o varios compuestos volátiles. Se espera que esta técnica permita obtener películas delgadas y nanoestructuras con alta pureza de debido al uso de precursores que, además de tener un alto grado de pureza, en fase vapor también permiten un mejor control de la composición de las nanoestructuras.
Los resultados obtenidos durante la primera etapa en el desarrollo de la tesis se caracterizaron con espectroscopía de absorbancia UV-VIS y microscopía de fuerza atómica (AFM). Los resultados de la segunda etapa se caracterizaron por microscopía de barrido electrónico (SEM) y espectroscopía de fotoelectrones emitidos por rayos - x (XPS). Finalmente, el análisis de los resultados permitió concluir de manera exitosa los objetivos del proyecto de tesis, debido a que se lograron obtener las nanopartículas de plata de 20 nm que se incorporaron al ZnO y se transportaron por el vapor de dicho precursor mediante la técnica de CVD.
CONCLUSIONES
Durante la estancia de investigación se logró cumplir con las actividades del plan de trabajo las cuales permitieron adquirir conocimientos sobre la línea de investigación titulada Nanoelectrónica que se lleva a cabo en el nanoFAB de la universidad de Sonora. Así mismo se reforzaron y adquirieron nuevos conocimientos en el área del desarrollo de sensores de gases mediante nanoestructuras de ZnO, pues el proyecto analizado permitió examinar de manera específica los resultados que se obtienen usando la técnica de CVD para la obtención de nanopartículas de ZnO.
Mojica Romero Wilmer Andrey, Universidad Antonio Nariño
Asesor:Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
SELECCIóN DE UNA POLíTICA DE GESTIóN Y CONTROL DE INVENTARIOS PARA LAS EMPRESAS COMERCIALIZADORAS DE ALIMENTOS EMPAQUETADOS EN BOYACá CON OPTIMIZACIóN-SIMULACIóN
SELECCIóN DE UNA POLíTICA DE GESTIóN Y CONTROL DE INVENTARIOS PARA LAS EMPRESAS COMERCIALIZADORAS DE ALIMENTOS EMPAQUETADOS EN BOYACá CON OPTIMIZACIóN-SIMULACIóN
Mojica Romero Wilmer Andrey, Universidad Antonio Nariño. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, las organizaciones modernas se han dado cuenta de la importancia y criticidad de sus centros de distribución, como una verdadera plataforma logística de ventas, y garantizan el nivel de servicio que pretenden aplicar en su estrategia logística, y ahora están analizando los centros de distribución. Como factor clave de éxito para controlar y reducir los niveles de inventario, este es un costo fijo y financiero real que afectará la baja rentabilidad de su organización, por lo que se requiere una gran inversión para modernizar altamente los puntos de almacenamiento y dotarlos de una mejor base logística como instalaciones, personal calificado y considerarlo como un centro estratégico de operaciones, e implementar de manera efectiva su estrategia logística en el corto y mediano plazo.
Las empresas como los pequeños y medianos negocios hoy en día no cuentan con una logística dentro de su organización más que todo dentro de sus inventarios la mayoría pide a razón de corazonadas o a través de la experiencia, pero muchas de estas ocasiones pueden ser acertadas y en otras pueden causar pérdidas para las mismas, ya que las personas a cargo pueden ser los mismos dueños inexpertos en el control y manejo de los inventarios.
Las grandes empresas tienen la capacidad monetaria de adquirir un programa especializado que les ayuda en la toma, manejo y control de sus inventarios.
Para los pequeños negocios puede ser muy difícil adquirir un sistema que gestione sus inventarios, ya que estos son muy costos y pueden pensar que es más engorroso manejar ese programa y prefieren ser intuitivos.
Variables: X1: Cantidad optima
X2: Tiempo de ordenar.
Y minimizar = Costo producto + Costo de mantener + Costo de colocación.
METODOLOGÍA
1. Definir los objetivos de la optimización
Plantear adecuadamente el PROBLEMA a resolver y seleccionar la variable de respuesta a evaluar
2. Seleccionar los factores que resultan significativos
Son las variables x’s.
3. Establecer la Región de Operabilidad
Considerar las posibilidades instrumentales y la información sobre el sistema
4. Construir el modelo de simulacion.
Desarrollar el modelo de simulación que represente el problema.
5. Seleccionar un Entorno Experimental
Definir la región del espacio de los factores en donde vamos a desarrollar los experimentos de simulación
6. Elaborar un modelo matemático
Graficar la superficie de respuesta y evaluar resultados
Repetir los pasos 4, 5 y 6 si fuera necesario
7. Localizar el óptimo buscado para la respuesta
Utilizar herramientas graficas y/o matemáticas para predecirlo
8.Verificar experimentalmente
Confirmar el valor de al respuesta utilizando los niveles óptimos de los factores
CONCLUSIONES
El enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos.
Durante la estancia virtual de investigación del programa DELFIN XXVI
Verano de la Investigación Científica y Tecnológica del Pacífico, se estudio la metodología de optimización - simulación, y se esbozo su aplicación al problema Selección de una política de gestión y control de inventarios para las empresas comercializadoras de alimentos empaquetados en Boyacá con optimización-simulación, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
Molina Armas Karyme Grisel, Instituto Tecnológico Superior de Uruapan
Asesor:Dra. María de la Luz Sánchez Mundo, Instituto Tecnológico Superior de Las Choapas
DESARROLLO DE HARINA DE PLáTANO MACHO VERDE (MUSA PARADISIACA) Y HARINA DE CASCARA DE PIñA (ANANAS COMOSUS) PARA LA DETERMINACIóN DEL TAMAñO DE PARTíCULA EN LA CALIDAD DE UN PRODUCTO DE PANIFICACIóN
DESARROLLO DE HARINA DE PLáTANO MACHO VERDE (MUSA PARADISIACA) Y HARINA DE CASCARA DE PIñA (ANANAS COMOSUS) PARA LA DETERMINACIóN DEL TAMAñO DE PARTíCULA EN LA CALIDAD DE UN PRODUCTO DE PANIFICACIóN
Molina Armas Karyme Grisel, Instituto Tecnológico Superior de Uruapan. Asesor: Dra. María de la Luz Sánchez Mundo, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
El incremento de la enfermedad Celiaca ha sido señalado e identificado con un incremento de un alrededor del 3% de la población mundial padece de dicha enfermedad poco frecuente, pero en la actualidad es una enfermedad generalizada a nivel mundial. Dicha enfermedad ha sido descrita como una enfermedad que afecta directamente al intestino delgado, esto causando atrofiaciones sobre las vellosidades de la mucosa, esto llegando a causar mala absorción de los nutrientes. Gracias a cifras obtenidas por La Secretaria de Salud, se estima que más del 4.3% de la población padece enfermedad celiaca. Dichos incrementos en diagnósticos de la población con enfermedad celiaca y algunos tipos de alergias, ha originado interés en la expansión e innovación del mercado en productos altos en fibra y bajos en gluten. El panorama que se tiene para la expansión de productos de este tipo es amplio, ya que se tiene la posibilidad de llegar a utilizar algunas otras alternativas poco conocidas como frutas, verduras o incluso subproductos agroindustriales de las mismas.
La mayor problemática que se presenta en el camino de la innovación de productos altos en fibra, es la selección de materia primas y las condiciones adecuadas a las que se deberán someter para poder ser incorporadas en alimentos enfocados en la rama de la panificación y puedan llegar a ser lo más similares y aceptados por el consumidor.
METODOLOGÍA
Las materias primas que fueron utilizadas fue plátano macho verde (Musa paradisiaca) cascara de piña (Ananas comosus), en el caso del plátano macho verde fue adquirido en una verdulería ubicada en el municipio de Uruapan, libramiento Oriente, Fraccionamiento Valle Real; mientras que la cáscara de piña fue proporcionada por una establecimiento de venta de fruta, ubicada en el municipio de Uruapan, calle Juárez. Las materias primas secundarias para la elaboración del producto de panificación fueron adquiridas en la tienda Surti Pan dedicada a la distribución de insumos de panificación y repostería.
Para el acondicionamiento de las materias primas se seleccionaron según sus caracterices, en el caso del plátano macho se tomaron en cuenta las características físicas, lo cual fue seleccionado en estado de maduración número 3 ; se limpiaron y desinfectaron las materias primas (cáscara de piña y plátano macho verde), con el fin de eliminar manchas o partículas extrañas adheridas a la superficie de la cáscara de dicha materia prima; el tratamiento de desinfección consiste en colocar la materia prima en una charola de acero inoxidable con 2 ml de hipoclorito de sodio, el agua utilizada se encontraba a temperatura ambiente; seguido se cambió el agua y se añadió ácido cítrico y se sumergieron las muestras durante 3 min, para posteriormente ser procesadas.
Posteriormente para el proceso de secado por microondas, las materias primas desinfectadas se cortaron en trozos de 5 cm para ser sometidas a un proceso de molienda en una licuadora marca Oster durante 8 min. Al término, la pasta obtenida de cada materia prima se extendió en láminas de hojas de aluminio formando una capa muy delgada, con ayuda de una toalla de papel se retiró el exceso de agua contenida en la pasta, para posteriormente someterlo a un secado mediante un microondas marca Oster con la finalidad de estandarizar las variables de secado. Las muestras secas fueron trituradas en una licuadora Oster y tamizadas en una malla #40 y #60 hasta obtener un tamaño de partícula homogéneo. Las harinas obtenidas fueron colocadas en bolsas plásticas con cierre hermético, debidamente etiquetadas para identificar los dos tipos de harina, y almacenadas a temperatura ambiente para mantener sus propiedades funcionales hasta su uso posterior.
Se realizaron evaluaciones sobre el rendimiento de harina de acuerdo a la materia seca obtenida, también se evaluó la capacidad e hinchamiento de las 6muestras obtenidas incluyendo las harinas de cada materia prima. Una vez obtenidos los productos de panificación en base a una receta del libro de cocina Doña Lupita se realizaron pruebas físicas sobre las 6 muestras. Se realizaron pruebas sensoriales hedónicas a 30 jueces, con el fin de medir los parámetros de olor, color, sabor, textura, apariencia y aceptación general.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las materias primas utilizadas y su aplicación en productos de panificación. Se implementó método de secado por microondas resultando buena alternativa para la obtención de las harinas compuestas de plátano macho verde y cáscara de piña, teniendo un rendimiento del 58-77%. Se obtuvo un producto de panificación con harinas compuestas de frutas y trigo presentando características funcionales por su alto contenido de fibra que aportan las frutas. La muestra F1 correspondiente al tamizado 60 (T#60) con concentraciones de HP 25%, HT 73% y HCP 2%, fue el de mayor grado de aceptación por los catadores, destacando las propiedades sensoriales olor, color, sabor, textura y aceptación general similares a los productos, así como una buena capacidad de hinchamiento (5.02 mL/g).
Molina Courtois Josias Natan, Universidad Autónoma de Chiapas
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
ESTUDIO HIDROLóGICO E HIDRáULICO DE LA CUENCA PAPALOAPAN A TRAVéS DE TéCNICAS ESTADíSTICAS Y DE CONTROL ESTOCáSTICO.
ESTUDIO HIDROLóGICO E HIDRáULICO DE LA CUENCA PAPALOAPAN A TRAVéS DE TéCNICAS ESTADíSTICAS Y DE CONTROL ESTOCáSTICO.
Molina Courtois Josias Natan, Universidad Autónoma de Chiapas. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la prevención y desarrollo de la tecnología para el escurrimiento de las presas hidrológicas, es necesario una amplia y basta cantidad de información estadística procesada de las regiones hidrológicas en las que se encuentran las presas, con el fin de comprender todo el entorno y sus características de precipitación.
Actualmente en México existen más 4 mil 462 presas distribuidas por las 757 cuencas hidrológicas dividas por todo el país, de las cuales la información precisa y especializada para el desarrollo tecnológico de estas, tiende a ser escaza, esto, a pesar de contar con un Sistema Meteorológico Nacional (SMN) por la Comisión Nacional del Agua (CONAGUA), el cual otorga una base de datos en bruto de gran utilidad, pero poco procesada, por lo que es necesario una investigación exhaustiva de las distintas cuencas para su estudio hidrológico completo.
METODOLOGÍA
En principio se escogió la cuenca Papaloapan para su investigación, la cual se delimito geográficamente para su análisis en software computacional. Se descargó las bases de datos proporcionados por el SMN de CONAGUA de las diversas estaciones meteorológicas, añadiéndolas al software.
Se realizó una exhaustiva investigación de la climatología de la región por medio de la Base de Datos Climatológica Nacional (SISTEMA CLICOM), para la compresión de la distribución climatológica.
Para un mayor entendimiento de la región en cuestión, se investigó también el comportamiento de las tormentas y sus caracterices, tales como las zonas de mayor afectación, temporadas de mayor incidencia, máximas precipitaciones, entre otros factores.
Finalmente se escogieron 11 estaciones distribuidas uniformemente por la cuenca, descargando así sus datos acumulados de las precipitaciones máximas en 24 horas; posteriormente se calcularon los coeficientes de variación de cada una. Esto con el fin de realizar la prueba F de Fisher, la cual se usa con el objetico de regionalizar las zonas de variación homogéneas dentro de la cuenca. Para ello se comparan dos estaciones, dividendo el cuadrado del coeficiente mayor entre el cuadrado del coeficiente menor, tabulando así una tabla de comparación de valores F entre las estaciones.
Por ultimo los valores asignados de cada par de estaciones, se comparó con la tabla de valores normalizada de Fisher, definiendo los grados de libertad de cada estación dependiendo de los años activos de está, siendo la de mayor coeficiente de variación, y la de menor coeficiente respectivamente. Proponiendo así una hipótesis de homogeneidad en las variaciones si el (Valor normalizado) >F , y su rechazo si F> (Valor normalizado).
CONCLUSIONES
Se obtuvo una suficiente cantidad de información para un mayor entendimiento entorno a la cuenca, aplicando diversos métodos estadísticos para un análisis a profundidad.
Se observó la distribución de precipitación por la cuenca, resaltando una mayor actividad en las zonas costeras en las temporadas de lluvias y durante las tormentas. Además, aplicando la prueba F de Fisher a las 11 estaciones seleccionadas, se consiguió una regionalización de dos zonas homogéneas, y dentro de estas una división en el grado de homogeneidad. Se espera aumentar la cantidad de estaciones para una mayor precisión en los datos.
Molina Gordillo Miguel Antonio, Instituto Tecnológico de Comitán
Asesor:Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
DISEñO DE UNA POLíTICA DE INVENTARIOS APLICANDO UN ENFOQUE OPTIMIZACIóN - SIMULACIóN PARA DISMINUIR EL BULLWHIP EFFECT (BWE) EN UNA CADENA DE SUMINSTRO
DISEñO DE UNA POLíTICA DE INVENTARIOS APLICANDO UN ENFOQUE OPTIMIZACIóN - SIMULACIóN PARA DISMINUIR EL BULLWHIP EFFECT (BWE) EN UNA CADENA DE SUMINSTRO
Molina Gordillo Miguel Antonio, Instituto Tecnológico de Comitán. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Este estudio tiene como propósito determinar el punto de re-orden (r) y la cantidad a pedir (Q) bajo una revisión continua de inventario de forma tal que se optimice el cumplimiento de la demanda en un 90% en el menor tiempo posible, a razón de que se plantea la existencia de un Bullwhip Effect (BWE, Efecto Látigo) en la demanda de una Cadena de Suministro existe una incertidumbre para cubrirla, si bien la SC consta de varios escalones, el trabajo se enfocará en el escalón distribuidor - mayorista, ya que una vez que se logre determinar el modelo este podrá ser aplicado a los escalones restantes. Para el logro de este objetivo se hace uso de un enfoque de optimización-simulación que integra la metodología de superficies de respuesta y realizando experimentación mediante el simulador Arena. Este documento ofrece una descripción detallada de la metodología y su aplicación en el diseño de una cadena de suministro eficiente para la empresa.
METODOLOGÍA
El enfoque de optimización - simulación puede ser entendido como aquel proceso que permite experimentar con distintas variables de entrada buscando ya sea minimizar los recursos o maximizar la información obtenida al finalizar el proceso. En otras palabras, el enfoque de optimización - simulación se trata de encontrar los mejores valores de entrada dentro de un conjunto amplio de posibilidades.
Para lograr tal finalidad debe apoyarse con el diseño de experimentos, en este caso, por medio del diseño experimental Metodología de Superficies de Respuesta(RSM), la cual es un conjunto de técnicas matemáticas y estadísticas diseñadas para construir un modelo y analizar el comportamiento de una respuesta, por lo que puede ser utilizado para conocer el funcionamiento de un sistema o proceso, encontrar las condiciones óptimas de funcionamiento, lograr mejoras en costo, tiempo, eficiencia, productividad y/o calidad, por lo tanto, como la simulación por sí sola no permite la optimización del sistema, la RSM será la guía que permita encontrar una solución óptima y resolver los problemas bajo incertidumbre, siguiendo los siguientes pasos:
1.Definir los objetivos de la optimización
Plantear adecuadamente el PROBLEMA a resolver y seleccionar la variable de respuesta a evaluar
2.Seleccionar los factores que resultan significativos
Son las variables de decisión, (x1) cantidad a pedir y (x2) punto de re-orden
La variable de respuesta (Y), cubrir demanda en tiempo y forma
3.Elección del diseño experimental con el que se implementará la RSM
Diseño factorial 2k para el modelo de primer orden
Diseño central compuesto para el modelo de segundo orden.
4. Establecer la Región de Operabilidad
Considerar las posibilidades instrumentales y la información sobre el sistema
4.Construir el Modelo de Simulación
Desarrollar el modelo de simulación que represente el problema.
5.Seleccionar un Entorno Experimental
Explorar por medio de los valores iniciales de x1 y x2, utulizando Minitab para verificar si el punto actual es óptimo o no, aplicando el criterio de curvatura
6.Elaborar un modelo matemático
Graficar la superficie de respuesta y evaluar resultados
Repetir los pasos 4, 5 y 6 si fuera necesario
7.Localizar el óptimo buscado para la respuesta
Consiste en comprobar:
Si el nivel de significancia es PV< α=0.05 existe curvatura
En caso de no encontrar una curvatura se debe determinar una dirección y tamaña en los nuevos valores para x1 y x2 mediante el escalamiento ascendente.
8.Verificar experimentalmente
Confirmar el valor de al respuesta utilizando los niveles óptimos de los factores
CONCLUSIONES
El enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos.
Durante la estancia virtual de investigación del programa DELFIN XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, se estudio la metodología de optimización - simulación, y se esbozo su aplicación al problema Diseño de una Política de Inventarios aplicando un enfoque de Optimización - Simulación para disminuir el Bullwhip Effect (BWE) en una cadena de suminstro, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
El Bullwhip Effect (Efecto Látigo) no puede eliminarse por completo, sin embargo, al abordarlo en este documento se buscó determinar los parámetros que permitirán reducir su impacto dentro de una cadena de suministro por medio del diseño de una política de revisión continua de inventarios en donde la demanda era incierta y variable. Mediante la aplicación de la Metodología de Superficies de Respuesta (RSM) se pudo determinar que tanto el tamaño del pedido, como el punto de reorden son factores significativos.
Por otra parte, poder combinar el enfoque de simulación-optimización con la RSM abre un mundo de posibilidades cuando se busca mejorar procesos en distintas áreas de la Ingeniería Industrial, permitiendo obtener resultados aplicables a situaciones reales dentro de la industria. Finalmente, se recomienda a la empresa aplicar los datos obtenidos para minimizar la variabilidad en la demanda y evitar la pérdida de clientes al no poder cubrirla.
Molina Patlan Salvador, Universidad de Guadalajara
Asesor:Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León
LA NUEVA ERA DE LOS MATERIALES HíBRIDOS BASADA EN LA INTEGRACIóN DE SISTEMAS VIVOS Y MATERIALES SINTéTICOS: DISEñO, AVANCES Y APLICACIONES.
LA NUEVA ERA DE LOS MATERIALES HíBRIDOS BASADA EN LA INTEGRACIóN DE SISTEMAS VIVOS Y MATERIALES SINTéTICOS: DISEñO, AVANCES Y APLICACIONES.
Molina Patlan Salvador, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La integración de sistemas biológicos con materiales de soporte orgánicos y/o sintéticos se ha establecido como la base de la innovación en los campos de las ciencias aplicadas y la industria y se ha convertido en un medio que puede aprovechar la versatilidad y la biodegradabilidad de los seres vivos, así como de la matriz que los contiene. Las células son catalizadores eficientes, ecológicos y renovables y su inmovilización en diversas matrices ha mostrado ser una buena forma de llevar a cabo procesos biológicos eficientes y continuos.
Por estos motivos, la presente revisión se centra en el diseño y desarrollo de materiales híbridos, con avances recientes y aplicaciones en campos como bioprocesos, biomedicina, biotecnología, industrias alimentaria y farmacéutica, ingeniería biomédica y textil. Es una colección de informes científicos, haciendo énfasis en el área de biosensores, debido a la afinidad que este subtema tiene con la nanotecnología y los vitamateriales.
Finalmente, se presentan las investigaciones más recientes y relevantes, discutiendo las direcciones futuras de estas ciencias.
METODOLOGÍA
A partir de una breve exposición sobre las líneas de investigación en el Nano-biotechnology Research Group, seleccioné la línea de interés (vitamateriales) para una explicación más detallada acerca del mismo.
Colaboré en el desarrollo de un apartado de un artículo científico de revisión para ver la importancia de éste como una forma de comunicación científica. Elegí el tema del apartado a desarollar (biosensores) de acuerdo con un outline del apartado de aplicaciones de materiales híbridos basados en sistemas de vida y materiales sintéticos en las ciencias aplicadas para después empezar con la búsqueda de información sobre el apartado del artículo.
A la par de la estancia, tomé un breve curso de 2 semanas para la correcta elaboración de un artículo científico, donde se abordaron los siguientes temas:
Importancia de generar artículos de investigación como parte de la comunicación científica.
Tipos de artículos científicos.
Bases de datos para búsqueda y descarga de artículos científicos diferentes a las páginas web de las editoras.
Indexado de revistas científicas y de divulgación científica en México.
Indexado de revistas científicas.
Plataformas de revistas científicas indexadas (Web of Science, PubMed, Redalyc, Latindex, Scopus, Scimago, Medline).
Editoriales de revistas científicas (ELSEVIER, WILEY, TAYLOR & FRANCIS, SPRINGER, FRONTIERS, SAGE, AMERICAN CHEMICAL SOCIETY, OXFORD, THE ROYAL SOCIETY, AMERICAN ASSOCIATION FOR THE ADVANCEMENT OF SCIENCES).
Scope, Factor de impacto, grado de inmediatez, cuartil.
Editor en jefe y equipo de editores.
Guía de Autor.
Métodos de cómo referenciar (citar) en artículos científicos y de divulgación científica (APA, Chicago, Harvard, MLA).
Plataformas para hacer citas o referencias.
Esto con el fin de poder trabajar mejor con la parte de redacción del artículo de revisión, después de una búsqueda del tema y su análisis previo, siguiendo la guía del autor para no limitarse en las referencias utilizadas.
Después de discriminar la información, me centré en la redacción de lo que realmente es un biosensor, las partes en las que se divide el mismo y su clasificación acorde al elemento biológico utilizado junto con su transductor. Hay que mencionar que se le dio énfasis en las áreas donde está presente nanopartículas de oro para la creación de biosensores plasmónicos.
CONCLUSIONES
Durante la estancia del verano se logró obtener conocimientos más a detalle acerca de los distintos tipos de biosensores y su importancia en el área médica, procesado de alimentos, procesos de fermentación e ingeniería metabólica. A pesar de las dificultades presentes por el corto periodo de tiempo, se espera seguir trabajando para concluir con el artículo dentro de este mismo año. Pude adquirir los conocimientos básicos para elaborar un artículo científico, además de herramientas para la revisión gramatical en inglés y de bases de datos para la búsqueda de artículos científicos diferentes a las páginas web de las editoras. Estos conocimientos adquiridos durante la estancia serán de gran ayuda para mi carrera profesional por lo que espero seguir en contacto con los profesores e investigadores presentes en el Nano- biotechnology Research Group.
Moncada Gaspar Irene Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano
PROPUESTA PARA LA GESTIóN DE LA CALIDAD EN LA CADENA DE SUMINISTRO DEL AGUACATE HASS EN MICHOACáN, MéXICO.
PROPUESTA PARA LA GESTIóN DE LA CALIDAD EN LA CADENA DE SUMINISTRO DEL AGUACATE HASS EN MICHOACáN, MéXICO.
Moncada Gaspar Irene Guadalupe, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano
PLANTEAMIENTO DEL PROBLEMA
El estado de Michoacán, México, es líder en la exportación de aguacate Hass, sin embargo, de acuerdo a información recopilada de las bases de datos, se encontró, que en los cultivos de esta fruta se presentan las siguientes problemáticas como: el mal manejo de podas, riegos deficientes, daños por plagas y la poca organización y comercialización de este producto.
Derivado a esto, el estado de Michoacán, México se ha visto a pagar un costo muy alto por sus cultivos, y en la comercialización de este, a causa las complicaciones que presenta, sin embargo, el cultivo del aguacate es el principal ingreso a la economía a las familias michoacanas, ya que el 85% de esta fruta es exportada a Estados Unidos, generando preocupación a los agricultores debido en la situación en la que se encuentran de que el producto sea rechazado y por ende se ha perjudicada su economía.
Por lo que durante el verano de investigación se analizan los factores críticos y variables de la gestión de la calidad en la cadena de suministros, para la integración de estos, en la cadena de suministros del aguacate Hass en este estado, generando propuestas para posible solución de las problemáticas con anterioridad planteadas.
METODOLOGÍA
La metodología de esta investigación fue la siguiente:
Se realizó una revisión bibliográfica de la información ya existente del tema Gestión de calidad en la cadena de suministros (SCQM), buscando respuestas las siguientes preguntas:
1. ¿Qué es la gestión de la calidad en cadena de suministro (SCQM)?
2. ¿Cuáles son los factores y variables representativas de la gestión de la calidad y cadena de suministros (SCQM)?
3. ¿Cómo se analiza la integración e implementación de la gestión de la calidad en la cadena de suministros (SCQM)?
Posteriormente se realizó lo siguiente:
Se selecciono el tema abordar en este caso fue la cadena de suministro del aguacate Hass en Michoacán, México.
Se realizo una revisión de este tema en las bases de datos.
Se delimito el tema para la investigación.
Se realizo el planteamiento del problema de investigación, de acuerdo a las problemáticas vistas en este agroindustrial.
Posteriormente se efectúo una propuesta de desempeño tomando en cuenta los factores críticos y variables de la gestión de la calidad de la cadena de suministro, derivado a las problemáticas que se encontraron en el estado de Michoacán, México, para diseñar, como propuesta, un plan de acción y mejorar la calidad de la fruta, la organización y la comercialización.
CONCLUSIONES
Mediante esta investigación al integrar los factores críticos y variables de la gestión de la calidad en la cadena de suministros , en el sector productor de aguacate en el estado de Michoacán, México. Como factores críticos: Comunicación, Colaboración, Liderazgo, Estrategias, Prácticas de calidad, Gestión de procesos, Gestión de proveedores, en cuanto a las variables: Alta dirección y liderazgo, Integración y gestión de procesos, Actividades de comunicación y asociación, Estrategias SCM, Mejores prácticas TQM. Cada uno estos elementos, deben ser correctamente integrados, por lo que generarían una serie de beneficios que ayudarían a: instaurar nuevos canales de comunicación, contar con una coordinación adecuada, evitar pérdidas innecesarias, obtener una buena comercialización en el extranjero ,mitigar las problemáticas que afecta la calidad del producto desde la fase primaria, siendo la primordial en atender, llevando a cabo las buenas prácticas agrícolas, para la reducción de costos, obteniendo una producción de calidad del aguacate Hass, satisfaciendo los requerimientos del cliente final e incrementado la venta de este fruto, siendo la principal fuente de ingresos a la economía a las familias michoacanas.
Montenegro Huerta Ana Paula, Universidad de Guadalajara
Asesor:Mg. Rolando Arturo Cubillos González, Universidad Católica de Colombia
ANáLISIS DE PROTOTIPO DE VIVIENDA SOCIAL PARA EL MUNICIPIO DE GUADALAJARA
ANáLISIS DE PROTOTIPO DE VIVIENDA SOCIAL PARA EL MUNICIPIO DE GUADALAJARA
Haro Guttierrez Adriana, Universidad de Guadalajara. Montenegro Huerta Ana Paula, Universidad de Guadalajara. Asesor: Mg. Rolando Arturo Cubillos González, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El crecimiento urbano en Latinoamérica implica un aumento en el cambio climático (Jordán, Riffo, & Prado, 2017). Efectivamente, el crecimiento poblacional de la región de América Latina implica una alta demanda de vivienda social. Por tanto, responder a la necesidad de una vivienda social resiliente es de vital importancia para enfrentar el cambio climático en Latinoamérica.
Además:
Un mal diseño de la edificación, ocasiona que no se responda a las condiciones ambientales y de disponibilidad de recursos que demandan las construcciones
(Cubillos-González & Rodríguez-Álvarez, 2013).
Entonces se hace necesario proponer el diseño de viviendas sociales que permita respuestas de resiliencia frente al cambio climático e implemente estrategias sostenibles a las necesidades de las ciudades latinoamericanas.
En este sentido, uno de los caso de interés es la ciudad de Guadalajara. Ya que en los últimos años, la ciudad a desarrollado un gran interés por mitigar los efectos del cambio climático en la ciudad.
Ya que, según el ayuntamiento de guadalajara (2017) el sector residencial de la ciudad es uno de los emisores principales de Gases efecto Invernadero (GEI).
METODOLOGÍA
La metodología está compuesta de dos fases. A continuación se explican las mismas:
1.Identificación de tipología de vivienda social
Esta fase tiene dos actividades que permiten el análisis de la información obtenida a partir de las fuentes que componen el marco teórico.
1.1.Selección de casos de estudio.
A partir de la revisión literaria se identificaron fuentes primarias del Laboratorio de Vivienda Infonavit (México).
1.2 Análisis de casos de estudio.
Se identificó que este laboratorio tiene 32 prototipos de los cuales se seleccionaron 5 de ellos por sus características arquitectónicas. Luego, se realizó un análisis tipológico de estos 5 casos identificando sus ventajas y desventajas.
2. Diseño de prototipos de vivienda social.
A partir del análisis tipológico de los casos de estudio se desarrollaron nuevos prototipos de vivienda social.
2.1 Definición de alternativas de diseño.
Dentro del diseño se propusieron varias alternativas de las cuales se eligieron las más adecuadas al contexto de Guadalajara, Jalisco.
2.2 Propuesta final de prototipo básico
Una vez elegida la alternativa más adecuada, se desarrolló una propuesta básica de prototipo de vivienda social que cumplía con los objetivos propuestos por el trabajo de investigación.
CONCLUSIONES
El diseño de vivienda social requiere de adicionar el análisis del ciclo de vida del usuario para mejorar la calidad de la vivienda.
Un factor importante a la hora de diseñar vivienda social es satisfacer la necesidad de flexibilidad del usuario.
La definición de las circulaciones en el diseño de la vivienda social mejora las relaciones espaciales de las mismas.
El diseño de vivienda social debe incluir espacios de almacenamiento dentro de la misma para que mejore la calidad del habitar.
El análisis de la iluminación natural es de vital importancia para el diseño de prototipos de vivienda social.
Montiel Torres Kevin Yair, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
Hernández Escobar María Concepción, Instituto Tecnológico Superior de Guanajuato. Martínez Guido David Tadeo, Instituto Tecnológico Superior de Guanajuato. Montiel Torres Kevin Yair, Instituto Tecnológico Superior de Guanajuato. Ortiz Gonzalez Roberto Bernardo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
El avance de los países desarrollados se ha basado en el consumo masivo de los combustibles fósiles. Para los países en vías de desarrollo, las necesidades energéticas son aún más vitales si pretenden equipararse con países que disponen de unas infraestructuras y niveles de industrialización ya consolidados.
Los graves efectos medioambientales en el clima regional y global provocados por el actual sistema energético están haciendo que la sociedad esté tomando conciencia acerca de la necesidad de considerar cambios en dicho sistema.
Estos cambios se dirigen hacia el desarrollo de sistemas más eficientes, hacia el fomento de una cultura de consumo más razonable, a la implantación de tecnologías energéticas que utilicen fuentes de energías renovables, etc., con el fin de lograr un modelo energético sostenible.
Esto, unido a la importancia de la energía solar como fuente de energía renovable, hace que las centrales termosolares, como sistemas generadores de energía eléctrica, adquieran gran relevancia de cara a asegurar las necesidades energéticas de una sociedad respetuosa con el medio ambiente
En México sólo existe un campo termosolar en funcionamiento. Realizada por Abengoa, la central Agua Prieta se encuentra en el estado de Sonora, próxima a la frontera con Estados Unidos. Este proyecto, licitado por la Comisión Federal de Electricidad, contó con el apoyo financiero del Banco Mundial y se integra a su vez en un ciclo combinado, formando una central híbrida o ISCC (Integrated Solar Combined Cycle).
METODOLOGÍA
La presente investigación busca impulsar el uso de la energía solar para procesos de calentamiento de agua a media y alta temperatura dentro del estado de Guanajuato y ser parte del crecimiento sustentable del país, con tecnologías apropiadas para cada aplicación, técnica y económicamente sean factibles por su operatividad y rentabilidad económica, para ir supliendo de manera parcial o total a la tecnología convencional existente.
Alcances y limitantes
Si bien la energía contamina, no es esto lo que realmente causa las grandes emisiones de carbono, si no la manera en que se obtiene la misma. Es por esto, que cada vez es más grande el esfuerzo por que las energías renovables representen un gran volumen del consumo de energía en el país.
Aunque no es la única energía renovable obtenida del sol, si es de las más importantes, seguida por la energía fotovoltaica y la solar pasiva.
La energía termo solar, es una de las energías renovables más importantes de México, puesto que aporta un 45% en cuanto a capacidad instalada para la obtención de energía en el país.
El uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar hasta un 50% en consumo eléctrico de fuentes no renovables.
La energía termo solar puede obtenerse de tres formas, mediante una central de torre, central de disco parabólico y una central de cilindro parabólico
Por otra parte, algunas limitantes de esta tecnología, lo es el tiempo de instalación de una central termo solar, ya que puede llevar algunos meses, además de requerir un lugar extenso para su instalación y con terrenos firmes. Añadido a esto, un factor limitante no muy importante es el cambio climático de la zona.
A continuación, se muestra cada una de las fases a realizar dentro de la investigación.
Primeramente, investigamos los procesos de calentamiento de fluidos mediante sistemas solares de media y alta temperatura se distinguen tres tipos de centrales termosolares atendiendo a las características del campo solar, es decir, al sistema utilizado para convertir la radiación solar en energía térmica.
Como segundo paso elaboramos las ventajas y desventajas que conlleva implementar la energía termosolar como se muestra a continuación.
Una vez analizado los pros y contras de la energía termosolar así como los diferentes tipos (Centrales de Colectores Cilindro Parabólicos CCP, Centrales de receptor central o torre y Centrales de disco parabólico) llegamos a la conclusión de que nuestra mejor opción es la elaboración de un prototipado de CCP.
Derivado de los pasos anteriores elaboramos el diseño de nuestra Central de Colector Cilíndrica Parabólica (CCP) mediante el programa de diseño asistido por computadora SolidWorks como se puede observar en la imagen 1.
Para continuar con el proceso de análisis, se llevó a cabo un análisis AMEF, del proceso y diseño de nuestro sistema, para evaluar de manera más practica los posibles errores o fallas que pudiese tener. Dichos AMEF´S se muestran en la tabla 1 AMEF de Diseño y en la tabla 2 AMEF de Proceso.
CONCLUSIONES
Este sistema de energía termo Solar tiene un gran aprovechamiento del recurso natural que es el sol ya que el sistema de movimiento que tiene hace que el reflector parabólico capte desde los primeros rayos de sol hasta los últimos, el uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar en consumo eléctrico de fuentes no renovables.
Montoya Vásquez Susana, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
MóDULO DE ELASTICIDAD ESTáTICO EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL DEL áRIDO POR PET Y SUSTITUCIóN PARCIAL DE CEMENTO POR CENIZA DE BAGAZO DE CAñA
MóDULO DE ELASTICIDAD ESTáTICO EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL DEL áRIDO POR PET Y SUSTITUCIóN PARCIAL DE CEMENTO POR CENIZA DE BAGAZO DE CAñA
Montoya Vásquez Susana, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Es evidente los avances que actualmente se desarrollan en cuanto a infraestructura, dentro de estos procesos están el estudio de materiales, donde muchos de ellos son protagonistas de la producción del CO2 y por ende un aporte significativo en la destrucción de la capa de ozono, menciona Cabrera (2011) esto en cuento a la producción del cemento Portland. Por otro lado, Según Serrano (2001) la producción de resina para botellas gaseosa tenía un incremento de 11,3% anual en 1999; mientras que la tasa de aumento en el reciclaje de las mismas botellas de PET llegaba a 10,5%. Dándose, ese mismo año, el uso de la resina para hacer botellas de agua se estaba incrementando a más del 30%. Siendo notorio el poco tratamiento que resulta nefasto para la cantidad de residuos generados.
De igual manera se habla del bagazo de caña de azúcar como este elemento utilizado en las calderas industriales, generando un material muy parecido al residuo del carbón o una ceniza volcánica (Vidal 2014) , siendo así considerado como un material con carácter puzolánico por algunos investigadores
De esta manera surge la idea de generar combinaciones a los morteros con base de cemento, generando adición de Pet y sustitución ceniza de bagazo de caña, logrando con esto que la mezcla presente una reducción de cemento con respecto al agua y a la arena, obteniendo garantizar mejoramiento de las propiedades físicas y mecánicas del mortero, verificando que los procesos sean de calidad y cumplan con las normativas mexicanas ONNCCE, que direcciona y estipula los porcentajes de fluidez y de resistencia según cada espécimen.
METODOLOGÍA
Esta investigación está desarrollada en cuatro fases, como objetivo se propone analizar y comparar la resistencia de los especímenes de mortero con adición de PET y sustitución de ceniza de bagazo de caña, a edades diversas de análisis.
Fase 1: Calidad del material
Iniciamos con el cuarte y selección del material para garantizar la obtención de la muestra significativa y de tamaño adecuado, para la prueba obtenida en el banco de materiales. Se realiza el análisis de granulometría, donde pasamos la muestra significativa por una serie de mallas o tamices, para conocer la distribución de los diámetros de las partículas y el módulo de finura, determinándose así el módulo de absorbión. A partir de la arena saturada se calcula el volumen de las partículas de arena. Y con estos porcentajes realizamos las pruebas de fluidez, estableciendo la relación de agua, estableciendo la relación de agua cemento según la combinación a realizar para lograr que el mortero sea más manejable plástico y dúctil.
Fase 2: Colado de especímenes
Se elaboraron 4 morteros este año, se estableció la relación agua cemento (a/c) de 800 ml de agua por1 kl de cemento portland y 2.750 de arena, en la combinación con Pet se realizó una adición de 10%, en la de ceniza se sustituye un 10% y en la ultima mezcla de PET y CBC se hace la adición de 10% y sustitución del 10% respectivamente.
Se rellena en dos capas, la primera capa hasta la mitad del recipiente, se deben generar 25 pisones con una varilla, en espiral de adentro hasta afuera o de afuera hacia adentro, posterior a esto se le generan 4 vibraciones en una superficie plana, cubriendo la parte de arriba para que no se salga su contenido. Este mismo proceso lo realizamos con la segunda capa. Por ultimo, enrazamos con ayuda de una espátula.
Fase 3: Pruebas no destructivas
Pasados los 7 días iniciales del curado, se extraen del curado las pruebas saturadas se toman los pesos en una balanza digital, paralelo a esto se realiza la prueba de resistividad eléctrica. Se tomaron las dimensiones de las áreas de las caras de contacto que nos ayuda a establecer las variaciones y las fórmulas para realizar las pruebas de resistencia de cada mortero.
Fase4: Pruebas destructivas, módulos de elasticidad estática
Para esta prueba se programaron 2 cilindros a cada edad, en ambas etapas. Se realiza el siguiente procedimiento:
Se determinaron las dimensiones del cilindro, altura y diámetro.
Se trona los primeros cilindros de cada mezcla en la máquina universal para conocer su carga máxima en resistencia
Se montan los anillos en el cilindro y se le aplica una precarga del 10%, si el micrómetro vuelve a cero después de retirada la precarga, quiere decir que los anillos están en la posición adecuada.
Se empieza a aplicar la velocidad constante hasta el 60% de la carga de falla.
Se registraron las deformaciones y la carga correspondiente.
Se determinó el Módulo de Elasticidad Estático aplicando la ecuación 30.
CONCLUSIONES
Encontramos en el día 14 que la mezcla con PET y PET con CBC poseen mayores propiedades físicas, siendo las pruebas con la mayor volumetría y las pruebas restantes reduciendo sus dimensiones. Por otra parte, los puntos seleccionados para la prueba de módulo de elasticidad se tomaron de los extremos de la línea constante en la gráfica con relación al esfuerzo y deformación unitaria, hallando que el resultado más eficiente es el de CBC (Ceniza de bagazo de caña) + PET (polietilentereftalato) donde presenta menores deformaciones a mayor carga y soportando también mayor carga de falla al ser tronada. Se analizará en la siguiente muestra si el curado al doble de días (día 28) aporta a las propiedades físicas y mecánicas del concreto.
Al día 28 se observaron unos incrementos en las mezclas de Testigo y PET, incrementando en su valor de Módulos de Elasticidad en un 60%, mientras que la mezcla de CBC y PET + CBC disminuyeron en un porcentaje de 9% y 34 % respectivamente, reflejando así que al doble de días de curado, las mezclas demuestran menores deformaciones en la misma cantidad de esfuerzo.
Mora Rubio Alejandro, Universidad Autónoma de Manizales
Asesor:Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
SEGMENTACIóN SEMáNTICA DE IMáGENES DE FONDO DE OJO USANDO APRENDIZAJE PROFUNDO
Lizarraga Sarabia Alejandro, Universidad Autónoma de Sinaloa. Meza Gutiérrez Juan José, Benemérita Universidad Autónoma de Puebla. Mora Rubio Alejandro, Universidad Autónoma de Manizales. Asesor: Dr. Leopoldo Altamirano Robles, Instituto Nacional de Astrofísica, Óptica y Electrónica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La retinopatía diabética como consecuencia de la diabetes, causada por el daño a los vasos sanguíneos en la retina, es una complicación que afecta a los ojos provocando síntomas entre los cuales se encuentran el trastorno de la visión, visión borrosa, dificultad para percibir los colores y en los casos más graves la pérdida de la visión permanente.
Parte del diagnóstico de la retinopatía diabética consiste en el análisis de imágenes de fondo de ojo, donde se observa la retina del paciente en búsqueda de la presencia de lesiones como hemorragias, microaneurismas, exudados duros y blandos. Es por esto que una de las posibles maneras de ayudar a facilitar y agilizar su detección es el hacer uso del aprendizaje profundo, a través de la creación de un modelo que sea capaz de identificar aquellas lesiones relacionadas a la enfermedad. Por lo tanto, durante el verano de investigación Científica se plantea el profundizar en el uso de un framework de segmentación semántica que es un método de traducción imagen a imagen que permite identificar regiones y estructuras en una imagen de entrada. Este tipo de método resuelve problemas de clasificación pixel a pixel, en los cuales las clases están predefinidas. El resultado de la segmentación es clasificado a detalle, y contiene más información acerca de una escena que otros métodos.
METODOLOGÍA
El trabajo realizado consiste en la puesta en marcha del framework DR-Segmentation disponible de manera libre, que cuenta con modelos predefinidos de redes neuronales UNet, HEDNet, y HEDNet+cGAN para la segmentación semántica de cuatro diferentes tipos de lesiones presentes en la Retinopatía Diabética. La base de datos de entrenamiento, las opciones de preprocesamiento de imágenes de muestra, los modelos de redes neuronales y la forma de evaluarlos dentro del framework se comenta a continuación.
Los datos de entrenamiento corresponden a las imágenes y máscaras de segmentación disponibles a través de la base de datos de libre acceso Indian Diabetic Retinopathy Image Dataset (IDRiD), la cual cuenta con un total de 81 imágenes de fondo de ojo con máscaras de segmentación para el disco óptico y las diferentes lesiones (microaneurisma, hemorragia, exudados duros y blandos) según corresponda. Las imágenes se encuentran divididas en un conjunto de entrenamiento con 54 imágenes y un conjunto de evaluación con las imágenes restantes.
Debido a que las imágenes provenientes de IDRiD, tienen diferentes intervalos de iluminación y contraste entre ellas, el DR-Segmentation framework permite al usuario aplicar diferentes tipos de preprocesamiento al conjunto de datos de entrada, que dependiendo de la calidad de las imágenes originales puede mejorar los resultados de segmentación. Los dos tipos de preprocesamiento utilizados durante el experimento fueron el balance de brillo, que consiste en forzar a cada pixel de las imágenes de entrenamiento y evaluación a tener una intensidad de píxel promedio, igual a la intensidad de píxel promedio del conjunto completo de imágenes utilizadas, y en segundo lugar el mejoramiento de contraste, para asegurar que las intensidades de los pixeles cubren un amplio rango de valores, que hacen más evidentes los detalles de la imagen. El mejoramiento de contraste se implementa mediante el procedimiento conocido como CLAHE (Contrast Limited Adaptive Histogram Equalization).
Los tipos de redes neuronales utilizados para realizar la segmentación semántica de las lesiones fueron UNET y HEDNet. Acerca de UNET es importante mencionar que es un modelo ampliamente utilizado para segmentación de imágenes biomédicas, por otro lado, el modelo HEDNet es un modelo de detección de bordes anidados de manera holística basado en redes neuronales convolucionales profundas con un mejor desempeño frente a algoritmos como los de detección de bordes de Canny, en términos de velocidad y exactitud.
Para la evaluación de los modelos se utiliza la métrica DICE, la cual representa un coeficiente de similitud entre dos muestras, para nuestro caso la similitud entre dos máscaras de segmentación, la real provista por la base de datos y la predicción realizada por el modelo.
Con el objetivo de comparar las diferentes arquitecturas y operaciones de preprocesamiento, se realizan los siguientes experimentos:
Modelo U-Net, imágenes sin preprocesamiento (0)
Modelo U-Net, balanceo de brillo (1)
Modelo U-Net, aumento de contraste (2)
Modelo HEDNet, imágenes sin preprocesamiento (0)
Modelo HEDNet, balanceo de brillo (1)
Modelo HEDNet, aumento de contraste (2)
Los anteriores experimentos fueron desarrollados para la lesión de microaneurismas por Alejandro Lizarraga Sarabia, para la lesión de hemorragias por Juan José Meza Gutiérrez, y para la lesión de exudados duros por Alejandro Mora Rubio. La lesión de exudados blandos se excluyó de los experimentos debido a que no todas las imágenes del conjunto de entrenamiento presentan esta lesión.
Los resultados obtenidos al evaluar por medio del coeficiente de DICE cada uno de los modelos se encuentran registrados en la tabla 1.
Tabla 1: https://drive.google.com/drive/folders/1zIUBSoduuiVpjt0kIY7YFBIM81GFKKga?usp=sharing
CONCLUSIONES
En cuanto a los resultados, se puede observar en la tabla 1 que al aplicar la segmentación semántica a las imágenes de fondo de ojo, los mejores resultados se obtienen en la segmentación de microaneurismas con el modelo U-Net aplicando un preprocesamiento de aumento de contraste. En general también se puede ver que en el caso de U-Net los resultados de la evaluación mejoran, si se aplica algún tipo de preprocesamiento al conjunto de imágenes de entrenamiento, mientras que a excepción de los exudados duros en HEDNet el desempeño disminuye al aplicar algún preprocesamiento. Finalmente de acuerdo con la tabla 1, se puede afirmar que durante el ejercicio de segmentación semántica el modelo U-Net es superior en todos los casos.
Mora Ruiz Maritza, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
DISEÑO DE MÁQUINA BOLEADORA PARA LA INDUSTRIA PANIFICADORA
DISEÑO DE MÁQUINA BOLEADORA PARA LA INDUSTRIA PANIFICADORA
Hernández Ríos Guadalupe Berenice, Instituto Tecnológico Superior de Ciudad Hidalgo. Mora Ruiz Maritza, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Desde la antigüedad, el pan ha sido uno de los alimentos más comunes en los humanos. La forma en que este es realizado ha evolucionado junto con el hombre sin perder la importancia que tiene dentro de nuestra alimentación y cultura, de esta manera, como la mayoría de los alimentos se encuentra dentro de la industrialización.
La panificadora Don Ángel se encuentra ubicada en el municipio de Ocampo, Michoacán y actualmente realiza el proceso de boleado de la masa manualmente, donde diariamente se elaboran de 3,500 a 4,000 piezas en un tiempo aproximado de 150 minutos. Los problemas y/o desventajas que genera el boleado manual en la empresa repercuten en su tiempo de producción, ya que este se vuelve más tardado y requiere de un mayor esfuerzo.
Dentro del mercado existe una gran variedad de máquinas hechas especialmente para realizar el proceso de boleo de la masa, sustituyendo así el proceso manual mediante sus sistemas mecanizados.
Sin embargo, a pesar de sus múltiples beneficios el costo de esta maquinaría resulta elevado para la panificadora Don Ángel, por lo que, en este proyecto se pretende elaborar un diseño de máquina boleadora que sea más económico y sencillo pero a la vez funcional, que ayude al panadero a reducir el tiempo invertido en el proceso de boleo de la masa, logrando así una mayor productividad.
METODOLOGÍA
El objetivo general de este trabajo es diseñar una máquina boleadora para la industria panificadora mediante el análisis del proceso actual del pan para la maximización de la producción con reducción del tiempo en el área de producción.
Este proyecto de investigación es de tipo índole descriptiva-aplicada, ya que se propone revisar y describir el proceso actual para la elaboración del pan, lo que permite identificar el problema para diseñar la máquina boleadora para después aplicarla a la panificadora Don Ángel. El enfoque es de índole descriptivo, esto, debido a que se mostrarán y analizarán datos cualitativos para el diseño de la máquina boleadora para poder establecer los componentes y partes necesarias con la finalidad de maximizar la producción del pan con reducción de tiempo.
La información recolectada se analiza mediante diversas técnicas e instrumentos de origen cualitativo, que sirven de apoyo para obtener la información necesaria para el desarrollo óptimo del proyecto, algunos de estos instrumentos son: herramienta 5w+2h, diagrama de flujo del proceso, diagrama de flujo de procesos y observación.
Por lo que con esta información se logró visualizar de mejor manera los tiempos y el flujo de trabajo, permitiendo al investigador conocer el funcionamiento de la máquina boleadora para la industria, así como los diferentes modelos de máquinas boleadoras existentes.
CONCLUSIONES
Con la información obtenida se identificó que las opciones en el mercado son costosas y no se adaptan a las necesidades del panadero convencional, se busca elaborar un diseño sencillo y funcional, tomando en cuenta las necesidades y requerimientos específicos de la empresa Panificadora Don Ángel.
Este proyecto tendrá un impacto positivo para la empresa, debido a que reducirá notablemente el tiempo invertido en el proceso de boleo de la masa, logrando así una mayor productividad.
Morales Cuenca Rubí, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dra. Carla del Carpio Jimenez, Universidad Nacional de San Antonio Abad del Cusco
DECLARACIóN NUTRIMENTAL DE GALLETAS DE NARANJA Y AJONJOLí ENDULZADAS CON PILONCILLO Y SU INFLUENCIA EN EL ETIQUETADO
DECLARACIóN NUTRIMENTAL DE GALLETAS DE NARANJA Y AJONJOLí ENDULZADAS CON PILONCILLO Y SU INFLUENCIA EN EL ETIQUETADO
Morales Cuenca Rubí, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dra. Carla del Carpio Jimenez, Universidad Nacional de San Antonio Abad del Cusco
PLANTEAMIENTO DEL PROBLEMA
Actualmente en el procesamiento de galletas industriales, se utilizan grandes cantidades de azúcares, sodio, y grasas, las cuales de acuerdo a la NOM-051-SCFI/SSA-2010, contribuyen al posicionamiento de sellos de advertencia como son exceso de azúcares, exceso de sodio,exceso de grasas trans, entre otros; cabe resaltar que el 99.7% de las familias mexicanas consume este tipo de alimentos; provocando principalmente un impacto directo en su salud, y con ello enfermedades tales como es la obesidad, y sobrepeso, posicionando así a México en el primer lugar a nivel mundial de obesidad.
METODOLOGÍA
En la presente investigación, se han utilizado técnicas y estrategias para identificar información relevante de la misma, utilizando de esa manera el método de investigación bibliográfica.
CONCLUSIONES
Gracias al desarrollo de la presente investigación, se pudo comprobar que las galletas de naranja y ajonjolí endulzadas con piloncillo pueden servir como un alimento funcional, debido a la comprobación de las hipótesis. Los beneficios que tiene la misma son ayudar en la salud cardiovascular, ayudar a depurar el organismo y funcionar como una fuente de energía, además con la elaboración de la tabla nutricional se pudieron calcular los sellos de advertencia que tiene dicha galleta. Cabe destacar que la formulación pudiera modificarse para un mayor beneficio del consumidor, y de ser posible su producción , serán favorablemente aceptadas por el consumidor. Finalmente de acuerdo a los costos calculados en la presente investigación las galletas pueden ser accesibles para los consumidores finales y competir con distintas marcas que se dedican a la producción de galletas como alimentos funcionales, sin embargo, faltarían realizar distintas pruebas para verificar los aportes que la bibliografía consultada demuestra.
Morales Diego Ada Lilia, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Dr. Isaac Andrade González, Instituto Tecnológico de Tlajomulco
CARACTERIZACIÓN DE AGENTES ENCAPSULANTES A BASE DE CARBOHIDRATOS
CARACTERIZACIÓN DE AGENTES ENCAPSULANTES A BASE DE CARBOHIDRATOS
Morales Diego Ada Lilia, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Isaac Andrade González, Instituto Tecnológico de Tlajomulco
PLANTEAMIENTO DEL PROBLEMA
La encapsulación es un método de protección de diversos compuestos activos durante el procesamiento y almacenaje de los alimentos. Esta tecnología aporta, en el ámbito alimentario, productos con mejores características sensoriales y nutricionales.
La selección del proceso de encapsulación para una aplicación considera el tamaño medio de la partícula requerida y las propiedades fisicoquímicas del agente encapsulante; el más utilizado es el secado por aspersión,
Los materiales utilizados para el diseño de la capa protectora de encapsulados deben ser de calidad alimentaria, esta capa se crea a partir del revestimiento de un líquido con una capa de goma, en este caso, que tiene la función de proteger cuando la emulsión se somete a un secado rápido.
Para lograr la estabilidad del encapsulante es necesario conocer las características ambientales y de proceso a la que serán sometidas pues según estos factores dependerá la eficiencia.
METODOLOGÍA
Las gomas analizadas son: Arábiga, Guar, Xantana, Alginato. También se incluye un polisacárido: Pectina.
Por medio del método de ensayo y picnómetro se determina las densidades correspondientes y se establece el enlistado de gomas de menor a mayor valor, como parámetro de espacio y peso de cada una de las gomas analizadas.
Para medir las reacciones de las gomas se realizan las determinaciones a diferentes condiciones:
De PH, las gomas se preparan en soluciones acidas neutras y básicas, con valores de 2, 7 y 10 respectivamente, considerando que para ser de uso alimenticio, hay que considerar que si utilizamos un alimento base se tiene que tomar en cuenta su nivel de acidez ya que estará en interacción directa con la goma.
Con las variaciones de pH se comprueba que la goma guar tiene mayor estabilidad en ambiente acido o contrariamente como sucede con la goma xantana que tiene mejor respuesta de gelificacion en una solución básica. Gomas como alginato o carragenina tienen una mejor estabilidad y presentación en ambientes neutros.
La variación de temperatura se consideró la ambiental, 50ºC, 60ºC y 70ºC, para comprobar cómo afecta en la preparación de la goma y medir su activación o efectividad de la goma. Se descubre que la goma alginato pierde poder gelificante y viscosidad.
De igual forma llega a influir en la textura dela goma, pues a mayor calentamiento mayor sequedad por perdida de agua, esto provoca que las gomas tengan mayor porosidad.De acuerdo a la concentración a aplicada a las diferentes muestras de gomas se comprueba el nivel de viscosidad y saturación.
Las pruebas realizadas son de solubilidad, viscosidad y dureza por método de brinell.
CONCLUSIONES
Pectina .-En comparación a las demás gomas su densidad volumétrica resulta ser la mayor, ocupa valores medios en relación a la densidad absoluta. La solubilidad mejora al aumentar la temperatura, y disminuyendo la concentración,
Arábiga.- Su densidad volumétrica esta entre las menores, pero su densidad absoluta es la mayor. La muestra no disuelve tan rápido durante la agitación. Solo tiende a espesar sin llegar a gelificar en una mezcla saturada al 30% y con aumento de temperatura en su preparación.
Carragenina.- es de las que tiene mayor volumen presenta en relación a su densidad. Su densidad absoluta ocupa valores medios (3/6) en relación a la densidad de su masa.
Presenta menor absorción de líquido en un ambiente básico, por lo que muestra mayor humedad y menor dureza, esto se refleja por su baja solubilidad. La rapidez de gelificacion resulta proporcional a la temperatura aplicada en su preparación, sin mucha influencia por el pH. aunque a mayor temperatura la textura es más porosa, una mezcla preparada a temperatura ambiente tiende a adherirse a los objetos
Guar.- Aunque ocupa valores medios en relación a densidad volumétrica. su densidad absoluta es la menor. Se mezcla con mayor rapidez en un medio líquido, aunque no toda la goma solubiliza, ya que no absorbe completamente en el soluto. Su mejor solubilidad se presenta a los 60ºC, no hay mucha variación de esta según el pH utilizado. Tiene a ser más elástica en un ambiente acido, teniendo mejor viscosidad.
Alginato.-Su densidad volumétrica es media entre todas las gomas; aunque es todo lo contrario en relación a densidad absoluta.Es complicada de mezclar por lo que se sugiere agregar en poca cantidad gradualmente se agita, disuelve mejor en un ambiente acido, pues solubiliza mayor cantidad de goma, tiene mejor solidificación en un ambiente neutro y en una muestra súper saturada, no llega a solidificar siendo afectada por la temperatura pues disminuye la viscosidad con esta, tiende a quemarse
Xantana.- Es la goma con menor densidad volumétrica, y con valores medios en relación a la densidad absoluta. No requiere de mucho tiempo para disolverse además de que absorbe gran cantidad de agua. por lo que a una concentración del 1% es posible medir la viscosidad, el nivel de solidificación máxima se obtiene en un ambiente básico y en una muestra saturada a partir del 5% , presentando elasticidad en su textura, siendo un buena característica protectora, aunque su coloración cambia a amarillo claro
Morales Granadillo Juanpablo, Universidad de la Guajira
Asesor:Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
Betancourt Pérez Briseida, Universidad Autónoma de Guerrero. Morales Granadillo Juanpablo, Universidad de la Guajira. Redondo Pinto Pinto Jhandra Mishelle, Universidad de la Guajira. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La inestabilidad de taludes es un problema que afecta a Colombia y a una multitud de personas generando la pérdidas de vidas humanas, así como económicas debido a las zonas de alto riesgo debido a los distintos fenómenos de erosión que se presentan por las altas pendientes de las laderas creadas por la misma naturaleza. Suarez (2020) Este problema actual ocurre cuando encontramos una pendiente muy inclinada donde es muy difícil o imposible evitar que ocurran deslizamientos de las masas de suelos, de la misma forma ocurren diversas formas de degradación del suelo como la erosión, la salinización y la desertificación, se presentan altos grados de desgaste en estos suelos se puede notar el resultado de la alteración por agua, la cual se da a causa de que están expuestos debido a la omisión de manto vegetal y de esta manera la precipitación cae justo sobre ellos formando el desgaste.Dicho fenómeno puede producir daños considerables a aquellas obras contiguas como por ejemplo, las vías generando una obstrucción que lleva a afectar el normal funcionamiento de la misma impidiendo la movilidad y con esto afectando en las actividades comerciales de aquellas poblaciones vecinas, en el caso de haber población en el área afectada estos habitantes también podrían correr grandes riesgos al estar presente en el momento que ocurran los deslizamientos, flujos o avalanchas, el material que se desplaza puede además ser un obstáculo en el caso de existir fuentes hídricas debido a que bloquearía el curso de dichas fuente provocando así inundaciones.La investigación tiene como criterio el priorizar debido a que el fenómeno a investigar tiende a poner en riesgo la vida y la seguridad de las personas y es innovador debido a que la solución que por lo general escogen tienden a cambiar o alterar la estructura natural del medio mencionado, entonces optando por una solución que es amigable con el ambiente y poco usual, podríamos reducir ese impacto, ubicando esta propuesta para remediar los problemas globales con el objetivo de desarrollo N° 9 INDUSTRIA, INNOVACIÓN E INFRAESTRUCTURA.
METODOLOGÍA
En general, la estabilidad del talud esta determinada por factores geométricos, como su altura e inclinacion; factores geologicos; hidrogeologicos; y geotécnicos. De esta manera, la combinacion de los 4 factores anteriores puede determinar la condicion de rotura del terreno en algun tipo de superficie, permitiendo el movimiento de la masa contenida en dicha superficie.
Bien es sabido que factores como los terremotos son causa importante de deslizamientos, especialmente, en las zonas costeras de Chile, como ocurre con el caso en estudio.
2. Movimientos del terreno
La forma de clasificar los distintos movimientos de masas de tierra depende si se trata de suelos o rocas. Por otra parte, en estas clasificaciones se considera el mecanismo y tipo de rotura, conjuntamente con otros aspectos, tales como el contenido de agua en el terreno, la velocidad y magnitud del movimiento, entre otros.
Los tipos de movimientos se pueden clasificar en: deslizamientos, flujos y desprendimientos.
3. Superficie de rotura en un deslizamiento rotacional
Cuando se han producido movimientos que tienden a la falla, los analisis a posteriores (geo5) cobran importancia, puesto que se conoce el mecanismo, modelo y geometria de la inestabilidad. Es un analisis muy util para la caracterización geomecanica de los materiales involucrados, para el estudio de los factores influyentes en la rotura y para conocer el comportamiento mecanico de los materiales del talud; los resultados obtenidos pueden ser extrapolados a otros taludes de similares caracteristicas. Estos analisis consisten en determinar, a partir de los datos de terreno necesarios (geometria, tipos de materiales, modelo de rotura y presiones hidrostaticas, entre otros), los parametros resistentes del terreno, generalmente pares de valores c y Φ, que cumplan con la condicion de equilibrio estricto del talud (FS = 1)
CONCLUSIONES
Tras finalizar nuestra estancia de investigación hemos analizado diferentes tipos de taludes con distintas geometrías y materiales desde suelos arcillosos, rocas y brechas volcánicas, lo cual nos permitió estudiar el comportamiento de acuerdo a diferentes situaciones y obtener un factor de seguridad que determina que tan inestable o estable es el talud estudiado, esto mediante dos softwares especializados en la estabilidad de taludes como lo son Geo5 y Geo Studio.
En nuestro primer análisis de un suelo con de una clasificación MH, se llegó a apreciar su inestabilidad al no cumplir con un factor estipulado en las normas de 1.5, dado esto se propusieron varios métodos para poder estabilizarlo como lo es escalonar el talud y disminuir su ángulo de inclinación. De igual forma, se analizó otro talud conformado por dos materiales, estos variaban de la siguiente forma suelo-roca, roca-brecha volcánica, brecha volcánica-roca y por último estrato de arcilla y brecha volcánica, en este segundo caso con estos tipos de suelos se logró observar estabilidad debido a que la roca y la brecha volcánica aportaban estabilidad al ser totalmente rígidos.
Por otro lado, durante el verano de investigación científica se adquirieron nuevos conocimientos geotécnicos que son valiosos en el ámbito laboral para evitar accidentes y facilitar la construcción de obras civiles como carreteras, edificios, represas, entre otros, los cuales debemos conocer para la eficacia de nuestro trabajo como futuros ingenieros.
Morales Hernández Emmanuel, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango
TR-PROGRAMACIóN DE DISPOSITIVOS MóVILES PARA GENERAR UNA RED MALLA
TR-PROGRAMACIóN DE DISPOSITIVOS MóVILES PARA GENERAR UNA RED MALLA
Morales Hernández Emmanuel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Durante la vida cotidiana se presentan siniestros tales como terremotos, incendios, tsunamis e inundaciones. Estos desastres nos ocasionan situaciones críticas de vida o muerte, la comunicación y la tecnología son dos factores importantes para poder auxiliar a las personas involucradas en los desastres, pues normalmente la persona tiene a no separase de un Smartphone o al menos estar cerca de uno.
La tecnología ha aportado grandes ventajas a el cuidado de la salud y prevención de enfermedades, pero en situaciones donde la comunicación es remota y los desastres naturales estan presentes la ubicación no es precisa pues la red o recepción de señal es ineficiente al menos que se cuente con algun dispositivo que pueda enlazar la comunicación con los sujetos presentes en el siniestro. La ubicación satelital se empezó a utilizar para el uso civil a causa del accidente del vuelo 007 el cual fue derribado por confusión de la fuerza aérea soviética. A principios del siglo 21 los dispositivos telefónicos empezaban a utilizar la tecnología GPS (Global Positioning System) la cual por medio del uso de un satélite provee la ubicación en tiempo real de un dispositivo, actualmente la mayoría de los dispositivos cuentan con esta tecnología.
La ubicación en tiempo real es una maravilla, esta previene secuestros, extravíos, nos provee de informacion de ubicación en tiempo real y nos ayuda a llegar a nuestros destinos de manera más rápida y segura. Emplear la tecnología para poder auxiliar en desastres naurares y siniestros es fundamental, pues la tecnología fue creada para ser una herramienta de apoyo en diferentes situaciones, poder ubicar a las personas de manera remota con sus dispositivos en caso de extravió en cualquier situacion puede salvar vidas.
De esta manera el implementar una red inalámbrica por medio un host remoto y conectar Smartphones o tablets a la misma, es posible extraer información como la ubicación y usuario, con estos datos el proceso de rescate puede ser más rápido y eficiente.
METODOLOGÍA
Se realizó una investigacion teórica sobre la administración de redes de wifi, como generar una red de wifi, la configuración e instalación de un enrutador en una Raspberry PI 4. Se ha utilizado una Raspberry PI 4 y dispositivos con tecnología wifi (Raspberry, Smartphone y Tablet), se desarrolló un método eficiente para poder configurar la tecnología wifi de los dispositivos. En el caso de un Smartphone o una Tablet solo se realizó la configuración del wifi, nos aseguramos que los dispositivos se conectaran a la red de wifi asignada y la confirmación de recepción y emisión de datos entre los dispositivos.
En la Raspberry despues de la instalación del sistema operativo agregamos comandos en símbolo del sistema, de esta manera realizamos la instalación del punto de acceso y el software de administración de red.
Cada uno de los comandos fue agregado a la Raspberry de manera correcta por lo tanto la instalación del punto de acceso y el software de administración de red realizan un funcionamiento correcto al conectar dispositivos a la red generada por la Raspberry PI 4, de esta manera podremos extraer y compartir informacion entre dispositivos.
CONCLUSIONES
Durante la estancia virtual de verano de investigacion se logró adquirir conocimientos sobre los usos de una Raspberry PI 4 la cual en este caso tomara el papel de un enrutador de red, también comprendimos de manera más amplia las configuraciones pertinentes para llevar a cabo una red malla, la interacción de los dispositivos y el servidor. Al ser un proyecto amplio aún se encuentra en la fase desarrollo del servidor y usuario, la interacción entre servidor y usuario es esencial pues los datos del usuario nos permitirán definir su presencia en el siniestro y su estado de salud e informacion personal.
Morales Lorenzo Martha Guiyeli, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez
ANáLISIS Y MEJORA DEL PROCESO DE ELABORACIóN DE PAN ARTESANAL
ANáLISIS Y MEJORA DEL PROCESO DE ELABORACIóN DE PAN ARTESANAL
Morales Lorenzo Martha Guiyeli, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Noé Alba Baena, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Como parte del programa de investigación de verano, se desarrolla este pequeño proyecto, el cual tiene por tema, la investigación de factores que alteran la calidad del pan de elaboración artesanal.
El pan, una vez elaborado, no era de la calidad esperada, pues hubo defectos que fueron identificados mediante inspecciones visuales y sensoriales. Esto nos lleva a pensar que ocurren fallas dentro del proceso de elaboración.
METODOLOGÍA
Para poder obtener un diagnóstico inicial de la situación, lo primero que se realizó fue, analizar las condiciones iniciales. Se elaboró una primera corrida (lote de 10 piezas), donde se identificaron cada una de las actividades que forman el proceso, obteniéndose así los tiempos correspondientes de cada una. Se elaboró un diagrama de entradas y salidas del proceso para una mejor comprensión. También se realizó un presupuesto de los costos de los insumos necesarios para la elaboración del pan. Una vez obtenidos los datos del tiempo y costos presupuestados, pasamos a desarrollar una relación entre calidad, costos y productividad. Para ello se procedió a calcular también los costos directos e indirectos. Una vez obtenidos los costos relativos pasamos a realizar un Análisis de Modo y Efecto de Falla para cada actividad. Aquí fue necesario analizar correctamente cada actividad para analizar los modos de falla, puntuarlos adecuadamente para así obtener un porcentaje que nos indique en donde se presenta el mayor número de fallas. Hecho esto, es fácil identificar las actividades que más impacto tienen en el producto final. Así con los datos numéricos tenemos un indicador para conocer que tanto impacto en calidad-productividad-costo de cada actividad y comprender, como afecta en cada uno de los 3 aspectos.
CONCLUSIONES
De acuerdo con el AMEF las actividades con mayor porcentaje de modo de falla son: pesado de ingredientes, mezclado de ingredientes, fermentación y tiempo de cocción. Para solucionar los efectos de modo de falla se propusieron algunas acciones para mejorar. Una vez implementadas dichas acciones, se hizo nuevamente un análisis de datos, que contrastado con los datos iniciales, podemos observar como es que los datos cambian de comportamiento. Con la implementación de las acciones propuestas la calidad del pan mejoro de manera notoria. Los atributos analizados en este caso, cambiaron de manera significativa.
La investigación se desarrolló de manera breve, por lo que aún quedan varios aspectos por estudiar o analizar, sin embargo, a grandes rasgos, se pudieron obtener los indicadores básicos para hacer las mejoras de este sencillo proceso de elaboración de pan. De esta manera se observó el impacto que tienen los factores dentro del proceso que nos llevan a tener un buen resultado.
Morales Ocampo Leoncio Esau, Instituto Tecnológico de Acapulco
Asesor:M.C. Luis Ivan Ruiz Flores, Instituto Educativo y de Especialidades
IMPACTO DE LA REGULACIóN DE TENSIóN Y LA CAPACIDAD INTERRUPTIVA EN SISTEMAS INDUSTRIALES
IMPACTO DE LA REGULACIóN DE TENSIóN Y LA CAPACIDAD INTERRUPTIVA EN SISTEMAS INDUSTRIALES
Morales Ocampo Leoncio Esau, Instituto Tecnológico de Acapulco. Asesor: M.C. Luis Ivan Ruiz Flores, Instituto Educativo y de Especialidades
PLANTEAMIENTO DEL PROBLEMA
Los sistemas de energía comprenden diversas actividades, entre las que se encuentran la generación, transmisión, distribución, renovables, industrial, transporte, comercial y centros de datos, con el fin de proveer de servicio eléctrico a los consumidores finales. En este trabajo nos enfocamos en el tipo de sistema eléctrico del Sector Industrial, principalmente en lo que se refiere a Procesos de Manufactura, tales como, farmacéuticas, cementeras, mineras, petroquímicas, etc. Estos se encuentran en un proceso constante de modernización. La mayoría de las instalaciones existentes cuentan con equipo eléctrico primario con más de 2 décadas de operación. La migración de tecnologías de equipos primarios se limita también en la disponibilidad de espacio entre otros aspectos.
Con base en lo anterior, en los sistemas industriales se requiere una producción ininterrumpida del proceso de manufactura. En la estancia, se comparó el uso de 2 tecnologías de aislamiento eléctrico específicamente en los tableros industriales que forman parte vital de los alimentadores a las subestaciones eléctricas.
METODOLOGÍA
Hoy en día, los Tableros de Media Tensión (MVS), ya cuenta con sistemas de monitoreo, relevadores de protección con protocolos de comunicación abiertos, así como el control automatizado que facilita la supervisión desde el personal operativo de manera independiente. Los MVS, forman parte esencial de los sistemas eléctricos industriales y se realizará una comparación de dos clases de aislamiento, las cuales son: a) Aislados en Aire (AIS) y b) Aislados en gas (GIS) SF6.
Se consultó diversas fuentes bibliográficas provenientes de autores especializados en la industria nacional pública y privada, tal como lo son PEMEX, IEEE, IEE, entre otros; con el fin de obtener referencias y conocimientos de la propia industria. Dichas fuentes se componían de artículos, libros, estándares, catálogos, entre otras fuentes, especializadas en Tableros de media tensión, flujo de carga, sobrecorriente, arco-eléctrico, cortocircuito, entre otros temas.
Tableros Aislados en Aire (AIS) Resistentes al arco
Mediante esta investigación se llegó al estudio especializado de los tableros de media tensión aislados en aire resistentes al arco, también conocidos en la industria como Metal-Clad Resistentes al arco sus compartimentos, componentes, características y rangos de clasificación, la razón del enfoque en estos tableros es debido a que estos proveen confiablidad operativa, seguridad para el personal y del equipo. La protección de la vida humana y de las instalaciones eléctricas ha dado un giro importante en la operación de las plantas industriales, los equipos deberán están fabricados acordes a los estándares internacionales tales como IEEE/ANSI C37.20.7 y el IEC 62271-200.
Tableros Aislados en Gas (GIS) en Hexafluoruro de azufre SF6
Una tecnología moderna que implica compartimentos herméticos, así como su propia estructura debe tener cierto grado de aislamiento, disminuyendo, de esta manera, el mantenimiento que requerirá el equipo y su interacción con el medio ambiente, de igual manera, el espacio que un Tablero Aislado en Gas (GIS) requiere es entre un 15%-20% menor que un Metal-Clad Resistente al arco. Sin embargo, el uso de gas SF6 trae consigo desventajas, ya que se requieren de terminales especiales en las conexiones de los cables para mantener el nivel de aislamiento,la perdida máxima de gas SF6 debe ser menor o igual al 0.1% anual, elevando considerablemente sus costos, pero incrementando su vida útil. Para garantizar un funcionamiento óptimo, es necesario que un GIS SF6 cumpla con diversas normas internacionales, tal como la IEC-60376, IEC-62271-1, IEC-62271-200, IEC-61869-1, IEC-61869-2, IEC-61869-3.
Metal-Clad Resistente al arco vs GIS SF6
Es evidente que cada tecnología propone e implica diversas consideraciones que pueden ser contundentes al seleccionar un tablero. Por ello en la estancia se realizó una tabla comparativa de los tableros Metal-Clad Resistentes al arco vs GIS SF6, con el fin de dar a conocer las diferencias entre implementar uno u otro, por ejemplo, el caso de los tableros SF6 el cual se indica que pueden ser reciclados hasta más de un 90% de sus componentes al final de su vida útil.
Asesoría en materias de flujo de carga y capacidad interruptiva
El flujo de carga y la capacidad interruptiva son una parte esencial de las instalaciones eléctricas, debido a que estas mismas pueden implicar fallas que dañen e inutilicen los equipos. Por ello es importante su estudio y consideración a la hora de diseñar una instalación, seleccionar los equipos adecuados, así como la tensión necesaria. Debido a esto, se recibió una pequeña asesoría concernientes a estos temas, de manera tal que se reconoció la importancia de estos fenómenos en las instalaciones y las características de las mismas.
Uso de Software de simulación: ETAP
Así mismo, y como complemento en la estancia, se utilizó una versión limitada (Demo) de un software de simulaciones de instalaciones eléctricas, ETAP, el cual permite diseñar instalaciones sencillas o complejas, especificando las características de los equipos. Además de lo anterior, permite hacer análisis del flujo de carga y de corto circuito. Lo cual se pudo experimentar durante la estancia mediante un ejercicio realizado con asesoría del Investigador y a través de un ejemplo que propone el propio Software.
CONCLUSIONES
Durante la estancia del Verano Delfín se logró adquirir conocimientos básicos sobre los sistemas eléctricos de potencia las instalaciones de media tensión, los equipos que se implementan y requieren según las necesidades de la industria, así como los fenómenos que afectan a las mismas. De igual manera, se logró mejorar en la lectura de material técnico en español y, en menor medida, inglés. Además, se adquirieron conocimientos básicos sobre un software de simulación de instalaciones de media tensión. Por último, el objetivo principal de la estancia es desarrollar las capacidades de investigación con el fin de poder desarrollar y publicar un artículo de propia autoría si las posibilidades lo permiten.
Morales Ramirez Vanessa, Universidad Mexiquense del Bicentenario
Asesor:Mg. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios
ANÁLISIS COMPARATIVO DE LA VIVIENDA EN EL MUNICIPIO DE PACHO - CUNDINAMARCA (COLOMBIA) Y TLATLAYA - ESTADO DE MÉXICO (MÉXICO), QUE CONTEMPLE ASPECTOS DE SOSTENIBILIDAD.
ANÁLISIS COMPARATIVO DE LA VIVIENDA EN EL MUNICIPIO DE PACHO - CUNDINAMARCA (COLOMBIA) Y TLATLAYA - ESTADO DE MÉXICO (MÉXICO), QUE CONTEMPLE ASPECTOS DE SOSTENIBILIDAD.
Morales Ramirez Vanessa, Universidad Mexiquense del Bicentenario. Patrón de la Cruz Ledys Daniela, Universidad de la Costa. Asesor: Mg. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios
PLANTEAMIENTO DEL PROBLEMA
Según el Censo Nacional de Población y Vivienda 2018, realizado por el Departamento Administrativo Nacional de Estadística (DANE) en Colombia de los 14.060.645 hogares que hay en total, 5.144.445 millones de hogares presentan déficit habitacional o rezago social, estructurales y no estructurales, representando el 36.59% de los hogares colombianos. En México según Instituto Nacional de Estadística y Geografía (INEGI) hay 34.892.977 viviendas de las cuales 8.504.424 tienen déficit habitacional o rezago social, ya sean estructurales o no estructurales lo que significa un 24.4% de las viviendas en ese país. Para el departamento de Cundinamarca el censo de hogares es de 945.601, de los cuales 280.849 deberían mejorar sus condiciones de vivienda, lo que representaría un porcentaje del 29.71% y para el Estado de México con información de INEGI 2020, se conoció que hay 4,481,007 total de viviendas, de las cuales 639.104 deberían mejorar sus condiciones de vivienda representando el 14.3% de viviendas en el estado.
En Pacho-Cundinamarca de 8.856 total de hogares, 44% tienen déficit habitacional o rezago social (DANE, 2018); para Tlatlaya- Estado de México, el total de viviendas particulares habitadas es de 8561 con el cual se estimó el déficit habitacional o rezago social que es igual al 62%. Se observa entonces, que en Tlatlaya- Estado de México las deficiencias en los hogares son mayor que en Pacho-Cundinamarca.
Según investigaciones, existen factores de riesgo que afectan la salud humana en la vivienda, como los materiales inadecuados de construcción, el almacenamiento inadecuado del agua y su consecuente contaminación, entre otros. Hoy en día las zonas rurales se ven cada vez más afectadas por no tener una vivienda digna, desde la falta de seguridad por casas construidas de madera o adobe y lamina que tampoco resistirían algún desastre natural, hasta no tener los servicios necesarios como luz, agua potable y drenaje, de tal manera que los habitantes son más propensos a enfermedades y su calidad de vida se ve afectada por estos factores.
Es por ello la importancia de analizar y comparar el déficit habitacional o rezago social, los sistemas constructivos y criterios de diseños de las viviendas en las comunidades, teniendo en cuenta los principios de sostenibilidad para satisfacer las necesidades actuales y salvaguardar a las generaciones futuras.
METODOLOGÍA
Esta investigación es teórico-descriptiva de tipo documental para lo cual se realizó rastreo, organización, sistematización y análisis de documentos electrónicos sobre la vivienda, déficit habitacional en Colombia y rezago social en México que comprendiera el periodo de tiempo entre 2011 a 2021. Para ello, se realizó el rastreo a través de canales de búsqueda como Google Scholar, Scielo, páginas web DANE, INEGI, CONAVI, CONPES, Redalyc, Gobernación de Cundinamarca, Municipio de Pacho, Municipio de Tlatlaya, Repositorio institucional UAEM. Se logró encontrar documentos importantes como el Censo Nacional de Población y Vivienda en Colombia 2018, rezago social y censo nacional de México 2021, plan de desarrollo Departamental o Estatal y Municipal, artículos en bases de datos especializadas, Política Nacional de Edificaciones sostenibles, tesis de pregrado y posgrado y previas investigaciones que permitieron profundizar más en los temas de interés. La organización consistió en realizar matrices en Excel, en donde se registró la información recopilada, para así hacer el análisis comparativo de la información obtenida de los dos municipios en estudio. Para la sistematización en los criterios de búsqueda se incluyeron las siguientes palabras claves: Vivienda, déficit habitacional o rezago social, sostenible.
CONCLUSIONES
Se espera identificar los aspectos técnicos, sistemas constructivos y materiales de la vivienda de acuerdo con los principios de sostenibilidad, permitiendo establecer u orientar el proceso de diseño y construcción, buscando que la vivienda tenga un menor impacto ambiental asociado y cumpla con las necesidades de la población. En consecuencia, se debe recalcar la importancia los factores culturales y las tradiciones de las familias en la construcción de nuevas viviendas, teniendo en cuenta aspectos sustentables, ya que la finalidad es que los habitantes acepten las transformaciones parciales o totales de sus viviendas.
Finalmente, se hace necesario que las viviendas sean dignas, habitables y seguras, además de que sean sostenibles optimizando así los recursos naturales, así mismo sí estas viviendas cuentan con todo lo necesario, sus habitantes se quedarían en el campo.
Morales Tepole Jose Maria, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
SIMULACIóN DE PROTOTIPO PARA LA MEDICIóN DEL CONSUMO DE ENERGíA EN WATTS PARA SISTEMAS DE CA.
Cuéllar Zavala Luis Héctor, Instituto Politécnico Nacional. Jiménez Maqueda Gualberto, Instituto Tecnológico de Tláhuac. Morales Tepole Jose Maria, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Mtro. Aldo Hernández Luna, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Actualmente el municipio de Huauchinango, Puebla, no cuenta con una modernización y ampliación del sistema eléctrico, lo cual a futuro puede provocar un colapso de este. Aunque en la localidad hoy en día no se está retribuyendo a la compañía suministradora de electricidad el pago del servicio eléctrico, en un futuro cuando se tenga que hacer dicho pago muchos ciudadanos necesitarán “moderar” y “monitorear” su consumo eléctrico así como visualizar en tiempo real cuánto están gastando por día y su equivalente en costo, en base a estos datos podrán gestionar y organizar el uso dispositivos eléctricos a fin de tener un beneficio reflejado en la facturación de dicho servicio.
METODOLOGÍA
Para el desarrollo de la simulación se emplean varias etapas:
Análisis: Se consideran los elementos a usar, al igual que las fases en las que se desarrollará cada acción.
Medición de corriente: En el IDE de Arduino se realizó el código que permite tratar la señal medida por el sensor y procesarla. En el código se establece el procedimiento para que en base a la corriente de entrada obtenida por el sensor se realicen los cálculos de corriente pico, corriente eficaz y en base a estas dos primeras obtener la potencia en Watts. El diseño del circuito electrónico y la simulación se realizan en Proteus, en el cual se empleó: Fuente de corriente alterna, una lámpara de 127 W, Sensor ACS712, filtros de 0.1 uF y 1 nF, alimentación de 5 VCD, Arduino Uno y display LCD
Medición de voltaje: Se realiza con el sensor de tensión para lo que empleamos el módulo FZ0430, el cual mide tensiones de 0 V a 25 V , para su uso es necesario implementar una fase de rectificación. Se consideraron los siguientes elementos: transformador de voltaje de 127 V a 12 V, puente rectificador a 30V y filtro de 1000 uF.
Al realizar la simulación, no se encontraron las librerías para el sensor FZ0430 el cual está integrado por un divisor de tensión, por lo que se optó por replicarlo usando dos arreglos resistivos en serie de 30 kΩ y 7.5 kΩ.
Medición de potencia: Por medio de programación se concentran ambas mediciones anteriores para poder el cálculo de potencia en Watts, y cumplir con el objetivo de un dispositivo que mida la potencia total en un intervalo de tiempo
Definición y creación de la aplicación: El usuario podrá consultar su consumo eléctrico al dirigirse al medidor, ya que el prototipo cuenta con una pantalla LCD en donde visualizará la potencia consumida. Si se quisiera verificar el dato del consumo desde su celular y guardar los datos registrados, se complementa el dispositivo con una aplicación. Los resultados que serán mandos mediante una red bluetooth del prototipo del medidor desarrollado, y se podrá observar el consumo en kWh durante un tiempo establecido, de este modo generar un historial de los consumos guardados. Durante el desarrollo de esta app se consideraron distintos parámetros destacando el tiempo de respuesta entre las comunicaciones de 0.8 segundos y un alcance estable de 18 m. La aplicación se encuentra integrada por las siguientes pantallas:
Pantalla de inicio: Se ingresa el nombre de usuario de acceso a la siguiente pantalla.
Segunda pantalla: Muestra un recuadro donde se visualizarán los registros y la información recibida al igual que sus botones de acción.
Pantalla de reporte: Muestra un reporte general del consumo además de un botón de regresar.
Desarrollo del físico del prototipo: Para presentar una propuesta mecánica del dispositivo se empleará el software SolidWorks en el que se elaboraron las piezas individualmente basándose en las medidas reales de cada componente. El diseño final de la carcasa que contendrá los elementos del prototipo estará conformada por cuatros paredes las cuales están diseñadas de material tipo plástico ABS:
Base. Se considera el espacio necesario a las medidas características de cada elemento (10 cm x 15 cm x 0.5 cm), el diseño está previsto para que físicamente sean fijados por medio de tornillos milimétricos.
Cara superior. Cuenta con perforaciones por medio de una matriz lineal, permitiéndonos el flujo de ventilación dentro de la carcasa para evitar posibles sobrecalentamientos en el circuito.
Cara inferior. Se diseñó un sub ensamblaje de un ventilador de 12 VC a 130 mA, el cual tiene como función disipar el calor generado en el interior de la carcasa. Para la fijación se usó un tornillo de rosca milimétrica, cabeza hexagonal M4, longitud de 6 cm.
Cara frontal: Se consideran sub ensamblajes, el primero considerado para la colocación de la pantalla LCD (fijada por medio de tornillos milimétricos) y las entradas de conexión para el sensor de corriente y sensor de voltaje.
Tapa izquierda: Cuenta con una serie de perforaciones para permitir una mayor ventilación.
Tapa derecha: Se diseñó un sistema mecánico que consta de un botón central, el cual permite una fácil extracción de la tapa.
CONCLUSIONES
La realización de la simulación no bastó de tener un análisis de los componentes que integran al circuito sino más allá en cuánto a cálculos, tanto de calibración de sensores como al replicar la estructura de un sensor comercial tal es el caso del sensor de voltaje FZ0430, que al no encontrarse dentro de las librerías del software Proteus, tuvo que llevarse a cabo un análisis de cuál era la estructura y su principio de funcionamiento para poder replicarlo. No obstante, al simular dicha réplica, estaba presentando variaciones considerables que ocasionaban un error en la medición del voltaje, por lo que se recurrió a simularse en otro software, posteriormente mediante un análisis de las mediciones registradas se pudo corregir dicho error desde el código de programación.
Gracias a esto fue posible verificar el funcionamiento del circuito diseñado para el dispositivo medidor y permitió corregir a tiempo errores antes de ser llevados a la parte física y de este modo reducir pérdidas tanto económicas como de tiempo. Se procedió a realizar una propuesta de aplicación ya que complementa la parte de la simulación del prototipo en general.
Morales Valdez Victor Manuel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
VEHíCULOS AUTóNOMOS: ‘‘LA IMPORTANCIA DEL COMPORTAMIENTO EN LA PLANEACIóN DE MOVIMIENTOS Y PERFILES DE VELOCIDAD’’.
VEHíCULOS AUTóNOMOS: ‘‘LA IMPORTANCIA DEL COMPORTAMIENTO EN LA PLANEACIóN DE MOVIMIENTOS Y PERFILES DE VELOCIDAD’’.
Morales Valdez Victor Manuel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
Cada día la tecnología crece a pasos agigantados, la ciencia genera muchos conocimientos y estos son aplicados en cada área de nuestra vida. Esto nos ha permitido crear tecnología que automatice muchos procesos y tareas de manera rápida y eficiente para poder dedicarnos a tareas más complejos sin tener que dedicar tiempo a las tareas repetitivas. El transporte es una de las tareas que todos realizamos diariamente, ya sea para ir a la escuela, al trabajo, ir a comprar las cosas que necesitamos o simplemente salir a divertirnos; ¿Por qué no pensar en automatizar esta actividad también?
METODOLOGÍA
Debido a que el trabajo se realizo en un ambiente virtual se complicó la comunicación. Se ocuparon artículos matemáticos con esto se buscó llegar a un ambiente óptimo para poder hacer una redacción clara y concisa del artículo.
La parte que se trabajó en el verano de investigación fue el comportamiento de los planificadores de movimiento, ruta loca y perfil de velocidad, se estudiaron los comportamientos de cada uno de los perfiles de comportamiento, el como es que se maneja uno por si solo y sus ventajas que nos proporciona la conducción autónoma. Por ultimo se explica los niveles de conducción como es que funciona desde el nivel cero hasta el nivel cinco.
CONCLUSIONES
Durante el desarrollo de la investigación pude aprender a relacionar diferente artículos y conceptos de varias áreas del conocimiento para aplicar dentro de un proyecto. Además, mi asesor Pedro Bautista Camino me proveyó diversos de bastante material muy puntual para poder aprender más del tema y contar con una visión global acerca de los desarrollos de nuevas tecnologías.
Moreno Cruz Julia Audrey, Instituto Politécnico Nacional
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
Moreno Cruz Julia Audrey, Instituto Politécnico Nacional. Rojo Cabrera Mauro Antonio, Instituto Politécnico Nacional. Sagrero Guzman Jessica Yuridia, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Según los datos presentados en la Gaceta LXII/3PP0-15, se establece que de la población mexicana al menos el 5.1% presenta algún tipo de discapacidad, la cual en el 2014 representaba a 6.7 millones de mexicanos, de estos, 1.5millones tienen discapacidad y dentro de este grupo 145 mil son niños. En México sufrir de esta discapacidad representa todo un reto, pues los programas de enseñanza son escasos, si se considera que al igual que todos, las personas ciegas necesitan aprender a leer y escribir como parte de su proceso educativo, se vuelve imprescindible encontrar un método de lectura y escritura útil para ellos. Tan solo en México este sector ha sido puestos a un lado ya que se desconoce la cantidad de mexicanos invidentes con acceso a la educación y/o conocedores de braille. Los recursos disponibles son poco accesibles y costosos para la mayoría de la población, el desarrollo de este dispositivo permitirá a los niños con ceguera iniciar su aprendizaje en el Braille de manera divertida y autodidacta abriéndoles la oportunidad de acceder a una educación de calidad inclusiva y equitativa, para en un futuro promover estas oportunidades de aprendizaje para todos de manera permanente.
METODOLOGÍA
Para el diseño de las patas se consideró mantener la ergonomía del dispositivo,y se vuelve imprescindible asegurar la adaptabilidad del dispositivo a los problemas y necesidades del consumidor, llevando consigo la responsabilidad de tomar en cuenta las exigencias físicas, psicológicas y sociales de los niños que usarán este dispositivo para la lecto-escritura del braille.
Para alcanzar el diseño de un dispositivo ergonómico es necesario tomar en cuenta las dimensiones del cuerpo que interactúan con el dispositivo, de esta manera entra en función la antropometría. Según Villareal se puede definir la antropometría como el estudio de las medidas del cuerpo en sus distintas posiciones al realizar distintas actividades.
Antes de realizarse la recogida de datos fue necesario entender el propósito de la medida que se buscaba, pues esta debía resolver alguna incógnita del diseño, si no lo hacía dicho dato se volvía innecesario en el modelo, de esta manera se desechan la información menos significativa y se generan patrones antropométricos de diseño.
Para la reingeniería se cambiaron medidas y texturas, por lo que antes de ser impresas los cambios fueron expuestos a un niño de 8 años el cual conoce la lecto-escritura Braille, y aprobaba o rechazaba los cambios según las experiencias adquiridas durante su propio proceso de aprendizaje.
Las medidas patrón para realizar el diseño se basaron el trabajo titulado Dimensiones Antropométricas de la población mexicana de Rosalío y Prado el cual proporcionó las medidas básicas para niños de 2 a 17 años. Sin embargo, no era tan especifico como para proporcionar el diámetro de cada uno de los dedos por lo que se complementó la escala con el estudio de José Melo titulado Ergonomía desde el punto de vista de la Higiene y seguridad Industrial, el cual nos proporciona las medidas de cada uno de los metacarpianos de las palmas de las manos, aunque con la desventaja de que su población muestra es mayor a 20 años, así que se buscaron dos métodos, el Método A es dividiendo el ancho de la palma de la mano entre 4 asumiendo que el diámetro de todos los dedos es el mismo y el método B fue deducir medidas conocidas en ambos estudios y encontrar las desconocidas al re-escalarlas. Los datos obtenidos por el método B las medidas de los dedos medio e índice son iguales, mientras que el del anular es ligeramente menor, sin embrago, cuando se emplea el método A las medidas quedan por arriba de la tendencia, de manera que se decidió emplear el método B como patrón para el diseño del dispositivo.
Para el diseño de las patas que conforman el dispositivo se realizó un análisis para considerar si un modelo se podía adaptar a las necesidades de toda la gama de usuarios o si era necesario realizar dos modelos. Se observan los datos que son resultado de la diferencia entre la edad superior y la menor para cada rango de edad. Se observa que la diferencia de diámetros se aproxima a los 10 mm lo cual es una magnitud grande ya que el dispositivo podría resbalarse de las manos de los niños más pequeño. Se procedió a dividir las edades en dos bloques, considerando la edad media los 9 años, se observa que la diferencia mayor es de 4.59 mm, y deducimos que después de los 15 años el crecimiento comienza a ser menor, de manera que la división de dos bloques es aceptable.
Se tomaron en cuenta distintas texturas a partir de figuras geométricas que pudieran ser implementadas en la impresión 3D.
Parecería una tarea sencilla, pero existen técnicas y consideraciones en el diseño de PCB’s. Antes de crear una tarjeta electrónica fue esencial realizar un circuito base para verificar la correspondencia en tamaño entre componentes considerando interconexiones. Una vez obtenidas las medidas entre componentes se puede empezar el diseño. En diseño de PCB’s se exige exactitud y precisión, por lo que fue necesario emplear un software de diseño asistido por computadora.
CONCLUSIONES
El proceso de optimización de este dispositivo fue dirigido hacia la ergonomía, la parte electrónica y las texturas que pueden favorecer el entrenamiento de la yema de los dedos para el aprendizaje del Braille. Se indagó sobre la antropometría de los dedos de las manos recuperando estudios previos enfocándose en las medidas en los metacarpianos. Al mostrar los avances a un posible usuario se establecieron nuevos parámetros a observarse, como la calidad de material y las diferentes angulaciones del dispositivo tiflotécnico, permitiendo dirigir la investigación hacia el cubrimiento de las necesidades del usuario.
El producto obtenido es una tarjeta electrónica simulada en un software de diseño electrónico sujeta a cambios con el fin de ofrecer la mayor efectividad posible. Eventualmente la PCB va evolucionando y se hacen correcciones a lo largo de las semanas, se continúa trabajando en modificaciones a la actualidad para pasar a la etapa de pruebas de funcionamiento.
Moreno Galeano Zalma Valentina, Universidad Nacional Abierta y a Distancia
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
ANáLISIS DE DATOS DE LA PRODUCCIóN AGRíCOLA PARA TOMAR DECISIONES LA SITUACIóN MUNDIAL
ANáLISIS DE DATOS DE LA PRODUCCIóN AGRíCOLA PARA TOMAR DECISIONES LA SITUACIóN MUNDIAL
Moreno Galeano Zalma Valentina, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Se toma el problema como el nivel de produccion de alimentos.
Dentro de la pregunta de investigacion es dada a la tendencia de crecimiento de la poblacion mundial y de la produccion de alimentos ¿Habra suficiente?.
METODOLOGÍA
La metodología que se utiliza en este trabajo de investigación consiste en:
1. Selección del tema de producción agrícola.
2. Búsqueda de datos (Datasets), identificando los metadatos.
3. Uso de técnicas estadísticas en cada una de las variables para conocer sus características.
4. Exploración gráfica de los datos de interés utilizando herramientas de minería de datos.
5. Pronostico de valores mediante técnicas de aprendizaje automático (Machine Learning) y su visualización.
6. Obtención de conclusiones con base en las observaciones de la información y los datos pronosticados.
CONCLUSIONES
Encontramos que la poblacion mundial esta aumentando asi tambien los alimentos pero la poblacion crece mas rapido.Ademas el crecimiento de la produccion se esta dando con ayuda de fertilizantes y uso de invernaderos con nutrientes quimicos ¿Conocer si esto es saludable? es motivo de un estudio futuro.
Moreno Gaona Atzimba Monserrat, Instituto Tecnológico Superior de Tacámbaro
Asesor:Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro
DESARROLLO DE UNA PLANEACIóN TéCNICA EN LA CAMPAñA PUBLICITARIA DE LA INGENIERíA EN ADMINISTRACIóN DEL INSTITUTO TECNOLóGICO SUPERIOR DE TACáMBARO.
DESARROLLO DE UNA PLANEACIóN TéCNICA EN LA CAMPAñA PUBLICITARIA DE LA INGENIERíA EN ADMINISTRACIóN DEL INSTITUTO TECNOLóGICO SUPERIOR DE TACáMBARO.
Moreno Gaona Atzimba Monserrat, Instituto Tecnológico Superior de Tacámbaro. Asesor: Dr. Erik Garcia de León Monter, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
La demanda de alumnos inscritos a la ingeniería en Administración ha disminuido un 75.61% debido a la falta de publicidad o por la misma razón que esta no funcione, parece no llegar o atraer a la audiencia deseada.
La publicidad muchas veces fracasa por falta de estrategias y de creatividad, hoy en día se han ampliado y facilitado la posibilidad que se tienen para hacer publicidad por diversos medios y canales.
¿Por qué la publicidad no funciona?
No se tiene una estrategia de marketing.
No se tiene estrategia de comunicación.
Falta de un buen equipo creativo.
No se tiene seguimiento ni control.
Se usa un medio equivocado
No llega a la audiencia ideal.
De acuerdo a la situación que se está viviendo por el virus SARS-CoV-2 (COVID-19) la mejor manera de hacer publicidad en estos tiempos es de manera digital por lo cual la mejor plataforma para hacerlo y de acuerdo al tipo de marketing, ya que está muy enfocado al B2C lo cual quiere decir que esta red social es de negocio a consumidor, ya que es una red que ayuda a conectar directamente con los clientes.
METODOLOGÍA
Analizar la situación, en este caso se hizo un análisis de lo que son nuestras debilidades y amenazas y algunos puntos clave.
Se analizó sobre las universidades que son nuestra competencia investigando que tipo de contenido crean, hacía quien va enfocado y si tienen realmente presencia.
Definir objetivos:
Conseguir una base de datos de nuestros posible clientes (alumnos de preparatoria)
Conseguir que más personas se inscriban a la ingeniería.
Se aplicó un test a los alumnos de los diferentes semestres de la ingeniería en administración, con el objetivo de conocer su personalidad y así segmentar a nuestro cliente potencial.
Definir un público objetivo correctamente es parte vital, si se sabe a quién nos dirigiremos podremos crear contenido más específico para dicho mercado. En este caso nuestro público son los alumnos de preparatoria el hecho de que sean jóvenes y pasan mayor tiempo en el celular es decir las redes sociales y siendo con mayor demanda Facebook.
Realizar estrategias para seguir en la creación de contenido
Para una mayor efectividad evaluamos que tipo de contenido es el más adecuado, es este caso se publicó imágenes, videos, infografías, noticias e información relacionadas con la ingeniería, fotos y felicitaciones de egresados, en el cual resulto con mayor alcance los videos, teniendo en cuenta que la plataforma en la que creamos contenido es Facebook, en lo cual se seguirá trabajando.
Se creó un modelo de negocio en este caso el cual fue Bussiness Model Canvas en el cual se identificó lo que tiene mayor valor, lo que es más viral y lo que funciona como venta.
Como anteriormente se aplicó un test de personalidad, por lo cual se enfoco en el resultado de los alumnos de segundo semestre puesto que, nuestra personalidad va cambiando conforme vamos avanzando y con ellos es quien se acerca más a la personalidad de nuestros posibles clientes.
Crear contenido.
Para los videos, se hacía un borrador de los temas específicos a hablar dentro del video y se pedía apoyo para grabar algunos de los demás compañeros que conforman la ingeniería o maestros, después de esto se hacían algunos ajustes en la App Kdenlive para PC y capcut para celular, para las infografías el apoyo fue con el programa de canva, de la misma manera para algunas imágenes, acerca de la información y noticias compartir todo lo que se sabía al respecto de la situación de la ingeniería
También la creación del test nos ayudó ya que además de descubrir el tipo de personalidad con ella podremos saber que contenido crear para la atracción del público objetivo.
Creación de calendario de planes para publicar.
El tener un calendario para esto ayuda a ahorrar tiempo, publicar constantemente, cometer menos errores, se hace contenido de mayor calidad y dar un seguimiento a lo que mejor funcione.
CONCLUSIONES
Durante la estancia adquirí conocimientos no solo teóricos si no también prácticos acerca del marketing digital y redes sociales y que tal vez en algún momento puedan ser útiles para la creación de un negocio propio o emprendimiento, al ser un trabajo que conlleva un poco de tiempo no se pueden mostrar unos resultados como tal pero hasta la fecha los que tenemos son buenos si ha aumentado un porcentaje de alumnos inscritos a la ingeniería.
Moreno González Jose Luis, Universidad Mexiquense del Bicentenario
Asesor:Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica
DESPLIEGUE DE DISPOSITIVO GPS LORIPCA PARA INTERNET DE LAS COSAS EN UN VEHíCULO DE TRANSPORTE PúBLICO DE LA CIUDAD DE BARRANQUILLA Y SU áREA METROPOLITANA
DESPLIEGUE DE DISPOSITIVO GPS LORIPCA PARA INTERNET DE LAS COSAS EN UN VEHíCULO DE TRANSPORTE PúBLICO DE LA CIUDAD DE BARRANQUILLA Y SU áREA METROPOLITANA
Moreno González Jose Luis, Universidad Mexiquense del Bicentenario. Asesor: Mg. Angie Paola Marriaga Barroso, Corporación Politécnico de la Costa Atlántica
PLANTEAMIENTO DEL PROBLEMA
Los sistemas GPS existen de diferentes forman y diferente categorías son sistemas de radio navegación basado en el espacio que proporciona alos usuarios información obre posicionamiento, navegación y cronometría. Este sistema está constituido por tres segmentos: el segmento espacial, el segmento de control y el segmento del usuario.
En Latinoamérica según el estudio de gps es muy escaso y costoso el uso de este tipo de radio frecuencia la mayor problemática es que muchos dispositivos GPS necesitan recibir señales de al menos 7 u 8 satélites para calcular la ubicación dentro de unos 10 metros. Con menos satélites, aumenta la incertidumbre y la imprecisión. Con menos de 4 satélites, muchos receptores de GPS luchan para producir estimaciones precisas de la ubicación e informarán “pérdida de señal de GPS” en puntos durante la ruta.
METODOLOGÍA
En el modelo GPS se implemento un sistema para el control de la ubicación a tiempo real el sistema cuenta con seguridad de loggin donde el usuario se registra con su correo electrónico y una contraseña para tener acceso
Una ves concluido el tiempo de modelado de la interfaz del sistema de control de LorinPCA este sistema radiofrecuencia muestra datos de tiempo real donde se creó una base de datos local para pruebas del funcionamiento del sistema y la base de datos el sistema es de elaboración propia basado con la plataforma de PHP y JavaScript
Una ves que el usuario tiene acceso al sistema de lorinPCA tienes acceso a datos de la plataforma del dispositivo de loranwan este sistema de radiofrecuencia emites señales mediante antenas de la tecnología de lorawan una ves que emite las pequeñas señales se va guardando el una base de datos local para la creación de la base de datos local se utilizo la tecnología xammp para pruebas de funcionamiento de sistemas y corrigiendo los errores en la base de datos y sistema de monitoreo
La base de datos se compone de tablas de registro , control, seguridad de login , información de clientes la base de datos hace uso de PHP mi admin el sistema de radio frecuencia cuenta con un usuario de login el cual se actualiza cada modificación si se caduca el login en el sistema se cerraría la sección hasta volver entrar con el registro del usuario
En el primer apartado del sistema de base datos muestra el mapa de geolocalización y muestra estadísticas de la información que reciben la antenas en tiempo real de dispositivo de lorawan
Por último se utilizo MySQL para la conexión de la base de datos local con sistema de lorinPCA está conexión permite modificar toda la base de datos
CONCLUSIONES
Durante esta estancia pude adquirir los conocimientos del el sistema de lorinPCA que muestra información y estadística del dispositivo de Lorawan donde la base de datos se migro a mongo DB para el funcionamiento en tiempo real en la nube y que los usuarios tengan un acceso más rápido ala información de las antenas de lorawan y mostrar el registro al usuario que lo solicite donde se logró solo mostrar información del dispositivo en el sistema para una futura implementación de localización de lorawan
Moreno Navarrete Jennyfer, Instituto Politécnico Nacional
Asesor:Dr. Manuel de Jesús Nandayapa Alfaro, Universidad Autónoma de Ciudad Juárez
IMPLEMENTACIóN DE CONTROL BILATERAL CON CAPACIDADES HáPTICAS
IMPLEMENTACIóN DE CONTROL BILATERAL CON CAPACIDADES HáPTICAS
Moreno Navarrete Jennyfer, Instituto Politécnico Nacional. Asesor: Dr. Manuel de Jesús Nandayapa Alfaro, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El uso del control bilateral surge de la necesidad de retroalimentar al operador información para la realización de tareas de manipulación de manera remota en diversos ámbitos, por ejemplo, aplicaciones en telecirugía o la realización de actividades sin salir del hogar.
La información retroalimentada corresponde a las capacidades hápticas, bien sea fuerza, dirección o velocidad. Por esa razón se ha diseñado un control con un sistema maestro-esclavo de un grado de libertad implementando una palanca para la fácil visualización de estas capacidades hápticas interactuando con el operador humano. Se aborda el control bilateral, teniendo en cuenta su funcionamiento, los factores que influyen en su desempeño y el retardo en las comunicaciones.
METODOLOGÍA
1. Adquisición de material y equipo
Para la elaboración del proyecto, se utilizó el siguiente material, el cual se compró por mercado libre para empezar de manera inmediata con el armado de la estructura.
2 Controladores dual Puente H Drv8833
2 Motores con enconder de disco óptico
2 ESP32
3 Potenciómetros de 10K
1 Placa de pruebas
2. Armado de estructura.
Se elaboró 2 bases idénticas ya que la principal función del proyecto es lograr la comunicación bilateral de capacidades hápticas dentro de un sistema controlado por motores donde se unieron sus ejes con el eje de un potenciómetro con un cople flexible para permitir leer la señal de giro del motor y poder controlarlo. Además se le implementó una palanca en medio de la unión para permitir la visualización del giro de manera más sencilla.
3. Diagrama eléctrico
Al contar con la parte mecánica avanzamos con el diagrama eléctrico, todo esto se puede realizar en el código en la ESP32 realizado en el Arduino IDE. El diagrama de conexiones se divide en ciertas partes, explica específicamente como comunicar la posición, velocidad y la fuerza con el cual se mueve el motor.
4. Estimación de posición
La lectura de la posición de la palanca respecto al motor se hace en radianes, cuando la tarjeta mande una señal al motor para que gire, el potenciómetro podrá leer esa variación gracias a la unión de ejes que hay entre ellos, se toman los valores para la señal cuadrada de referencia, con ayuda de la retroalimentación de la lectura y la posición de la señal de referencia se crea un error que podemos monitorear.
5. Estimación y diseño de filtro digital de velocidad
Además de calcular la velocidad de giro teniendo la posición anterior y la actual en un tiempo determinado, como esta señal tiene muchas variaciones se tuvo que diseñar un filtro digital y solo tomar en cuenta las variaciones más importantes, esto se logra con un filtro RC pasabajas de primer orden, pero al aplicarlo de manera digital se sustituyen los valores de resistencia y capacitancia dentro del programa.
6. Control de posición de lazo abierto
Si la salida no afecta la acción de control, estamos en presencia de un sistema de control a lazo abierto.
Se incorporó un control de posición de lazo abierto que consiste en los que la señal cuadrada de referencia no afecta al funcionamiento de la señal de salida, es decir no tiene retroalimentación y no puede cambiar la señal de salida respecto a esta.
7. Control de posición de lazo cerrado
Se implementó un control de posición de lazo cerrado, que son aquellos en los que se produce un proceso de realimentación. Para lograr la realimentación y modificar la señal de entrada respecto a su salida se adecuo un observador de perturbaciones. Se logró observar por medio de una gráfica los datos de posición y error en el movimiento de la palanca, con la retroalimentación de posición se puede ir corrigiendo más el error.
8. Control de posición con observador de perturbaciones
Al implementar este control, se podrá detectar los movimientos que se le aplique a la palanca y no solo siguiendo una señal fija de referencia, es decir, al efectuar un movimiento este detecta la fuerza y velocidad de giro.
9. Control bilateral modo local
Al completar la lectura de las capacidades hápticas el último paso es poder comunicarlas a otra palanca (máster y esclavo), de primera estancia de manera local, donde ambas palancas están conectadas a la misma ESP32, donde lo que afecte a una palanca es recibida por la ESP32 y enviada la información a la otra, esto de manera simultánea, la lectura de fuerza, posición y velocidad son recibidas sin retraso al estar conectadas a la misma tarjeta.
Al implementar el control bilateral en ambas palancas se debe tener la misma posición con un error mínimo en la lectura de ambos potenciómetros con sus respectivas palancas, se denota que el esclavo siempre trata de seguir al máster.
10. Control bilateral forma remota
Para el control bilateral remoto se utilizó la plataforma Firebase en la cual por medio de Arduino IDE y librerias disponibles de Firebase se logró hacer una base de datos en tiempo real, estas se alojan en la nube, la cual permite monitorear con un retardo de conexión, las variables de posicion y fuerza de la palanca elaborada para el control. Sin embargo esta última parte no fue posible terminarla por completo dentro del periodo del programa de investigación por ser un proyecto bastante largo, quedaría pendiente como trabajo a futuro hacer la adquisición de estos datos para implementar el control bilateral remoto, ya se tienen las herramientas útiles para realizarlo, sólo falta implementarlo.
CONCLUSIONES
Durante la estancia de verano se logró implementar un sistema de teleoperación háptica por medio de estrategias de control bilateral. Se adquirio conocimiento de capacidades hápticas además de la programación de dispositivos ESP32. Como trabajo futuro se identifica la comunicación remota del sistema para ser controlado desde cualquier conexión a internet. Se logró la cumunicación serial en el sistema de teleoperación maestro-esclavo.
Moreno Renteria Rafael Emiliano, Universidad Autónoma de Baja California
Asesor:Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PROPUESTA DE MODELO CON MACHINE LEARNING PARA LA PREDICCIóN Y CLASIFICACIóN DE LA CRIPTOMONEDA CARDANO
PROPUESTA DE MODELO CON MACHINE LEARNING PARA LA PREDICCIóN Y CLASIFICACIóN DE LA CRIPTOMONEDA CARDANO
Moreno Renteria Rafael Emiliano, Universidad Autónoma de Baja California. Asesor: Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Cardano una plataforma de transacciones inteligente de código abierto que pretende resolver los problemas actuales de la industria criptográfica. Ofrece escalabilidad y seguridad bajo una arquitectura diseñada por capas lo que le da al sistema flexibilidad y facilidad de mantenimiento y permite actualizaciones por medio de bifurcaciones blandas. Se considera la Blockchain de tercera generación
No utiliza prueba de trabajo como Bitcoin o Ethereum, utiliza la prueba de consenso, lo que evita tener que realizar complejos cálculos matemáticos para mantener integra la cadena y supone un gran ahorro energético para su funcionamiento. En la actualidad es la red Blockchain de este tipo con más importancia en el mercado
Una de las principales desventajas que presenta es su volatilidad, la cual se explica porque su valor no está determinado por una institución sino por las leyes de la oferta y la demanda: si la demanda sube, incrementa inmediatamente; si la demanda baja, decrece al instante, lo que hace difícil la predicción de su comportamiento
METODOLOGÍA
El método propuesto inicia con obtención de los datos de tres fuentes distintas, luego se calcula la mediana de los datos y se crea la base de datos final. Estos datos se normalizan y se dividen en datos de entrenamiento y de prueba con 80 % para los datos de entrenamiento y 20 % para los datos de prueba.
Para los datos de entrenamiento se extraen las características sobre las cuales hacer inferencia, seguido, se hacen las transformaciones BoxCox, log, diff, diff(log) sobre los datos de entrenamiento. Se aplican los modelos a los datos transformados y, se selecciona un modelo en base a el índice de error RMSE e índice de exactitud Theil’s U
Los datos para este estudio serán recolectados de tres fuentes distintas, Yahoo! Finance, Coingecko y Coinmarketcap, para los datos de Yahoo! Finance se utilizará la librería quantmod en R para descargar los datos de forma automática en formato OHLC (Open-High-Low-Close), para Coinmarketcap y Coingecko los datos seran descargados directamente de sus páginas web con sus respectivos formatos para datos financieros.
Para una base datos más robusta se creará una nueva, tomando la mediana de las tres bases de datos propuestas. Para entrenar los modelos RTS (Regresion Time Series), SVM (Support Vector Machines), RF (Random Forest), y LSTM (Long short-term memory) se escalaron los datos a un intervalo de [-1,1] con la formula para un mejor funcionamiento de los algoritmos.
Para la extracción de características de los modelos de machine learning se utilizará el método de correlación donde se realizará la estimación del coeficiente de correlación de Pearson para examinar la fuerza y la dirección de la relación lineal entre las variables de la base de datos, en este caso, apertura, precio máximo, mínimo y cierre.
Antes de aplicar los modelos a los datos de entrenamiento se realizaron distintas transformaciones como BoxCox, log, diff y diff(log). Para BoxCox el parámetro λ se estimará con la función BoxCox.lambda() para encontrar el parámetro que mejor estabiliza la varianza, en el caso de la transformación log se usará la base natural e.
Se ajustarán los precios del cardano usando diferentes modelos de machine learning basados en el método Naive, SES (Simple Exponential Smoothing), Holt, ETS (Error, Trend and Seasonality), ARIMA (Autoregressive Integrated Moving Average), RTS, SVM, RF, y LSTM
En cada modelo se realizará una predicción sobre el 80 % de los datos, en estas predicciones se considerará el indicador de error RMSE (Root Mean Square Error) y la segunda versión del índice de eficiencia Theil’s U, de estos, el modelo que se seleccionara es el que tiene menor RMSE e índice Theil’s U más cercano a cero.
CONCLUSIONES
Esperamos encontrar el mejor método de modelación para predecir la serie de tiempo de la criptomoneda cardano, buscando un balance entre eficiencia y error del modelo predicho. También buscamos determinar la mejor transformación para la extracción de características que permitan estabilizar la volatilidad de cardano.
La propuesta metodología permitirá ser una alternativa para los usuarios de cardano en la decisión de comprar o vender criptomonedas... En el futuro buscamos comparar nuestra propuesta de modelo cardano contra otras criptomonedas de alto potencial de capitalización como: Bitcoin, Ethereum.
Moreno Serrano Fran Gadiel, Universidad Autónoma de Occidente
Asesor:Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
APLICACIóN DE NANOPARTíCULAS SEMICONDUCTORAS PARA EL MEJORAMIENTO DEL MORTERO DE CEMENTO
APLICACIóN DE NANOPARTíCULAS SEMICONDUCTORAS PARA EL MEJORAMIENTO DEL MORTERO DE CEMENTO
Moreno Serrano Fran Gadiel, Universidad Autónoma de Occidente. Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
INTRODUCCIÓN
La aplicación de nanomateriales se ha hecho muy eficientes para mejorar las propiedades mecánicas y el rendimiento de durabilidad de los materiales a base de cemento. Se cree que los efectos de mejora de la mezcla de nanomateriales en estos materiales se deben principalmente a dos enfoques: (1) actuando como un excelente relleno y (2) implicando en la hidratación del cemento. A pesar de que los nanomateriales pueden causar deficiencias en algunas propiedades de los materiales a base de cemento, como la reducida trabajabilidad debido a la alta demanda de agua de estas partículas ultrafinas, se han demostrado claramente sus efectos beneficiosos. Los nanomateriales más utilizados son las partículas esféricas a nano escala (nano-SiO2, TiO2, Al2O3, Fe2O3 etc.), nanotubos y fibras (nanotubos de carbono y nano fibras de carbono) y nanoplaquetas (nanoarcillas, grafeno y óxido de grafito). La adición de nanopartículas en el cemento nano-diseñado aumenta exponencialmente el área de la superficie, influyendo en la energía de la superficie y alterando las reacciones químicas. Durante la estancia de verano científico se investigó y realizó la síntesis verde de nanopartículas de ZnO utilizando Turnera diffusa (damiana). Con el fin de que a futuro la propuesta de aplicar las NPs biosintetizadas en los materiales cementantes, esto con la finalidad de mejorar sus propiedades mecánicas, durabilidad y su aplicación en la eliminación de contaminantes por medio de fotocatálisis.
METODOLOGÍA
METODOLOGÍA
La metodología presentada en el verano científico fue el proceso que siguió el investigador Dr. Manuel Chinchillas, quien fue mi asesor durante la estancia de verano científico del programa delfín. Esta metodología fue enseñada por su parte por medio de técnicas de aprendizaje como teoría, fotos, videos, pláticas, etc. Lo cual sirvió para mi desarrollo en el ámbito de la investigación. Lo cual sirvió para mi preparación en el enfoque de investigación.
Síntesis verde de NPs ZnO
Para la síntesis de Nanopartículas se utilizó hojas secas de Turnera diffusa, de las cuales se pesó 2.5 gr y se agregaron a un vaso de precipitado con 50 ml de agua. Después se agitó durante 2 horas y se dejó reposar. Posteriormente se le agregó Nitrato de Zinc a la solución y se agitó durante 1 hora. La solución se colocó en baño maría durante 12 horas y el material que quedó se agregó a un horno a 400 °C durante 1 hora. Finalmente, el material se molió y se empezó la caracterización.
Caracterización de NPs
Para conocer las propiedades de las NPs biosintetizadas se aplicaron algunas técnicas de caracterización como Espectroscopia de infrarrojo, Difracción de rayos X y Microscopia Electrónica de Transmisión.
Aplicación de nanopartículas en pastas de cemento
De acuerdo con las limitantes que tuvimos durante la estancia ya que su dinámica fue el estar en línea con el investigador se planteó una investigación a futuro, las NPs de ZnO se dispersarán en una solución acuosa (agua de mezcla) y se mezclarán con la pasta de cemento en el molde deseado. Posteriormente se dejará endurecer durante 24 horas y la pasta de cemento resultante se utilizará para evaluar las propiedades mecánicas y analizar la eliminación de contaminantes en el agua a través de la fotocatálisis.
CONCLUSIONES
Resultados y Conclusiones
La caracterización de las NPs de ZnO mostró lo siguiente:
En el estudio de FT-IR se observó el pico característico obtenido a 1370 cm-1 se le atribuye a enlaces de C-C presentes en los anillos aromáticos presentes en las moléculas orgánica, en la banda ubicada a 1108 cm-1 se identifican enlaces C-O, en el pico 874 cm-1 se identifica C-H aromático, el pico más pronunciado que se ubica a 371 cm-1 apareció debido al Zn-O que conforman el ZnO presente en el nanomaterial sintetizado. La zona que se encuentra desde el enlace C-C hasta el C-H se les atribuye a los enlaces vibracionales de las moléculas orgánicas, así como el enlace más pronunciado se debe al enlace metálico de la nanopartícula. Por otra parte, en el análisis de DRX se mostraron los índices de Miller a 31.74° (100), 34.39° (002), 36.23° (101), 47.50° (102), 56.55° (110), 62.83° (103), 66.33° (200), 67.91° (112), 69.05° (201), 72.55° (004), 76.90° (202), los cuales tienen concordancia con la estructura hexagonal de Wurtzita que corresponde a NPs de Óxido de Zinc puro y por último, en el estudio de TEM se observó que existe aglomeración entre las NPs de ZnO biosintetizadas, también que tienen una forma cuasiesférica y una distancia aproximada de 10nm.
Durante la estadía de verano científico se logró recabar información de primera mano y muy confiable, gracias a nuestro asesor investigador el Dr. Manuel de Jesús Chinchillas Chinchillas. Con sus conocimientos pudimos desarrollar el proyecto de buena manera y así guiarnos por un camino de aprendizaje. Debido a la situación que atravesamos en este verano provocado por la pandemia de Covid-19 no se nos fue posible ingresar al laboratorio y experimentar de manera presencial. Pero también se propuso una metodología de trabajo a futuro que se realizará al reanudarse las clases presenciales. Este proyecto continúa con la aplicación de NPs de ZnO biosintetizadas con Turnera difusa en pastas de cementos con la finalidad de utilizarlas en la fotocatálisis y así poder eliminar contaminantes presentes en el agua. Cabe resaltar que en todo el proceso de verano científico, nuestro investigador siempre estuvo al tanto de nosotros mostrando mucho interés y experiencia en el área, por lo cual se le hace un agradecimiento especial.
Mosqueda Prado Jesus Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo
EMULSIóN INVERSA; MODIFICACIóN DEL ALMIDóN DE LAS SEMILLAS DE AGUACATE.
EMULSIóN INVERSA; MODIFICACIóN DEL ALMIDóN DE LAS SEMILLAS DE AGUACATE.
Mosqueda Prado Jesus Baltazar, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Nelly Flores Ramirez, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En promedio la vida útil de los plásticos es de 50-150años, y debido a sus grandes cantidades de desecho o a la quema de los mismos contribuyen al deterioro y contaminación de los los ecosistemas. Una alternativa para minimizar esta problemática es el desarrollo y obtención de bioplásticos. Un material a partir del cual se han centrado investigaciones es el almidón proveniente de diversas fuentes.
El almidón es muy utilizado en la industria alimentaria, debido a la diversidad de propiedades específicas que posee por los polímeros que la constituyen, debido a la viabilidad que tiene a ser modificado de manera física, químicas o enzimática se puede mejorar su utilidad en la industria. En este sentido, la semilla de aguacate representa una fuente de hasta un 40.69% almidón, varias investigaciones han centrado su en esta especie por su un alto rendimiento del fruto, por lo cual en esta investigación se ha enfocado el interés en la obtención de nanopartículas de almidón extraído de la semilla de aguacate como una alternativa para su uso como un bioplástico en la industria alimentaria.
METODOLOGÍA
Preparación de solución de almidón.
Una solución de almidón al 1% (p / v) se preparó mediante la disolución de 0,5 g de polvo de almidón en 50 ml de una solución 0,5 M de NaOH. La mezcla se calentó a 80ºC en un baño de agua durante 1 hora con agitación magnética hasta que todo el polvo de almidón se disolvió completamente y se obtuvo una solución de almidón homogénea. Esta solución de almidón se enfrió luego a temperatura ambiente.
· Nanoprecipitación sin sistema de microemulsión
Se formaron nanopartículas de almidón cuando se añadió gota a gota 1 ml de solución de almidón a 20 ml de solución de etanol absoluto, con una agitación magnética de 900rpm durante 1h, esto para mejorar el tamaño y la morfología de las nanopartículas de almidón.
Nanoprecipitación en microemulsión
Se añadió gota a gota 1 ml de solución de almidón a una fase oleosa (15 ml de ciclohexano, 5 ml de etanol y tensioactivo) con agitación magnética a 900 rpm durante 1h.
Emulsión Inversa y modificación del almidón con GMA
Se solubilizó el almidón (4 g) en una mezcla de agua destilada con Dimetilsulfóxido a una proporción 1:1 a 80ºC con agitación constante. Una vez completa la solubilización, la temperatura se reduce a 60ºC y el pH se ajusta a 10.5 con solución de NaOH. Se añade Glicidil metacrilato (GMA)a la reacción, que se mantiene bajo agitación mecánica a 60 ◦C durante 24 h. El almidón obtenido se recupera por precipitación en etanol, se lavó y se centrifugó repetidas veces con etanol para eliminar por completo los materiales que no han reaccionado, y eliminar el etanol remanente.
CONCLUSIONES
Los materiales obtenidos fueron caracterizados estructuralmente por Espectroscopía FTIR a partir de lo cual se observó que el espectro correspondiente a las nanopartículas de almidón obtenidas por nanoprecipitación mantienen una estructura química acorde a la materia prima. En la región de 3603 cm-1 se observó una amplia banda de absorción proveniente de grupos hidroxilo, la señal a 2914 cm-1 corresponde a grupos metilenos -CH2 , la señal a 1586 cm-1 al grupo carbonilo (C=O) y las señales a 1162 y 1032 cm-1, corresponden a la vibración del grupo C-O-C, señales características del almidón.
En el espectro infrarrojo de las nanopartículas formadas por emulsión se observó el desplazamiento de la frecuencia 1586 cm-1 a 1614 cm-1 característico de grupos carboxílicos debido a la presencia del surfactante (Span 80). En contraste, en el espectro del almidón modificado apareció una nueva señal en la frecuencia de 1716 cm-1 indicativo al estiramiento del grupo carbonilo del éster, lo cual se debe a su interacción con el GMA. También se observaron desplazamientos de las señales a 1634 cm-1 de grupos C=C y 1073 cm-1 de C-O-C causado por modificaciones en las unidades de anhidroglucosa del almidón. Los resultados sugieren que el almidón extraído de la semilla de aguacate es factible a ser modificado morfológica y estructuralmente y asi se potencializa su uso en la industria y en la nanotecnología, con un a porte ecológico.
Mujica Gómez Valeria, Instituto Politécnico Nacional
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
CARACTERIZACIóN DE MéTODOS DE DETECCIóN DE PEVEE
Franco Enríquez Catalina, Universidad Autónoma de Occidente. Miranda Albiter Ervyn, Instituto Politécnico Nacional. Mujica Gómez Valeria, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El proyecto se basa en utilizar las Interfaces Cerebro-Computadora (BCI), para medir las señales electroencefalográficas y así convertirlas en salidas las cuales sean interpretadas en el uso de tecnologías de apoyo para las personas. En el proyecto se utilizan los potenciales evocados visuales en estado estable los cuales son registrados en la zona occipital del cerebro y se presentan mediante estímulos visuales; se le realizará la debida extracción de características y preprocesamiento con el fin de reducir en mayor medida los falsos positivos para prevenir riesgos que estos puedan generarse cuando un paciente hace uso de esta tecnología.
METODOLOGÍA
El modelo funcional está compuesto por un estimulador visual, una etapa de adquisición de biopotenciales, una etapa de procesamiento y por último el generador de comandos que manejará el dispositivo de asistencia al usuario.
Lo primero que se realiza es la adquisición de las señales a partir de la estimulación por medio de diferentes frecuencias; continúa el preprocesamiento de los datos para reducir artefactos, se procede a implementar la extracción de características, se clasifican y por último se efectúa el sistema de control.
CONCLUSIONES
Los registros se dividieron en cinco participantes, en donde nosotros únicamente estamos analizando al participante número dos, nos apoyamos de dos herramientas que son la matriz de confusión y la curva ROC.
Un parámetro para evaluar la eficacia de la prueba en la curva ROC es el área bajo la curva que tomará valores entre 1 (prueba perfecta) y 0,5 (prueba inútil).
En la matriz de confusión se obtienen verdaderos positivos y negativos, y falsos positivos y negativos en donde el mejor clasificador obtuvo 104 verdaderos positivos de 135 trials.
El modelo que tuvo más acierto fue el de regresión logística el cual se trata de un modelo de probabilidad lineal, en el que la probabilidad condicionada es función lineal de los valores de las variables de entrada. Por tanto, obtenemos la probabilidad de que la variable dependiente tenga un valor categórico u otro (0 o 1) debido a que es un clasificador binario.
Finalmente observamos que al realizar las pruebas de clasificadores con cada una de las frecuencias observamos que las primeras (5-7 Hz) y últimas (15-30 Hz) obtuvieron un menor porcentaje de exactitud, y entre 8-12 Hz se obtuvieron porcentajes más altos.
Y que al eliminar los trials con ruido obtenemos menores porcentajes de exactitud en los clasificadores.
De igual manera al analizar los datos obtenidos del estudio de modelos de clasificación, observarmos que las frecuencias de mayor exactitud son aquellas que forman parte de las ondas alfa y beta, relacionadas a actividades cerebrales de concentración y meditación que se relacionan de manera directa con el ensayo experiemental del cual se obtuvieron las bases de datos, de esta manera intuimos que los resultados obtenidos mantienen cierto grado de veracidad respecto a la relación que encontramos entre nuestros resultados y las referencias relacionadas al tema.
Muñiz Montero Rafael, Instituto Politécnico Nacional
Asesor:Dr. Erik Ramirez Morales, Universidad Juárez Autónoma de Tabasco
ÓXIDO DE TITANIO CON METALES DE TRANSICIóN EN CELDAS SOLARES SENSIBILIZADAS
ÓXIDO DE TITANIO CON METALES DE TRANSICIóN EN CELDAS SOLARES SENSIBILIZADAS
Muñiz Montero Rafael, Instituto Politécnico Nacional. Asesor: Dr. Erik Ramirez Morales, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
El desarrollo de las energías renovables, hablando específicamente del aprovechamiento de la energía solar para generar energía eléctrica mediante celdas fotovoltaicas no ha parado desde su creación. Hoy en día las celdas solares tradicionales utilizan silicio como componente principal, pero presentan un inconveniente bastante fuerte relacionado con su costo de implementación contrastado con su relativo bajo rendimiento, en comparación de otras fuentes de energía.
Lo que se busca utilizando las celdas solares sensibilizadas con colorantes es una alternativa que pueda minimizar el costo de producción de las celdas solares convencionales, y utilizar el TiO2 como semiconductor ha sido una alternativa de las que han rendido de mejor manera para este tipo de celdas, teniendo la gran ventaja de ser uno de los compuestos mas comunes en la tierra, por lo que su uso a gran escala haría este tipo de celdas incluso más baratas y viables económicamente para su implementación en más espacios donde actualmente no se tienen contempladas.
A su vez estás celdas aún no cuentan con la capacidad para igualarse a las de silicio, por lo que se busca su implementación con metales de transición para aumentar sus propiedades fotoeléctricas.
METODOLOGÍA
Para hacer una celda fotoeléctrica de tipo sensibilizada por colorante, que también es llamada Celda de Graetzel (debido a su creador) es, visto de manera burda como hacer un sándwich, del cual el pan de abajo (la base) sería el contraelectrodo, siendo el Platino (78) el material por excelencia para esto, pero pudiendo ser sustituido por una opción más económica como el carbono de grafito.
El siguiente nivel de la celda corresponde al electrólito, que haciendo símil al sándwich correspondería al aderezo. Este electrolito debe cumplir con un potencial Redox mayor en energía al nivel HOMO del colorante sensibilizador, esto para que la reducción del colorante sea termodinámicamente favorecida. Para esta parte lo más común es utilizar ioduro (I-).
Para el tercer nivel es donde entra el colorante en acción, vendría a ser el jamón de nuestro sándwich. El colorante en la celda se encarga de absorber los fotones de la radiación solar, para lo que el colorante debe absorber dentro de todo el espectro visible y cierta parte del espectro infrarrojo de modo que pueda absorber la mayor parte de la radiación. Además, debe cumplir con la condición de que el valor del LUMO debe estar por encima del valor de la banda de conducción del electrodo semiconductor, y el valor del HOMO debe estar por debajo del potencial redox del electrolito. Todo esto para que pueda transferir el electrón excitado a la banda de conducción del fotoelectrodo y a su vez regenerarse por medio del electrolito.
Y la tapa del sándwich es la parte donde está investigación se enfoca principalmente, es decir el fotoánodo, la función de este es facilitar la colección de luz y proveer de un transporte efectivo de electrones, sus características idealizadas son las siguientes:
+Tener un área superficial grande para facilitar la adsorción de una buena cantidad de moléculas de colorante.
+Ser transparente en la región visible del espectro para minimizar la perdida de los fotones.
+Tener una banda de conducción suficientemente abajo del LUMO del colorante para una inyección adecuada de los electrones fotogenerados.
+Tener excelentes propiedades optoelectrónicas para el transporte eficiente de electrones.
+No ser activo al electrólito redox
Su principal función es ser el soporte para el colorante, pero sobre todo transferir los electrones al sustrato conductor.
Para esta función se han evaluado materiales muy variados entre los que estan el TiO2. Para el caso de esta investigación se evaluaron las características del TiO2 con nanopartículas de un metal de transición como el Platino (Pt).
Utilizando el metodo de Sol-Gel de recubrimiento por imersión se consiguió hacer 2 peliculas con concentración de platino de 0.5% y 1%, para comparar con una tercera película de exclusivamente TiO2, todas estas con una morfología, estructura y caracterización optoeléctrica bien lograda.
A estas 3 diferentes películas se les fueron realizadas pruebas de exposición de luz para obtener sus propiedades cualitativas con respecto a esta.
De estas pruebas se obtuvieron resultados positivos como:
+El aumento de la fotorespuesta en función del aumento de proporción de partículas de Pt en la película.
+Un aumento en los valores de fotosensibilidad bastante considerable siendo 144, 980 y 1380 para 0%,0.5% y 1% respectivamente, lo que muestra un claro aumento de la fotosensitividad.
+Un gran descenso en los valores de resistencia entre los que tienen las nanopartículas de platino, valor que disminuye hasta 3 ceros cuando este está expuesto a la luz.
CONCLUSIONES
Cuando las películas son alteradas con nanopartículas de Platino, la corriente incrementa con respecto a la presencia de luz en esta. Esto puede ser debido a las siguientes razones, la disminución de la resistividad debido a la incorporación del Platino en el Oxido de Titanio que permite una mejorada conducción de corriente en los electrodos, y como la porosidad de la película disminuyo con la adición de platino para una mejor absorción de luz.
El desarrollo de las celdas sensibilizadas aún está lejos de alcanzar a las celdas de silicio convencionales, pero estoy convencido en que el futuro de las celdas solares se encuentra en estas celdas orgánicas, y que para eso la investigación de estás y más formas de optimizarlas no debe cesar.
Muñoz López María Marlene, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
ROBóTICA EDUCATIVA
ROBóTICA EDUCATIVA
Muñoz López María Marlene, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Hoy en día a los niños y jóvenes les interesa mucho la tecnología pero no tienen suficiente conocimiento de cómo funcionan las cosas o cómo se construyen. Lo que se busca es despertar el interés en los jóvenes por la electrónica y robótica otorgándoles guías detalladas para que puedan desarrollar sus propios robots.
De la misma manera se incentiva el uso de materiales reciclados para realizar sus robots y que los costes sean accesibles.
Por otro lado estos robots pueden ser usados por profesores debido a que en muchas aulas escolares al alumno le cuesta trabajo entender algún tema por cuestiones de falta de atención lo que provoca que en las evaluaciones no tengan los suficientes recursos para sentirse seguros y poder presentar un buen examen.
Los robots realizados en esta estancia pueden ser utilizados para enseñar a jóvenes y niños algún tema en particular curricular o extracurricular. Para tener alternativas de enseñanza didáctica y lograr que a los estudiantes se les facilite el estudio.
METODOLOGÍA
Se realizaron 4 proyectos a lo largo de la estancia aumentando el grado de dificultad en cada uno de ellos.
Primero se tiene un Robot ahorrador el cual tiene como finalidad de acercar a los niños y adolescentes hacia la ciencia fomentando también el hábito del ahorro de una forma divertida y didáctica.
Se destinaron dos módulos de la estancia para tener un curso del simulador Thinkercad y conocer un poco del lenguaje de programación de Arduino. Estos módulos fueron útiles y se realizó una práctica libre de algún proyecto simulado para terminar de identificar la comunicación entre Arduino y sus distintos sensores. Obteniendo cómo resultado un modelo de una alarma de seguridad mediante un sensor de movimiento.
Con los conocimientos obtenidos anteriormente se realizó un triciclo con dos modelos diferentes controlado por botones de manera alámbrica y uno inalámbrico por medio de un control remoto. En esta parte se realizó una investigación extensa para realizar y construir una guía de secuencia didáctica con un fin educativo para que cualquier persona que tenga interés se pueda guiar de ella, usarla tal cual o realizar sus propias modificaciones.
CONCLUSIONES
Durante el transcurso del verano se logró adquirir conocimientos básicos de programación y electrónica, se reforzaron los que ya se tenían. Se logró analizar los objetivos y la utilidad que se le puede dar a cualquier robot, buscando un fin específico llegando a solucionar distintas necesidades en el entorno social. Se ha documentado todo lo realizado en la siguiente página https://sites.google.com/view/veranodeldelfin2021/inicio/robotica-educativa/marlene/alarma-de-seguridad para que cualquier persona tenga acceso a ella.
Muñoz Primero Elias, Instituto Politécnico Nacional
Asesor:Dra. Cleofe Genoveva Alvites Huamani, Universidad César Vallejo
APLICACIóN WEB PARA EL CONTROL DE EMOCIONES EN INFANTES DE EDUCACIóN PRIMARIA.
APLICACIóN WEB PARA EL CONTROL DE EMOCIONES EN INFANTES DE EDUCACIóN PRIMARIA.
Muñoz Primero Elias, Instituto Politécnico Nacional. Asesor: Dra. Cleofe Genoveva Alvites Huamani, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
La pandemia por la Covid-19 ha generado una serie de cambios en los diversos campos educativos, profesionales y empresariales y con ello también afectaciones a nivel emocional, sobre todo en los estados de ánimos de la población en general. Con base en lo reportado por la Organización de las Naciones Unidas en el 2020, las enfermedades mentales se han vuelto una epidemia silenciosa que afecta a las personas en varios rangos de edad, destacando que, los infantes son víctimas principales de sufrir ansiedad y depresión. Conjuntamente, el organismo español SEPEA menciona que la prevalencia de los trastornos de ansiedad infantil oscila entre un 3% hasta un 21% a nivel mundial. De este sector de la población, se menciona que alrededor de un 33% cumplen con criterios para dos o más trastornos de ansiedad. En México, se reporta que alrededor del 18% de todos los menores de edad registrados, presentan padecimientos de ansiedad y depresión. De igual forma, la depresión y el riesgo suicida son problemas que se encuentran en aumento, debido a que, se estima que, en el 2020 sucedían aproximadamente 52 suicidios infantiles al mes.
No obstante, existen alternativas que buscan mitigar este problema, siendo una de ellas la denominada Telepsicología. Esta se define como la prestación de servicios psicológicos empleando tecnologías de la información y de la telecomunicación, mediante el procesamiento de la información por medios eléctricos. Igualmente, las terapias de ayuda psicológica a distancia vía internet han comenzado a demostrar eficacia y se están convirtiendo en un complemento debido al aumento en su uso y la accesibilidad. De este modo y con el objetivo de generar una herramienta de contención al problema, se implementó una aplicación web enfocada en apoyar, intervenir y educar las emociones en los menores de edad, mediante módulos conformados por dos sesiones; dichos módulos se enfocan principalmente en tres aspectos: ansiedad, depresión y riesgo suicida. El software mencionado lleva por nombre EDUCOEMOCIONES, fue desarrollado bajo un esquema de metodología ágil, siguiendo directrices éticas y sustentables, de los cuales destacan los Objetivos de Desarrollo Sostenible (ODS). Estos objetivos se gestaron en la Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible, con el fin de mitigar la pobreza, proteger el planeta y garantizar paz y prosperidad mundial, por lo que se tomó la ODS tres, relacionada a salud y el bienestar, complementando con aspectos éticos en la investigación.
METODOLOGÍA
Para la organización del tiempo del presente trabajo, se utilizó la metodología ágil denominada Kanban.
Kanban es una palabra de origen japonesa formada por Kan, cuyo significado es visual y por la palabra Ban que significa tarjeta. Por lo tanto, Kanban hace referencia a las tarjetas visuales. Esta metodología funciona como un tablero el cual será dividido en cinco columnas, de las cuales, dependiendo la tarea que se realice en la fecha o momento correspondiente, se asignará como lo indica su descripción en dicha columna (Tarea por hacer, trabajando, en espera, probando y realizada). Se decidió trabajar con esta metodología debido a que este proyecto lo realizo solo una persona, por ello, se busca minimizar el estrés de planificación, utilizando un principio de fluidez, flexibilidad y mejora continua.
Las tareas o módulos (las tarjetas para el Kanban) que se plantearon fueron las siguientes:
Análisis de las tecnologías pertinentes para el proyecto.
Diseño de la interfaz gráfica y repositorio de datos.
Desarrollo y programación.
Pruebas unitarias y de sistema.
Análisis de los resultados obtenidos.
Elaboración de protocolo y artículo de investigación
Las tecnologías implementadas para el software fueron las siguientes:
HTML5
CSS3
JavaScript ECMA 6
Flask con Python 3.9.2
SQLite 3
Se implemento un servidor local en la computadora del estudiante mediante un entorno virtual a través del framework Flask para Python. De esta manera, se realizó un hosting en la plataforma NO-IP por un periodo de prueba de 30 días, esto con el objetivo de que los infantes tuvieran acceso al software.
En lo que corresponde al desarrollo del software se implementó el patrón de arquitectura de software llamado MVC. Este patrón de diseño separa los datos y principalmente lo que es la lógica de negocio de una aplicación de su representación y el módulo encargado de gestionar los eventos y las comunicaciones.
CONCLUSIONES
Al finalizar las actividades se logró diseñar e implementar la aplicación web EDUCOEMOCIONES como un primer prototipo. Se corroboro la relevancia que cobran proyectos interdisciplinarios al momento de ser guiados a través de aspectos éticos y objetivos de desarrollo sostenible (ODS 3), y siguiendo principios básicos de ética en la investigación, como el respeto por las personas, para lo cual el software no recoge ni imágenes ni ningún aspecto personal de los usuarios, no causa daño a la persona (beneficencia), brinda un trato igualitario a cada uno de los usuarios del software (Justicia), además los participantes no corren ningún tipo de riesgo. Por lo que la usabilidad del software EDUCOEMOCIONES al finalizar la estancia tuvo una respuesta del 100% en el rubro de efectividad, 85% de eficiencia y un 77.77% en satisfacción con base en el estándar ISO 9241-11. En este se definen y miden únicamente conceptos a nivel técnico de efectividad, eficiencia y satisfacción.
El proyecto EDUCOEMOCIONES, el cual es autoría de la investigadora principal Dra. Cleofé Alvites Huamaní, de la Universidad César Vallejo como parte del Programa Delfín 2021, capítulo Perú, línea de investigación Innovaciones Pedagógicas (Tecnologías aplicadas a psicología y psicología general), y con la colaboración del pasante Elías Muñoz Primero, Instituto Politécnico Nacional, quien hizo la implementación y desarrollo del software en el primer prototipo.
Muñoz Tapasco Sergio, Universidad Tecnológica de Pereira
Asesor:Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango
DISEñO DE UNA PCB PARA EL CONTROL DE UN JUGUETE
DISEñO DE UNA PCB PARA EL CONTROL DE UN JUGUETE
Muñoz Tapasco Sergio, Universidad Tecnológica de Pereira. Asesor: Dr. Miguel Angel Limón Díaz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Las placas de circuito impreso (PCB por sus siglas en ingles Printed circuit board), son soportes físicos de múltiples componentes electrónicos u eléctricos que se encuentran conectados por cables o líneas guías, que permiten identificar que elemento depende del otro y permite guiar al usuario al momento de conectar cada elemento en la PCB usando una serie de pistas conductoras de cobre muy finas y de un solo carril o camino, que se encarga de conducir la energía necesaria para que cada elemento pueda funcionar de manera correcta, la construcción de estas pistas depende de los requerimiento de voltaje y corriente necesitados para el funcionamiento de los elementos.
En el mundo cerca de 360 millones de personas, sufren de alguna discapacidad auditiva, y en esta población cerca de 32 millones son niños según los últimos reportes de la organización mundial de la salud (OMS). La discapacidad auditiva se refiere a la falta o reducción de la habilidad para oír claramente debido a un problema en algún lugar del mecanismo auditivo. Cuando una persona es sorda, o presenta alguna discapacidad auditiva, se ve en la necesidad de recurrir a alternativas tecnológicas o médicas que le permitan compensar su deficiencia, para desarrollar sus actividades diarias o para entender la información que llega a ellos.
Al padecer esta condición los niños presentan una gran barrera en su aprendizaje ya que no puede ser igual al de las personas que no la presenta. Por lo mismo la idea de desarrollar un juguete que les permita aprender los números y el abecedario se planta como una solucion llamativa y económica frente a instrumentos que se encuentran en el mercado y cumple funciones similares.
METODOLOGÍA
La investigación del desarrollo del juguete tiffli esta bastante avanzada, por lo que mi participación se enfocó en el diseño de la PCB que va a controlar el juguete, para esto se tuvo en cuenta un diseño esquemático realizado por el investigador que contiene los elementos que permitirán el funcionamiento del juguete. Estos estos elemento son: Finales de carrera, push bottom, un sensor de mercurio, un Arduino nano, una batería lipo, un módulo de carga de batería, un módulo mp3, una mini bocina, un conector dc, Mini switch. Teniendo en cuenta los elementos y el circuito esquemático entregado, se procede a hacer un montaje en el software de diseño de PCB ALTIUM DESIGNER.
CONCLUSIONES
Durante la estancia de verano se logró adquirir y reforzar los conocimientos teórico prácticos asociados al diseño de PCBs, de forma que se lograron poner practica al trabajar el diseño de un circuito que permita el control y funcionamiento del juguete Tifli. Es un inconveniente no poder contar con el prototipo del juguete para observar las conexiones y cables a usar de una mejor forma, pero se espera el juguete sea completamente funcional.
Naar Pupo Balbanera, Fundación Universitaria Tecnológico Comfenalco
Asesor:Mtro. Angel Mario Alfonso Garcia, Instituto Tecnológico Superior de Las Choapas
DESCRIPCIóN DE LAS CARACTERíSTICAS DE UTILIZACIóN DE LOS SGSST, CON EL FIN DE DISCUTIR SU INTERéS Y LOS LíMITES PRáCTICOS.
DESCRIPCIóN DE LAS CARACTERíSTICAS DE UTILIZACIóN DE LOS SGSST, CON EL FIN DE DISCUTIR SU INTERéS Y LOS LíMITES PRáCTICOS.
Naar Pupo Balbanera, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtro. Angel Mario Alfonso Garcia, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
El ser humano siempre ha estado expuesto al peligro tanto en su vida cotidiana como en su vida laboral, por ello, desde la antigüedad el ser humano ha necesitado protegerse; sin embargo, cuando estos incidentes o condiciones de riesgo se limitan al trabajo, históricamente los temas de producción son más importantes que los temas de seguridad.
Por lo anterior, en la actualidad rigen muchas normativas en pro de la seguridad y salud de los trabajadores, así como también un sistemas de gestión que tiene por objeto proporcionar un método para evaluar y mejorar los resultados en la prevención de los incidentes y accidentes en el lugar de trabajo por medio de la gestión eficaz de los peligros y riesgos en el lugar de trabajo.
Teniendo en cuenta lo anterior, cabe mencionar que para desarrollar un sistema de gestión dentro de una empresa, se debe tener en cuenta principalmente la naturaleza de la misma y su tipología, debido a que cada una de las empresas tienen diferentes actividades y por ende, se enfrentan a diferentes riesgos y en distintos grados. Así mismo, se tiene en cuenta el departamento de la empresa al cuál va dirigido de ser el caso, debido a que los distintos ambientes de trabajos son factores determinantes frente a los riesgos a los que estan expuestos los trabajadores. Dentro de la clasificación de las empresas según su actividad económica se encuentra: sector primario (agricultura, ganadería, pesca, etc), sector secundario (empresas de manufactura) y sector terciario (empresas de servicio como turismo, salud, transporte, etc).
Por consiguiente, analizando la anterior información que cada una de las empresas dependiendo de su actividad comercial, puede tener diferentes riesgos laborales, por ello, esto genera en los investigadores inquietudes acerca de las metodologías aplicables para la implementación de los Sistemas de Gestión de Seguridad y Salud en el Trabajo (SGSST) y a su vez, la importancia de estos en las organizaciones.
METODOLOGÍA
Para el desarrollo de esta investigación, en primera instancia se seleccionan las bases de datos en donde se extraera la información de documentos referentes a los modelos característicos de aproximaciones de los SGSST en las empresas: ideólogico, innovador, cascada y aplicado, en fuentes como libro y artículos científicos, para así llegar a obtener la información adecuada para lo planteado. Luego, se registra y se almacena la información anteriormente seleccionada, donde se describiran sus características, ventajas y desventajas de los mismo.
Posteriormente, se examinan las consecuencias del anclaje en la concepción tayloriana de las empresas en los SGSST, para ello, se debe hacer un recorrido por la historia para así determinar el impacto que ha tenido la cultura tayloriana con respecto a la inplementación de un SGSST en la actualidad.
Por último, se proponen algunas recomendaciones para facilitar la implementación y aplicación de SGSST en una organización, donde se tienen en cuenta los siguientes aspectos:
Análisis de las políticas de seguridad y salud en el trabajo.
Organización del sistema.
Coordinación y realización de evaluaciones médicas y condiciones de trabajo.
Evaluación del Sistema
Acción para la mejora
CONCLUSIONES
A partir de las características descritas de los modelos para implementar un SGSST, se puede concluir que, los modelos más eficiente son el modelo ideologico y el modelo aplicado, debido a uno integrar SST en el comportamiento del personal y el contribuye a progresar favorablemente el desarrollo de los aspectos de prevención. Así mismo, si se implementa el modelo innovador, garantiza un amplio y preciso análisis de los riegos, sin embargo, puede volverse costoso mantener en el tiempo el sistema en el mismo nivel de desempeño inicial. Por otro lado, el modelo menos eficiente es el de cascada, debido a que estos no analizan todos los riesgos que se puedan presentar en la empresa, sino solamente los más evidentes.
La existencia de este Sistema de Gestión al interior de la empresa no evita la ocurrencia de algún incidente o accidente laboral ni se constituye en un blindaje ante una emergencia; es un documento verídico, aplicable y verificable que busca la prevención y minimización de los factores de riesgo. Sin embargo, al complementarlo con el los principios del taylorismo se podrían evidenciar un aumento de la productividad en la organización y a su vez, apunta directamente también a las condiciones de trabajo de los empleados.
De acuerdo al objetivo de las recomendaciones para implementar Sistema de Gestión de Seguridad y Salud en el Trabajo (SGSST), se concluye que su diseño puede tener alguna modificación, intervención en su conformación, debido a que el mismo Sistema le permite mediante un procedimiento de gestión del cambio, realizar las sustituciones necesarias para hacerlo preciso al requerimiento de la empresa. Cabe destacar, que lo anterior se puede determinar mediante el estudio y el análisis de la misma y así adoptar el mejor modelo para la empresa.
Nahuatt Hernandez Doris Yanel, Instituto Tecnológico Superior de Los Ríos
Asesor:M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
FACTIBILIDAD PARA LA IMPLEMENTACIÓN DE LA HARINA DE COCO EN BALANCAN TABASCO
Guerrero Ceron Isarel, Instituto Tecnológico de Pachuca. Macdonal Lizcano Dieter Jazen, Instituto Tecnológico Superior de Los Ríos. Nahuatt Hernandez Doris Yanel, Instituto Tecnológico Superior de Los Ríos. Asesor: M.C. Magdalena Vera Morales, Instituto Tecnológico Superior de Los Ríos
PLANTEAMIENTO DEL PROBLEMA
El aumento de personas enfermas se ha visto incrementando los últimos años ya sea por causas internas o externas, entre ellas están las enfermedades digestivas que son trastornos del aparato digestivo.
En México las enfermedades gastrointestinales son uno de los principales problemas de salud en México, ya sea por la ingesta de líquidos o alimentos contaminados, afectando principalmente a la población infantil, aunque también están los casos de enfermedades digestivas por causas de alimentos que tienen ciertas reacciones adversas como puede ser el gluten que son: dolor persistente en la zona abdominal, diarrea frecuente, dolor de cabeza, fatiga, estreñimiento entre otros.
El problema de esta proteína es que se encuentra en el trigo, que es la base en la elaboración de harinas y se usa en la comida mexicana siendo esto un producto indispensable, estas enfermedades se conocen como “enfermedad celiaca”. En México se estima que más del 2% de la población padece esta enfermedad, mientras que el 0,9 % alergia al trigo y la sensibilidad al gluten no celiaca varia de 1 hasta 25% en ciertos grupos de poblaciones
METODOLOGÍA
Encuesta: La encuesta permitió conocer las motivaciones, actitudes y opiniones de los individuos, con relación a la oferta de un nuevo tipo de harina elaborada a base de harina de coco. La encuesta que se aplicó está estructurada: Si consume harina, gustos por tipos de harina, lugar y frecuencia de compra, precio que paga por kilo; expectativas por la oferta de una nueva harina en el mercado. al igual que sus subproductos, además si presentaban problemas con algunas proteínas que poseían son la glucosa y que otras variantes presentan.
En base a los resultados se observó que el 29% de los entrevistados presentan problemas con el gluten, por lo que se comparó el trigo el ingrediente más utilizado en harinas y consumido por la población de Balancán, Tabasco.
Siendo el coco el más recomendable, por su alto grado de vitaminas como son: ácido fólico, vitamina C, vitamina E, magnesio. Una vez obtenido los datos y considerando los beneficios se procede a la transformación del fruto entero (carne) a un polvo blanco fino.
A continuación, se presenta detalladamente paso a paso el proceso productivo:
Recepción de materia prima: En este primer paso se recepta la materia prima, que está comprendida por los cocos secos, mismos que son almacenados.
Verificación de materia prima: Una vez receptada la materia prima se procede a la verificación de la misma, en donde se inspecciona de que el coco no esté abierto o en mal estado.
Lavado: Luego de haber inspeccionado los cocos, se procede al lavado del mismo eliminando toda impureza, al mismo tiempo ablanda la cascara del coco.
Pelado del coco: Consiste en sacarle la cascara externa al coco, para lo cual se hace uso de un cuchillo, una vez sacada la cascara se procede a partir el coco a la mitad, quedando listo para la extracción de la pulpa.
Extracción de la pulpa: se realiza manualmente con el uso de un cuchillo.
Deshidratación de la comida de coco: Una vez obtenida la pulpa se procede a la deshidratación de la misma, para ello se usa un horno deshidratador, en donde la pulpa de coco es colocada en bandejas y permanece por 60 minutos.
Molido: Concluida la deshidratación, se procede al molido, donde luego de eso se obtiene la harina.
Verificación de materia prima molida: Una vez obtenida la harina de coco se procede a la verificación de la misma, para garantizar la calidad del producto, así como sus características idóneas.
Dosificación, empacado y etiquetado: Aquí se procede a realizar una dosificación, es decir separar la cantidad exacta de producto que ira dentro de cada funda para proceder a empacar la harina de coco y se realiza el etiquetado con toda la descripción del producto.
Almacenamiento: El almacenamiento se lo realizara en un lugar que esté libre de humedad y exceso de calor.
Salida del producto: Elaborado y etiquetado el producto, queda listo para su respectiva distribución en las bodegas y autoservicios de la ciudad de Balancán, Tabasco.
CONCLUSIONES
Elaborado el presente Proyecto de Factibilidad para la Implementación de Harina de Coco en la Ciudad de Balancán, Tabasco, se ha llegado a establecer las siguientes conclusiones:
El proyecto está elaborado con el fin de promover el desarrollo empresarial con un producto nuevo e innovador en el mercado del municipio, creando fuentes de trabajo además se considere en su dieta diaria la harina de coco. Debido a que es una alta fuente de proteína, libre de gluten, siendo ideal para personas hipo alergénicas.
Que los consumidores opten por este nuevo producto como lo es la harina de coco misma que estará a disposición en bodegas y autoservicios más cercanos a su domicilio de calidad, higiene y buen precio, ofrecida por una nueva empresa local.
Naranjo Sepúlveda Valeria, Universidad de Manizales
Asesor:Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
ANÁLISIS EXPLORATORIO DE DATOS DE LA VIOLENCIA INTRAFAMILIAR EN MEDELLIN
ANÁLISIS EXPLORATORIO DE DATOS DE LA VIOLENCIA INTRAFAMILIAR EN MEDELLIN
Naranjo Sepúlveda Valeria, Universidad de Manizales. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, al tener la posibilidad de acceder a una gran cantidad de datos y herramientas como el análisis de datos, se puede usar en cualquier ámbito que se desee para convertir estos datos en información que facilite la toma de desiciones o dé una perspectiva más amplia del tema. Precisamente, la violencia intrafamiliar es un problema social y de salud que se presenta en todos el país, y Medellín no se escapa. Siendo así, se decidió usar estas herramientas para analizar el comportamiento y frecuencia de estos en la base de datos elegida, en una forma más dinámica de ser leída.
METODOLOGÍA
La metodología aplicada fue análisis descprito, para esto se siguió una serie de pasos:
Recolección de datos: Estos fueron descargados de la página pública de Medellín (medata.gov.co), donde se elegió el dataset en formato csv.
Limpieza de datos: Con el fin de mejorar la calidad de los datos, se realiza una limpieza que busca eliminar datos faltantes, incompletos o repetitivos que puedan comprometer el resultado final, haciendo uso de Excel.
Análisis de datos: Las herramientas elegidas fueron Pyhton 3 como lenguaje de programación y Jupyter Notebook como entorno de desarrollo. Ambos permiten una mejor visualización de datos, y a través de código, realizar algunas figuras básicas que permitirán conocer elementos como la frecuencia.
Visualización de datos: Para esto, se eligió la herramienta PowerBI para crear un dashboard que muestra la información y el análisis de la misma, de forma más dinámica, con la posibilidad de profundizar en sus figuras.
Recopilación de información: Para finalmente presentar las conclusiones del análisis, se toma el tablero de datos resultantes del punto anterior, unido a la información explicada.
CONCLUSIONES
Del análisis realizado se ha logrado obtener unos resultados que permiten confirmar que las mujeres son las personas más afectadas por la violencia intrafamiliar, así mismo, las personas entre 35 y 38 años, esto según la frecuencia que denota el dataset. Así mismo, se podría confirmar que la mayoría de agresores cuentan con primaria o bachillerato como nivel académico. Todo esto brinda una perspectiva más amplia y precisa sobre los casos recogidos en este lugar específico, lo que permitirá tomar mejores decisiones.
Nava Frutos Diego, Instituto Politécnico Nacional
Asesor:Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez
OPTIMIZACIóN DEL CONTROL DE UN VEHíCULO NO TRIPULADO CON DOS GRADOS DE LIBERTAD
OPTIMIZACIóN DEL CONTROL DE UN VEHíCULO NO TRIPULADO CON DOS GRADOS DE LIBERTAD
Nava Frutos Diego, Instituto Politécnico Nacional. Asesor: Dr. Francisco Ronay Estrada López, Instituto Tecnológico de Tuxtla Gutiérrez
PLANTEAMIENTO DEL PROBLEMA
En un principio los vehículos aéreos no tripulados (UAV’s) fueron usados en fines militares, pero hoy en día son usados en diferentes actividades como fotografías aéreas, envió de correspondencia y alimentos, monitoreo, rescate, mapeo de terrenos, entre otras. Esto debido a que es necesario la combinación de muchos elementos y disciplinas de apoyo para que estos sistemas funcionen de manera autónoma, los cuales se han desarrollado en las últimas décadas.
Los helicópteros a escala son un modelo de vehículo aéreo no tripulado que ha causado gran interés por parte de la comunidad científica, debido a la gran influencia de los efectos aerodinámicos, al alto grado de interacción de sus variables y a sus características no lineales, que hacen que estos sistemas sean difíciles de maniobrar. Por lo tanto, sin una teoría de control bien desarrollada no se podrían tratar estos dispositivos de manera inteligente.
En este proyecto se pretende estudiar y controlar dos de los grados de libertad que posee un helicóptero, identificando un modelo matemático que represente al sistema, a partir del cual se diseñan diferentes estrategias de control, que son analizadas por medio de gráficas y simulaciones en un modelo tridimensional. También se pretende adquirir una base para el análisis de acontecimientos reales, una base racional para la planificación de pruebas y diseño de manera inteligente. Las cuales son necesarias para enfrentar cualquier tipo de problema en general.
Un helicóptero de dos grados de libertad es un mecanismo que consta de un cuerpo o estructura que está sujeta a un pivote central, sobre el cual se generan dos movimientos angulares, uno sobre el eje z llamado PITCH y el otro sobre el eje x llamado YAW. En cada extremo del cuerpo del helicóptero se encuentra un motor con una hélice acoplada, estos son los encargados de generar el empuje necesario para mover el sistema.
METODOLOGÍA
Para el desarrollo del proyecto, con respecto a la aplicación de la computadora, se buscó utilizar LabVIEW para así poder controlar y realizar la programación para el análisis de los datos, así como su respectivo almacenamiento de estos para su posterior análisis con otras herramientas, ya sea Matlab o el de preferencia del usuario.
En el caso del panel frontal del programa realizado en LabVIEW se buscó mantener un diseño lo más sencillo posible, así como intuitivo, de los controles e indicadores del YAW y PITCH del helicóptero, tomando como referencia la idea general de los controles utilizados en el modelo de helicóptero CE150, así mismo también se busco darle un aspecto de un tablero real de un helicóptero. Del lado de lo que viene siendo la programación de los controles, el diagrama de flujo, para poder tanto mantener la sencillez de los controles en el panel frontal, así como la facilidad de entender el diagrama de flujo de los controles, se opto por tener 2 distintos programas con sus respectivos diagramas de flujo, para así poder llamar en el diagrama de flujo principal dichos programas. En dichos programas es donde se ingresan datos como la ganancia proporcional, tiempo integral, tiempo derivativo tanto del YAW como del PITCH, pero como estos datos no se cambian constantemente, no era necesario incluirlos en el panel principal.
Con respecto de la parte de hardware, se utilizaron dos codificadores rotativos incrementales, los cuales se colocaron en la base y la parte lateral del modelo físico del diseño del helicóptero, los cuales sirven para medir el YAW y el PITCH, de dicho helicóptero, respectivamente; dichos codificadores se conectaron a un Arduino Mega, el cual es el microcontrolador maestro, ya que este se encarga de analizar los datos, como la posición en la que se encuentra el helicóptero utilizando la información de los codificadores rotativos, al igual que se encarga de recibir la información de la computadora, así como mandar información a esta misma, y también el Arduino Mega se encuentra conectado a un Arduino nano, el cual funge la función de ser el microcontrolador esclavo, ya que este se encarga de recibir la orden para ajustar la velocidad de los motores para así poder cambiar la posición del helicóptero. Para poder realizar la comunicación entre el Arduino mega y el programa realizado en LabVIEW se utilizo un DAQ 6009, le cual facilito el poder programar la comunicación entre el programa realizado y el microcontrolador.
CONCLUSIONES
Si bien el helicóptero ya está hecho físicamente, y cumple con la idea general de lo que se buscaba realizar, considero que este podría optimizarse para no que tenga un mejor funcionamiento, al igual que se pueda tener una mejor estética de este, al igual que se puede mejorar quitando componentes, o sustituyendo componentes, para que así se pueda mejorar tanto estética, económica y funcionalmente, pero para ello se requiere mas tiempo y seguir trabajando en el.
Nava Gutiérrez Edgar Alberto, Instituto Tecnológico de Toluca
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
DISEñO DE UN AUV CONTROLADO MEDIANTE 2 ALERONES ACTUADOS CON TURBINAS EN DIFERENCIAL
DISEñO DE UN AUV CONTROLADO MEDIANTE 2 ALERONES ACTUADOS CON TURBINAS EN DIFERENCIAL
Nava Gutiérrez Edgar Alberto, Instituto Tecnológico de Toluca. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La exploración acuática ha tenido una evolución al paso de los últimos años, donde los avances en los instrumentos de recopilación de información, como las innovaciones en tecnología embebida han facilitado la creación de sistemas más accesibles y con una mayor autonomía.
Los vehículos submarinos encontrados en el mercado como lo son ROV’s y AUV’s, suelen ser costosos y algunos pueden no estar completamente diseñados para el tipo de misión planteada, por lo que surge la necesidad de diseñar un AUV por sus siglas en inglés Vehículo submarino autónomo de un costo razonable y con los componentes adquiribles y fabricables que resulten más convenientes, además de que este debe ser lo suficientemente maniobrable para poder tener un mejor ángulo de visión durante su misión destinada la cual será la inspección de arrecifes en aguas someras.
METODOLOGÍA
Partiendo de una recopilación de información acerca del estado de la técnica donde se encontró formas de casco convenientes para vehículos submarinos, como lo son el tipo torpedo, gota, bio inspirados, entre otros y tomando en cuenta el problema de la exploración submarina a una profundidad esperada de hasta 4-5 m, además de emplear la configuración diferencial, ya vista en vehículos terrestres, para las turbinas del vehículo submarino donde se colocará una de cada lado y además podrán ser subactuadas para inclinarse hacia arriba o abajo, con el fin de que este sea lo suficientemente maniobrable para poder desplazarse y tener un buen ángulo de visión de los arrecifes.
Se generaron los diseños primitivos del casco, mismos partiendo de la ecuación de Myring con parámetros de un largo total de 437.5 mm y un diámetro de 72.56 mm para la forma tipo torpedo, haciéndose nuevamente para el de tipo prismático con largo de 291.66 mm y una altura de 96.733 mm, ambos utilizando un índice de nariz de 0.869, y de ángulo de cola de 16.07 grados, proporcionados de acuerdo a lo estudiado en el estado de la técnica, una vez se generaron ambas curvas sirvieron de base para generar el diseño de ambos cascos, esto con el fin de que el vehículo se pueda desplazar con la menor energía posible, permitiendo que sea más dinámico y que le sea sencillo abrirse paso bajo el agua.
Estos 2 prototipos conceptuales, torpedo y prismático (gota), ambos con diferentes proporciones y variantes de la ecuación independientes, fueron elaborados para contar con ambas alternativas y optar por la más viable, posteriormente se realizaron ajustes para que estos conceptos fueran más parecidos al resultado esperado, considerando el hecho de que fueran producidos en impresión 3D, por lo que los cascos se separaron en un subensamblaje de piezas fabricables y que facilitarían el ensamble, separándose en 3 segmentos principales, nariz, cuerpo y cola, con un ancho del casco de 3 mm para todas las paredes.
Lo siguiente que se realizó fue el diseño de los alerones del vehículo submarino, con un perfil obtenido a partir de la geometría NACA 16-006, tomando en cuenta que esto debía fusionarse con las turbinas, por lo que esta geometría recubre también la parte que contendrá a el motor de la turbina, esto tomando como referente a la turbina comercial T200 de Blue Robotics, por lo que fueron diseñadas con un largo de 170 mm para mantener una relación aproximada de 1:3 ya que el diámetro de la turbina es de 90 mm.
El trabajo restante constó de ir adaptando el casco y los alerones ya diseñados con los demás componentes, tomando consideraciones de viabilidad en la fabricación, administración de espacio, fijación, actuación y ensamble, así como los materiales y pesos de los componentes, como la batería PS-1220 de 2.5 Ah. seleccionada para ser suficiente para el consumo de la misión en 1-2 horas y a su tamaño adecuado que ocupa el espacio disponible del caso, los sistemas embebidos como los controladores ESC para los motores brushless de las turbinas F2838 de 350 Kv, y una tarjeta para controlar al robot, como un autopilot o una raspberry pi, entre otros de menor relevancia y que pueden ser sustituidos acorde a disponibilidad como las cámaras y sensores.
En esta última fase, se decidió descartar el concepto cilíndrico (torpedo) ya que una necesidad vital era volver completamente hermético el vehículo, y las necesidades de actuación tamaño y economía volvían complicado esto, cosa que el modelo prismático (gota), no encontró y que además su diseño al ser destinado a fabricar en impresión 3D aún puede ser adecuado y ajustado dependiendo de los componentes y variantes a los esperado en el diseño, sin dificultades ni necesidad de retrabajarlo.
Como prueba final se obtuvo el volumen del cuerpo total tanto de aire como el ocupado por el cuerpo del vehículo y el peso total del ensamblaje para saber si el vehículo tendría una flotabilidad positiva, negativa o neutral, para lo que el resultado arrojo una fuerza de flotabilidad de 35.531 N y un peso fuerza de 29.116 N (el cual podría variar, ya que el modelo está planeado para ser elaborado en impresión 3D y a ser recubierto con alguna resina o pintura impermeable que selle el casco por completo y las uniones del ensamble), dando como resultado una flotabilidad positiva, por lo que el vehículo tendería más a estar sobre la superficie, pero la brecha entre ambas es poca, por lo que con un poco de peso muerto sería capaz de encontrar la neutralidad y con la ventaja de tener el centro de masa al centro del vehículo, facilitaría su maniobrabilidad enormemente.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de conceptos relacionados con los vehículos submarinos y ponerlos en práctica con el diseño de un vehículo submarino destinado a tener autonomía y monitorear arrecifes, sin embargo, el trabajo quedó en la fase de diseño y no se puede probar de manera práctica el funcionamiento del vehículo en su entorno destinado, más allá de los cálculos realizados para sustentar el diseño. Se esperan que el vehículo sea viable para su posterior construcción y puesta a prueba, así como la programación de este y hacer consistente su autonomía.
Nava López Alan Javier, Tecnológico de Estudios Superiores de Chicoloapan
Asesor:Dra. Diana Milena Caicedo Concha, Universidad Cooperativa de Colombia
BIOGáS A PARTIR DE RESIDUOS LáCTEOS.
BIOGáS A PARTIR DE RESIDUOS LáCTEOS.
Nava López Alan Javier, Tecnológico de Estudios Superiores de Chicoloapan. Asesor: Dra. Diana Milena Caicedo Concha, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Los combustibles fósiles suministran aproximadamente el 80% de la energía mundial, estos recursos proporcionan electricidad y combustibles para el transporte cuya combustión produce dióxido de carbono, monóxido de carbono y otras emisiones de gases, los cuales contribuyen a generar y potenciar el efecto invernadero y la contaminación del aire, suelo. y agua esto representando una gran oportunidad para la producción de biogás a partir del suero de queso (CW) y su exploración en los países de México, Colombia y Reino Unido.
METODOLOGÍA
Se realiza una comparación en tres países sobre la producción de lácteos y el desperdicio de suero de queso para su aprovechamiento. El propósito de este estudio fue discutir críticamente el proceso de implementación del biogás a través del suero de queso. Para ello se realizó una revisión de literatura usando Scopus, en la cual se consideran cuatro documentos. Los documentos nos muestran el uso de Biotecnologías donde se ocupa la digestión anaeróbica (DA), es un proceso bien establecido para explotar el contenido energético del suero de queso. (CW) y se comenta la fermentación conjunta de orujo de uva y suero de queso y ofrece un enfoque viable para la producción de bioenergía y reduce la dependencia de combustibles fósiles no renovables.
CONCLUSIONES
Se hayo que el país que más ha avanzado en implementación de digestión anaerobia sobre el suero de queso es Reino Unido ya que cuenta con una lechería la cual fue la primera industria láctea en alimentar biometano generado a partir de los residuos del proceso de queso a la red nacional de gas en 2016. Sin embargo, México y Colombia Producen cantidades considerables de leche la obtención de energía a partir del suero de queso no ha sido ampliamente explorado.
Nava Miranda Alan Gabriel, Instituto Politécnico Nacional
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
REEFS EXPLORER FISH ROBOT “CIPACTLI PROJECT”
REEFS EXPLORER FISH ROBOT “CIPACTLI PROJECT”
Nava Miranda Alan Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La exploración de arrecifes de coral con propósitos científicos ha empleado principalmente humanos con trajes buzo para una inmersión prolongada, en la cual el observador carga un equipo sumergible para grabación y obtención de muestras de ser necesario. Esta práctica no se limita al uso de personas físicas, también se han empleado cámaras y equipos robóticos autónomos y de control remoto.
Estudios indican que la presencia de elementos ajenos al ecosistema incrementa el estrés de las criaturas habitantes del arrecife y por consecuente, se perjudica la extracción de datos precisos del comportamiento natural de los seres debido a las reacciones que toman ante la intrusión de las máquinas.
Con propósito de reducir la presencia humana en estos ecosistemas, investigadores han optado por emplear robots submarinos propulsados por motores y propelas, siendo estos también causantes de estrés y comportamientos anormales por parte de la vida habitante de la zona.
Esta problemática ha impulsado la búsqueda de métodos más adecuados para obtener los datos deseados, siendo uno de estos emplear vehículos robóticos bioinspirados para la observación discreta del ecosistema.
METODOLOGÍA
Una vez considerados las opciones existentes para la exploración y estudio del ecosistema en los arrecifes, se concluyó que el desarrollo de un robot bioinspirado con la estructura similar a un animal acuático tendría un menor impacto en los datos buscados. Para el desarrollo de este proyecto, se tuvo que realizar una investigación del estado de la técnica relacionada al trabajo a realizar.
Se emplean herramientas para adquisición de artículos científicos cuya investigación aporte los datos necesarios para desarrollar un mayor entendimiento de los sistemas creados y como puedan estos ser implementados en la construcción y progreso del objetivo final.
Dentro de las búsquedas de información que se realizaron, se encontraron temas tales como:
Proyectos semejantes realizados y publicados, de los cuales se obtendrían inspiraciones e ideas las cuales otorgarían un impulso para el desarrollo del proyecto.
Estructura física de algunas razas de peces, para determinar la forma y aspecto que tendrá el robot.
Tipos de movimiento en el nado de los diversos animales acuáticos y las ventajas que esto les proporciona, con el objetivo de determinar el sistema mecánico óptimo para ser implementado en el modelo.
Mecanismos de propulsión y movimiento empleados en proyectos similares.
Materiales que se emplearán en el modelado inicial del sistema.
Elementos electrónicos de control, al igual que sensores para el monitoreo y adquisición de los datos requeridos.
Una vez recopilada la información pertinente relacionada al proyecto, se procede a planificar los mecanismos que se emplearán, en este caso se considera el uso de un servomotor en un sistema con bandas dentadas. El servomotor se controla con un microprocesador y en un trabajo conjunto, generarán el movimiento de la aleta caudal necesario para la propulsión submarina.
La estructura y forma del robot se considera como la de un pez cuyo tipo de movimiento sea por medio de la aleta caudal, dentro de la clasificación de movimientos que emplean esta aleta, la que se usará es el movimiento subcarangiforme o carangiforme.
Se contempla que la máquina contenga al menos una cámara para observación colocada en la parte frontal y un sensor MPU-6000.
Los materiales empleados consisten en polímeros de distintas estructuras, siendo todos estos materiales que pueden ser usados en impresoras de tecnología 3D, usando como base las formas de las aletas y del cuerpo del ser vivo marítimo que ha sido decidido como bioinspiración. Los materiales considerados son ABS para los segmentos con bajo o nulo movimiento, pues el material carece de la flexibilidad necesaria. En cambio, para las partes que requieran flexibilidad, se emplea el material TPU y caucho o silicón.
CONCLUSIONES
Al emular de manera tan cercana la forma física, así como el desplazamiento por nado de un pez, en vez de utilizar desplazamiento por propela disminuirá el comportamiento anormal de la vida marina en los arrecifes y por consecuente otorgará datos de mayor precisión.
El proyecto no se limita a la observación de la vida submarina para propósitos de obtención de datos de comportamiento, también el trabajo puede expandirse a otras áreas de investigación con un modelo más desarrollado y especializado para la tarea que se le otorgue. De igual manera, podría representar un impulso para la creación de distintos modelos de exploración submarina no limitada a zonas de baja profundidad.
Con la amplia cantidad de información adquirida y una idea más clara y enfocada para la elaboración del prototipo. Los datos encontrados indican la ruta a tomar para el modelado de las partes mecánicas que otorgarán vida al proyecto.
El futuro del trabajo consistirá en el desarrollo del modelo prototipo físico y las pruebas en ambiente real a las que este se someterá con el objetivo de identificar deficiencias en el diseño y perfeccionar el prototipo.
Neri Vega Edgar Josue, Instituto Politécnico Nacional
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
MODELAMIENTO DE UN AEROGENERADOR DE EJE VERTICAL PARA LA GENERACIóN DE ENERGíA AUXILIAR EN VIVIENDAS
MODELAMIENTO DE UN AEROGENERADOR DE EJE VERTICAL PARA LA GENERACIóN DE ENERGíA AUXILIAR EN VIVIENDAS
Neri Vega Edgar Josue, Instituto Politécnico Nacional. Robledo Morales Jennifer, Instituto Politécnico Nacional. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El asentamiento humano Sector Cerro Cachito ubicado en el distrito de ventanilla es una zona caracterizada por ser habitado por un gran porcentaje de personas discapacitadas, según datos del periódico La República, en junio del 2020 contaba con una población aproximada de 250 habitantes de los cuales 30 se encuentran en condiciones de discapacidad.
Debido a las malas condiciones del terreno en que se ubica el asentamiento, así como el gran porcentaje de discapacidad, los pobladores de esta zona cuentan con ingresos reducidos que provocan que su calidad de vida sea un tanto deficiente.
Si bien se cuenta con alumbrado público existen lugares que cuentan con escasez de iluminación que pone en riesgo la seguridad de los habitantes y transeúntes pues son tomados como lugares de riñas y lugares que se prestan para incurrir en delitos hacia los transeúntes. En cuanto a las viviendas un 97.8% de estas cuentan con un sistema eléctrico, que debido a que las viviendas en su mayoría son de auto construcción, el sistema eléctrico también lo es, haciendo que no sea tan eficiente y elevándose de esta forma el costo del servicio.
A pesar de contar con la mayoría de los servicios públicos, la posición económica de los pobladores no siempre es suficiente para cubrir los gastos que se generan del uso de todos estos servicios públicos (Electricidad, agua potable, etc.).
Para dimensionar sus recursos económicos es necesario mencionar que el ingreso per cápita de los pobladores de esta zona no asciende a más de 754 soles.
METODOLOGÍA
Para esta investigación se desarrolló un enfoque tecnológico, no experimental, exploratorio y cuantitativo. Partiendo de los datos meteorológicos de la zona, se detectó que las corrientes de viento no eran las óptimas para instalar enormes aerogeneradores como suelen verse, por lo que se decidió optar por el desarrollo de un aerogenerador de eje vertical que presenta muchas ventajas respecto a los comunes de eje horizontal y que se adaptaba de mejor manera al objetivo del proyecto, obtener un aerogenerador de pequeñas dimensiones y que aproveche bajas corrientes de aire.
Una vez elegido el tipo, llegamos a una gran cuestión, ¿Cómo aplicar los conocimientos aeronáuticos en este proyecto? a partir de esta, se llegó a la propuesta de utilizar perfiles alares para maximizar la eficiencia del aerogenerador, lo que llevó a pensar en un aerogenerador de eje vertical tipo Darrieus H, que emplea precisamente lo anterior, pero se buscaba aún más y luego de una larga lluvia de ideas, se acordó en mejorar el modelo tradicional, a través de un modelo por etapas pensado en el principio que usan las turbinas de los motores de aviones, en el que gracias a las etapas, los resultados que se obtienen de potencia son mayores a si fueran construidos sin esta sección por etapas.
Fue así que apoyados de trabajos de tesis de universidades reconocidas como el Instituto Politécnico Nacional, artículos publicados de proyectos de investigación realizados en esta área y además siempre de la mano de gráficos y tablas que nos permitieran entender el funcionamiento de cada una de las partes del aerogenerador, se logró establecer los parámetros esenciales del diseño del aerogenerador (Longitud, Radio, TSR) y a partir de estos fue posible obtener ciertas variables teóricas sobre el funcionamiento del mismo (Presión y Fuerza del viento, Potencia del aerogenerador, par motor, cuerda del perfil, velocidad angular), para finalmente conocer su funcionamiento y diseño con apoyo de softwares como SolidWorks y ANSYS, a través de los cuales se lograría el objetivo del proyecto de investigación realizado.
CONCLUSIONES
Se desarrolló un aerogenerador de eje vertical del tipo Darrieus H con la implementación de un perfil NACA 0025 de 1.7 metros de diámetro, 2 metros de altura, cuyo perfil cuenta con una cuerda de 0.4 metros ubicado a un ángulo de ataque de 9°, a través del cual se espera obtener una potencia de aproximadamente 20 Watts que los habitantes de la población del Sector Cerro Cachito pueden aprovechar para utilizar como una fuente auxiliar de energía eléctrica para sus hogares, a través de la cual podrán ser alimentados sus dispositivos electrónicos y eléctricos que no requieran de una gran demanda de energía, es decir, puede ser empleada en aparatos de uso diario como licuadoras, focos, cargadores de teléfono, entre otras, pero no puede ser usado en dispositivos de uso prolongado como el refrigerador, ya que las condiciones del viento no son las óptimas para generar una potencia que permita mantener en funcionamiento este dispositivo durante periodos largos de tiempo.
De esta manera al implementarlo, se verá un beneficio económico en el uso de este servicio y además la eficiencia de su red doméstica podría verse beneficiada por la implementación de una energía renovable.
Nevarez Contreras Karla Patricia, Instituto Tecnológico de Chihuahua II
Asesor:Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente
VALIDACIóN DE UN MéTODO PARA LA CARACTERIZACIóN DE RESIDUOS SOLIDOS EN UNA INSTITUCIóN UNIVERSITARIA
VALIDACIóN DE UN MéTODO PARA LA CARACTERIZACIóN DE RESIDUOS SOLIDOS EN UNA INSTITUCIóN UNIVERSITARIA
Nevarez Contreras Karla Patricia, Instituto Tecnológico de Chihuahua II. Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
La producción y el consumo de bienes y servicios generan inevitablemente algún tipo de residuo, que en su mayoría causan efectos negativos en el ambinete. Uno de los más generados son los residuos sólidos, es por esto que la generación y manejo de ellos se ha vuelto de suma importancia.
Dentro de las Instituciones de Educación Universiaria la gestión de residuos sólidos se ha transformado en un proceso administrativo, ya que es elemental contar con información que permita establecer a las Universidades las cantidades, tipología y condiciones de estos residuos para saber como se pueden aprovechar de mejor manera.
Siendo así la Universidad Católica de Oriente implementa el método de cuarteo para la acarcterización de residuos sólidos.
La caracterización de residuos sólidos se realiza a través de un estudio, en el cual se obtienen datos como, la cantidad, densidad, composición, humedad y poder calorifco de los residuos.
Otra de las herramientas a utilizar es la "Guia para la elaboración de memorias de sostenibilidad" por el Global Reporting Initiative (GRI), esta guia tiene como objetivos ayudar a las organizaciones recoger datos útiles significativos sobre la responsbailidad social.
METODOLOGÍA
Se llevó a cabó una caracterización de residuos sólidos por estudiantes del curso de ingienería de residuos sólidos del séptimo semestre de ingenieria ambiental de la universidad mediante la aplicación del método de cuarteo dentro del periodo 2015-2020.
Haciendo uso de los datos recolectados se obtuvieron datos como los indicadores per-cápita, cantidad y proporción, densidad, humedad y composición física de cada unas de las tipologías identificadas (aprovechable, plástico, papel y acrtón, vidrio, no aprovechable, orgánicos, otros).
Una vez recolectados estos datos se procedio a un análisis estadístico haciendo uso de medidas de tendencia central media o mediana, de dispersión, gráficos, hipótesis y análisis de varianza, para posteriormente generar un análisis sobre los datos.
CONCLUSIONES
Con los resultados próximos a obtener se pretende dentro de la Universidad Católica de Oriente. validar y determinar que tan favorable es el uso de las metodologías de medición por cuarteo, así como los indicadores GRI y técnicas estadísticas para la gestión de residuos sólidos, para la reducción y mejor aprovechamiento de residuos sólidos.
Niebles Araujo Samuel Junior, Corporación Politécnico de la Costa Atlántica
Asesor:Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
MODELO DE SIMULACIóN EN PROCESOS DE SERVIDO DE COMIDAS A DOMICILIO
MODELO DE SIMULACIóN EN PROCESOS DE SERVIDO DE COMIDAS A DOMICILIO
Niebles Araujo Samuel Junior, Corporación Politécnico de la Costa Atlántica. Asesor: Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la sección de domicilios de un restaurante se registra un retraso a la hora de servir las comidas, lo que conlleva a una demora en la entrega y por ende un descontento en los clientes, siendo la mayoría de clientes los que piden domicilios en especial actualmente debido a la situación que se vive por la pandemia, por lo que es necesario que el área de domicilios sea eficiente.
METODOLOGÍA
se identifican las partes del proceso del servido el cual consiste en servir el arroz en un porta comidas desechable en una mesa, luego pasa a otra dónde se le añaden la proteína, la ensalada y demás acompañantes solicitados, luego son marcados con el nombre y dirección del cliente y finalmente se depositan en las canastas para que los domiciliarios los entreguen
Se procedió a cronometrar los tiempos utilizados en las distintas fases y se identifican los componentes necesarios para realizar un modelo de simulación como lo son:
• Las locaciones: almacén, mesa de servido de arroz, mesa de servido de acompañantes, mesa de marcado y canasta de reparto
• La entidad: los portacomidas desechables
• Los recursos: los empleados que mueven los portacomidas entre las mesas
• Las variables: los tiempos usados en cada fase del proceso
• Los eventos: sale un portacomidas del almacén a la mesa de servido de arroz, pasa de la mesa de servido de arroz a la de servido de acompañantes, pasa de la mesa de acompañantes a la de marcado, de la de marcado pasa a la canasta de reparto
En el simulador Promodel se definen los componentes mencionados anteriormente y con ayuda de la herramienta Stat-fit se determina a qué distribución se acomodan mejor los datos obtenidos, para definir los procesos en el sistema. Se logró determinar que el cuello de botella en el sistema es producido por la mesa de servido de los acompañantes y se evalúan en la simulación dos opciones las cuales son encargar a otro trabajador a servir los acompañantes o dividir el trabajo para que una persona coloque las proteínas y otra los demás acompañantes.
Probando ambas soluciones con modelos de simulación se determina que la opción de contratar más personal obtiene mejor desempeño, pero al dividir el trabajo también se logra una reducción del tiempo de proceso sin generar los costos de contratar nuevo personal e instruirlo.
CONCLUSIONES
en este verano de investigación se adquirieron conocimientos conceptuales y prácticos para el uso de la simulación con énfasis en el lenguaje utilizado en el simulador Promodel para resolver problemas de producción, optimizando los procesos, detectando cuellos de botella en estos y evaluando las distintas soluciones para descubrir las ventajas y desventajas de cada una con un costo inferior al de implementar estás directamente. En el proceso estudiado se determinó que la mejor solución al problema de las demoras en el proceso del servido de las comidas a domicilio es el dividir mejor al trabajo ya que la alternativa requiere una mayor inversión tanto monetaria como de tiempo
Nieva Barra María Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla
EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA
EVALUACIóN DE INHIBIDORES DE CORROSIóN DEL ACERO APLICADOS EN LA INDUSTRIA PETROLERA
Nieva Barra María Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Paulina Arellanes Lozada, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el petróleo por la naturaleza de su formación se encuentran presentes impurezas corrosivas tales como sales disueltas, arcillas, sedimentos solidos suspendidos, etc., esto aunado a que en todo su procesamiento el rompimiento de cadenas que trae consigo subproductos que dañan la estructura metálica de la cual están hechas las refinerías.
En el sistema nacional de refinerías de México, a partir del año de 1994 se han presentado severos daños causados por corrosión. La principal evidencia de este problema se manifiesta por una disminución drástica en la vida útil de los equipos y accesorios de las refinerías.
METODOLOGÍA
Se realizó una investigación en forma de tres resúmenes de diversas fuentes con rigor científico sobre los procedimientos y métodos aplicables para el estudio de los dos tipos de fluidos y flujos que existen, así como su comportamiento a través de tuberías con geometrías circulares y no circulares.
Se especificaron las fórmulas que se necesitan para la resolución de problemas con respecto a los fluidos y su transporte a través de tuberías al igual que se recabó información sobre cinco diferentes artículos científicos por cada tema a investigar, en donde se exponen la aplicación de estos métodos, no solo en el área petrolera, también en la aviación y la industria alimenticia, ya que se aplica el mismo principio de funcionamiento.
CONCLUSIONES
Durante la estancia de verano se adquirió un conocimiento teórico sobre el estudio del comportamiento de los fluidos y las diferentes áreas en las que se pueden aplicar, muchos de esos procesos, son realizados para la obtención de productos que se tienen en casa o se pueden observar en electrodomésticos. Se espera que con la investigación realizada sea posible realizar una evaluación correcta con respecto a las reacciones de los equipos utilizados en la industria petrolera.
Niño Merchán Julián José, Universidad Autónoma de Bucaramanga
Asesor:Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
Niño Merchán Julián José, Universidad Autónoma de Bucaramanga. Rosales Alarcón Olimpia Nohemi, Universidad de Guadalajara. Solorio Huerta Elvira Alejandra, Instituto Tecnológico de Morelia. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardíacas afectan a la población en general de México tal que representan el 19.74% de las causas de defunciones para ambos sexos, de acuerdo con el Instituto Nacional de Cardiología Ignacio Chávez (2020). La isquemia miocárdica es parte de estas enfermedades, y según la Comisión Nacional de Arbitraje Médico (CONAMED) la principal patología causal de muerte prematura tanto en hombres como mujeres siendo el 58% y 42% respectivamente. La isquemia miocárdica se produce cuando se reduce el flujo sanguíneo al corazón, impidiendo que reciba suficiente oxígeno y nutrientes a las células contráctiles. La reducción del flujo sanguíneo suele ser el resultado de una obstrucción parcial o total de las arterias del corazón (arterias coronarias). Una obstrucción repentina y grave de una arteria coronaria puede provocar un ataque al corazón y ritmos cardíacos anormales graves. Para diagnosticar una enfermedad del corazón se utilizan las señales electrocardiográficas (ECGs), estas señales se adquieren de forma no invasiva y registran la actividad eléctrica del corazón del paciente, presentando características muy específicas de acuerdo al estado de salud del corazón. Sin embargo, el análisis de estas señales para un posible diagnóstico de cardiopatías requiere de un médico especialista que en muchos casos no se encuentra disponible, por lo tanto, el desarrollo de un algoritmo que proporcione un diagnóstico semiautomatizado permitiría contar con una herramienta de apoyo para brindar un mejor tratamiento al paciente y a tomar decisiones oportunamente. En este trabajo se propone el desarrollo de un algoritmo basado en Octave que permita identificar en una señal ECG, las características propias de la isquemia cardíaca.
METODOLOGÍA
La detección automática de la isquemia miocárdica, empleando la señal ECG como principal herramienta, implica dos procesos. En el primero se hace la clasificación de latidos que presenten la anomalía y la detección de episodios que ocurren. El estudio para obtener las señales donde se detecta la isquemia suele ser el registro de una señal ECG durante un largo tiempo de monitoreo que va desde las 2 horas y 24 horas. El sitio web PhysioNet ofrece registros médicos de diversas enfermedades relacionadas con el corazón, proporciona una base de datos de libre acceso que contiene un grupo de tomas de una o más señales de ECG digitalizadas, así como sus correspondiente diagnóstico. Dentro de esta base de datos existen distintos registros, para nuestro caso de estudio empleamos la base de datos ST-T Europea la cual concentra 90 registros con anotaciones de cardiólogos.
Dentro de esta base de datos se pueden encontrar 4 tipos de archivos. El archivo .hea que muestra las anotaciones de cabecera, archivos de anotaciones, como lo son los archivos .atr y .xws, y un archivo con la señal, .dat.
Una de las herramientas más utilizadas en la extracción de características de una señal ECG es la transformada Wavelet, esta consiste en la descomposición de una señal sobre el conjunto de funciones obtenidas de una única función llamada wavelet madre por medio de dilataciones y contracciones o bien escalados (coeficientes de aproximación), así como desplazamientos en el tiempo (coeficientes de detalle).
En el desarrollo de este proyecto se creó un código en Octave el cual, a partir de señales ECG, se procesan y se aplica una transformada wavelet que elimina el ruido de la toma y destaca sus componentes, esto con el fin de localizar y determinar si se encuentran anomalías en el registro, como la depresión del segmento ST o la inversión de la onda P, de esta forma podemos destacar descriptores propios de la isquemia y sugerir si existe la presencia de ésta o no.
En las señales ECG existen 3 niveles de frecuencias, una más grande que la otra; en nuestro caso deseamos mantener el segmento ST que se encuentra en las frecuencias más bajas de la señal y eliminar las otras dos, discriminando tanto altas frecuencias como frecuencias medias, requiriendo una acción de pasa banda.
La Transformada Wavelet resulta ser la mejor opción, ya que separa la señal en diferentes bandas de frecuencias; de esta forma el filtrado de paso de banda puede eliminar algunas bandas de frecuencia. El filtrado pasa banda puede lograrse eliminando coeficientes wavelet de escalas tanto inferiores como superiores de la señal ECG que no contribuyan a resaltar las características de interés. En el algoritmo que aquí se propone se utilizó symlet 7 con un nivel de descomposición de 4, y se extrajeron los 8 y 5. Al reconstruir la señal con estos coeficientes se observó que se mantuvo el segmento ST que se desea resaltar. Luego con el uso de un algoritmo de detección estándar de picos localizamos el segmento ST. El algoritmo, implementado en Matlab, primero solicita un archivo .mat con la señal ECG que será tratada y normaliza la amplitud de la señal. Luego calcula la Transformada Wavelet discreta de máximo solapamiento, y con una siguiente línea de código extrae sólo los coeficientes que se necesitan, después calcula la Transformada Wavelet Inversa y en términos del tiempo se realizan algunos cálculos estadísticos que permiten identificar las características de la cardiopatía isquémica.
CONCLUSIONES
A través de este proyecto se determinó que la transformada wavelet es una herramienta matemática muy útil para la identificación de cardiopatías ya que es eficaz en la extracción de características en una ECG, de igual forma se profundizó en los patrones y características que tiene un ECG y cómo diagnosticar la isquemia en la cuarta derivada. Se presenta un algoritmo capaz de resaltar las características irregulares en los picos de señales ECG en la cuarta derivada, los cuales son indicadores propios de la isquemia cardíaca para la posible detección de dicha cardiopatía.
Nogueron Isaias Amairani, Instituto Tecnológico de Matamoros
Asesor:Dr. Ismael Mendoza Muñoz, Universidad Autónoma de Baja California
MADUREZ EN MIPYMES DE LAS CIUDADES FRONTERIZAS DE MATAMOROS Y MEXICALI EN LA INTEGRACIóN DE LA MANUFACTURA ADITIVA EN SU SISTEMA DE PRODUCCIóN
MADUREZ EN MIPYMES DE LAS CIUDADES FRONTERIZAS DE MATAMOROS Y MEXICALI EN LA INTEGRACIóN DE LA MANUFACTURA ADITIVA EN SU SISTEMA DE PRODUCCIóN
Nogueron Isaias Amairani, Instituto Tecnológico de Matamoros. Asesor: Dr. Ismael Mendoza Muñoz, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La Manufactura Aditiva ha cambiado el enfoque de la industria. No solo se trata de impresoras 3D caseras para la fabricación de piezas, sino que ahora es la industria la que se adueña de esta tecnología para mejorar y optimizar sus procesos o resolver problemas para los que la manufactura tradicional no ha sabido dar respuesta. Pero no solo eso, ha conseguido sobrepasar barreras históricas, diseñando pensando en la función del producto o pasando de la fabricación masiva a la personalización masiva.
Gracias a la globalización de los mercados, en el mundo existe mucha competencia entre empresas, mercados y productos; y cada vez, es más sencillo encontrar productos suplementarios y ahora con la era digital, el mundo se mueve a pasos agigantados y poco a poco, va dejando de ser lo que se conoce para entrar a una nueva era y poner nuevos desafíos, cambios que exigen repensar las formas en las relaciones de las actividades, tanto cotidianas como industriales.
El desarrollo de industrialización estudiado en las ciudades fronterizas de México, fenómeno asociado con el crecimiento de la industria maquiladora, ha sido el pivote para el desarrollo económico y demográfico de dichas ciudades. Así mismo, la relación económica derivada de los flujos comerciales, de inversión y de personas, en las ciudades fronterizas, ha sido sin duda un importante factor que ha estimulado el crecimiento regional en estas ciudades.
Actualmente, las empresas requieren diseñar, optimizar, manufacturar y colocar en el mercado productos innovadores y originales para ser competitivas, además se trabaja arduamente para aumentar la participación que se tiene en el mercado o por lo menos para permanecer con la misma proporción. Por lo tanto, crear rápidamente productos nuevos e innovadores, cuyo rediseño constante permita un mejor desempeño en la función para la cual fue creada, es una alternativa muy eficiente y genera impactos significativos como ventaja frente a sus competidores.
METODOLOGÍA
El objetivo principal de este estudio es conocer la incidencia sobre el uso de las tecnologías en manufactura aditiva para la fabricación de piezas para los diferentes sectores industriales y de servicios de las ciudades de Mexicali y Matamoros. El análisis está dirigido a usuarios, usuarios potenciales y empresarios, buscando identificar obstáculos actuales, tipos de tecnología más utilizados, materiales empleados, condiciones de trabajo, tipos de productos destinados a ser producidos, disposición final de residuos y otras necesidades; finalmente, comprender la aceptación de esta tecnología en la región y determinar cuánto sabe, comprender el impacto de su desarrollo y la posibilidad de su implementación en el sector productivo.
Para el diseño muestral se observaron los diversos procesos donde se implementa la manufactura aditiva, las disciplinas y las áreas de aplicación que se encuentran presentes en las áreas de economía y comerciales, limitando el rango de búsqueda para que nos permita tener resultados enfocados (Grasso, L. 2006).
En el análisis de la información recopilada en la aplicación de las encuestas obtuvimos información importante sobre las personas y/o empresas, además de las respuestas a las preguntas para el análisis de estas mismas. Es importante conocer más a detalle a los encuestados y las empresas y/o negocios donde laboran, por ende, se pidieron datos generales al inicio de cada encuesta como lo es el puesto que desempeñan dentro de la empresa, actividad o giro económico al que están registrados y el producto o servicio que proveen (Manufactura Aditiva, Realidad y reflexión)
Para su análisis de utilizo la Escala de Likert la cual es instrumento psicométrico donde el encuestado debe indicar su acuerdo o desacuerdo sobre una afirmación, ítem o reactivo, lo que se realiza a través de una escala ordenada y unidimensional (Bertram, 2008).
CONCLUSIONES
En conclusión, los resultados de esta investigación que se realizó durante la estancia del programa se obtuvieron con la ayuda de algunas herramientas para recopilar información. Se realizaron encuestas a diversos prospectos y usuarios de la tecnología Manufactura Aditiva. Actualmente las empresas las cuales que se dedican a la fabricación de piezas por Manufactura Aditiva, se encuentran aún en desarrollo de dicha tecnología.
Ambas ciudades fronterizas cuentan con un gran desarrollo económico siendo su principal fuente de ingresos económicos la industria. Los datos obtenidos en esta investigación nos muestran que las pequeñas, medianas y grandes empresas que utilizan esta tecnología aun no pueden aprovecharla al máximo ya que cuentan con limitaciones en la elaboración de sus productos. Un factor muy importante es el tiempo que se invierte en la fabricación de productos ya que la mayoría de las empresas tienden a manejar sus ventas bajo pedidos, pero, así como hay limitantes también se encuentran beneficios como lo es el libre diseño de productos ya que gracias al diseño asistido por computadora se pueden crear figuras con geometrías difíciles.
En términos generales, la manufactura aditiva representa un nuevo camino en cuanto a eficiencia energética, costo efectivo y ahorro de tiempo al producir objetos.
Núñez Carmona Andrea Victoria, Instituto Politécnico Nacional
Asesor:Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
ELABORACIóN DE UN INSECTICIDA ORGáNICO A PARTIR DE ACEITES ESENCIALES DE PLANTAS AROMáTICAS Y MEDICINALES DE LA REGIóN DE CIUDAD SERDáN, PUEBLA PARA SU USO EN CULTIVOS AGRíCOLAS DE LA REGIóN.
ELABORACIóN DE UN INSECTICIDA ORGáNICO A PARTIR DE ACEITES ESENCIALES DE PLANTAS AROMáTICAS Y MEDICINALES DE LA REGIóN DE CIUDAD SERDáN, PUEBLA PARA SU USO EN CULTIVOS AGRíCOLAS DE LA REGIóN.
Núñez Carmona Andrea Victoria, Instituto Politécnico Nacional. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
Una de las actividades económicas más importantes en Ciudad Serdán, Puebla es la agricultura. Los cultivos principales son el maíz, haba y frijol; los cuales son afectados por plagas como el gusano verde, gusano blanco, gusano gris y algunas especies de hongos.
A través de la historia se han empleado algunos insecticidas que contienen productos químicos que se podían adherir a los cultivos o contaminar el suelo y el agua, teniendo repercusiones en la salud y el medio ambiente, por ejemplo: el dicloro difenil tricloroetano (DDT) y el malatión.
En los últimos años se ha investigado acerca del uso de los aceites esenciales como una alternativa a estos químicos. En este proyecto se planea formular un insecticida efectivo, económico y amigable tanto con el medio ambiente como con el ser humano, se procurará utilizar plantas que puedan crecer en la región y aceites esenciales de fácil disponibilidad de compra.
METODOLOGÍA
Primero se investigó acerca de la agricultura de Ciudad Serdán y de los insectos que afectan a los cultivos; también se investigó acerca de los insecticidas, de cómo funcionan y de su impacto en la salud, los cultivos y el ambiente. Después, se investigó a la flora de la región y a los aceites esenciales que se podían obtener a partir de ella, junto con sus métodos de obtención y sus costos. Al ser el proyecto realizado en modalidad virtual, se propuso el uso de aceites esenciales obtenidos de plantas no nativas a la región.
Posteriormente se propusieron 3 distintas combinaciones de aceites esenciales cuyas propiedades podían resultar efectivas para combatir las plagas, las combinaciones fueron las siguientes:
A:
Neem.
Tea Tree.
Lemon Grass.
Jengibre.
Naranja.
Eucalipto.
Menta Piperita.
Citronella.
B:
Tea Tree.
Geranio.
Lemon Grass.
Eucalipto.
Naranja.
Jengibre.
Citronella.
C:
Naranja.
Citronella.
Eucalipto.
Tea tree.
Lemon Grass.
Jengibre.
El precio y la facilidad de obtención de los aceites esenciales, junto con su disponibilidad en el mercado fueron factores clave en la selección del conjunto con el que se iba a hacer el insecticida, el conjunto seleccionado fue el C ya que en comparación con A y B, sus componentes son más económicos y de facil acceso en el mercado.
Los aceites esenciales del conjunto Ccuales presentas de las siguientes propiedades:
Naranja: continene limoneno, el cual es utilizado como insecticida y repelente de hormigas, cucarachas, ácaros, etc.
Citronella: contiene citronelol, es un poderoso repelente de numerosos insectos.
Eucalipto: contiene eucaliptol, pineno y limoneno, actuando así como un repelente, además de ser tóxico para los insectos al contacto .
Tea tree: posee propiedades antibacterianas y antifúngicas.
Lemon Grass: contiene geraniol y citronelol, los cuales se utilizan como repelentes de insectos.
Jengibre: su olor es desgradable para algunos insectos y contiene Zingibereno el cual es un agente repelente e insecticida.
Se colocó cada uno de los aceites esenciales en goteros del mismo tamaño y se perforaron con la misma aguja, esto con el fin de estandarizar el tamaño de la gota y así poder convertirlos a mililitros con mayor facilidad siendo la tendencia 30 gotas = 1 ml. Se utilizaron 2 ml de cada aceite esencial del conjunto C para hacer el Concentrado C.
Al momento de la formulación del Insecticida C se decidió hacerlo a base de agua porque el costo sería menor y no dañaría a la planta; al ser base agua, se tuvo que usar un polisorbato, en este caso se utilizó el polisorbato 20 (conocido comercialmente como tween 20) en una proporción de 2:1 al concentrado . También se utilizó el citrol-k en una concentración del 0.7% (cumpliendo con los parámetros establecidos por el fabricante), éste es un conservador obtenido a partir de extractos cítricos, soluble en agua, libre de parabenos y apto para alimentos. Se utilizó agua destilada con el fin de evitar el mayor número de contaminantes y microorganismos posibles en el producto final. El Concentrado C se encuentra en una concentración del 5%, se llegó a este porcentaje básandose en las recomendaciones de los estudios consultados para la elaboración del producto.
Finalmente, se roció el insecticida sobre una planta de citronella en la cual se podían observar huevecillos blancos sobre las hojas y en una planta de chile serrano en la cual se podían observar larvas en el tallo.
CONCLUSIONES
Se comprobó la efectividad del insecticida sobre los huevecillos en las hojas de la citronella sin generar daños físicos a la planta. Sin embargo, en el caso de la planta del chile serrano no se llega a las mismas conclusiones, ya que la planta estuvo expuesta a las lluvias y al granizo, los cuales pudieron haber comprometido la confiabilidad del ensayo.
Hasta esta etapa dentro del desarrollo del proyecto se concluye que los insecticidas a base de aceites esenciales presentan una alternativa viable a los insecticidas empleados en la actualidad. Es necesario realizar más ensayos con diferentes concentraciones de los aceites esenciales, diferente frecuencia de aplicación del insecticida y diferente etapa de vida tanto de las plantas como de las plagas, en especial si se quiere llegar a utilizar el insecticida sobre un cultivo extenso.
Cabe mencionar que un beneficio destacable del insecticida obtenido es su aroma agradable para el ser humano.
Nuñez Hidalgo Valentina, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
DETERMINACIóN DE LA RESISTENCIA A LA COMPRENSIóN EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL DE TEREFTALATO DE POLIETILENO Y SUSTITUCIóN PARCIAL DE CEMENTO POR CENIZA DE BAGAZO DE CAñA (CBC)
DETERMINACIóN DE LA RESISTENCIA A LA COMPRENSIóN EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL DE TEREFTALATO DE POLIETILENO Y SUSTITUCIóN PARCIAL DE CEMENTO POR CENIZA DE BAGAZO DE CAñA (CBC)
Nuñez Hidalgo Valentina, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El mundo de la construcción ha venido involucrando nuevos elementos en el desarrollo de las obras, que han derivado en la contaminación ambiental presente. En México son tendencia de producción y consumo la situación de la industria de las resinas de polietileno, según Greenpeace este país produce más de siete millones de toneladas de plástico al año, que contribuyen al incremento de la temperatura del planeta. Además, la utilización de los desechos de bagazo de caña como material puzolánico en la construcción, que es capaz de reemplazar parcialmente al cemento y contribuir en la disminución de gases de efecto invernadero (CO2) que se generan en la producción industrial del cemento (Agencia Iberoamericana para la Difusión de la Ciencia y la Tecnología [DICYT], 2014).
Debido a esto surge la idea de generar combinaciones a las mezclas de morteros con base de cemento, con adición de Pet y sustitución ceniza de bagazo de caña, logrando que la mezcla presente una reducción de cemento manteniendo la misma relación de agua y arena, mejorando las propiedades físicas y mecánicas del mortero, verificando que los procesos sean de calidad y cumplan con las normativas mexicanas ONNCCE según su resistencia a la compresión.
METODOLOGÍA
La investigación se desarrolla en cuatro fases, comparando y analizando la resistencia a la comprensión de mortero con adición de PET y sustitución de CBC, en edades de 7,14 y 28 días.
Fase 1: Calidad del material: Se inicia con el cuarte y selección del material para garantizar la obtención de la muestra significativa y de tamaño adecuado, para realizar el análisis de granulometría, donde se pasa la muestra por una serie de mallas y así poder conocer la distribución de los diámetros de las partículas y el módulo de finura de la arena. También, se determina la capacidad máxima de absorción que tiene la arena al estar saturada por 24 horas con agua, esto permite la obtención del volumen de las partículas de arena, finalmente se realiza la prueba de fluidez, estableciendo la relación de agua cemento según la combinación a realizar.
Fase 2: Colado de especímenes: Se elaboraron 4 morteros, se estableció la relación agua cemento (a/c) de 800 ml de agua por 1 kg de cemento portland y 2.750 de arena, para la combinación con Pet se realizó una adición del 10% que equivale a 100gr, para la variación con ceniza de caña se realizo una sustitución del 10% y en la combinación de Pet y ceniza 900gr de cemento con sustitución del 10% de ceniza que son 100gr, más la adición de 100gr de PET, con la misma relación en gua y arena.
La prueba de comprensión requiere de especímenes cúbicos aproximadamente de 5 x 5 x 5 cm por lado, para esto se debe de engrasar los moldes, posteriormente se llena el molde aproximadamente hasta la mitad y se apisona la mezcla 16 veces, ocho de manera vertical y ocho de manera horizontal, después se realizan de 3 a 5 vibraciones. Se repite el proceso ya que estos especímenes se deben de llenar en dos capas, finalmente se enrasa el molde limpiando el exceso de material con la espátula y se deja secar en una superficie nivelada.
Después de 24 horas de haber fraguado las mezclas el mortero de testigo y con adición de Pet, se empleo un procedimiento de curado de concreto para evitar que el agua de la mezcla del concreto se evapore en forma rápida o para reintegrar al mismo la perdida de humedad. Pasadas las 72 horas los morteros de ceniza y los combinados de ceniza y Pet fueron introducidos a curar y posteriormente analizar a las edades de 7, 14 y 28 días.
Fase 3: Pruebas no destructivas: En esta fase se extraen los especímenes a los 7 día del curado y se toman los pesos en una balanza digital, paralelo a esto se realiza la prueba de resistividad eléctrica en masa que se obtiene de los especímenes, mediante el método uniaxial de dos puntos, este método se basa en colocar dos electrodos en la superficie del mortero, donde se mide la diferencia de potencial entro ambas placas metálicas.
También se toman las dimensiones de las áreas de las caras de contacto que nos ayuda a llevar un registro y control de cada espécimen a probar.
Fase4: Pruebas destructivas, resistencia a la compresión: Se coloca cada espécimen en la placa móvil de la prensa hidráulica, se le aplica carga de manea lenta y uniforme hasta que el espécimen presente falla. Finalmente, se dispone toda la información en la tabla de registro y se grafican los resultados obtenidos en la prueba de resistencia a la compresión en morteros.
CONCLUSIONES
El proyecto ya finalizó las cuatro etapas que lo con pruebas en las edades de 7, 14 y 28 días y arrojó los siguientes resultados:
El Testigo en la edad de 7 a 14 días incrementa su resistencia un 32%, pero en la edad de 14 a 28 días redujo la resistencia un 3.4%
La mezcla con adición de PET del 10% en la edad de 7 a 14 días incrementa su resistencia a la compresión 16%, pero en la edad de 14 a 28 días redujo la resistencia un 8.72%
La mezcla con Sustitución de CBC del 10% en la edad de 7 a 14 días incrementa su resistencia a la compresión un 20%, pero en la edad de 14 a 28 días incremento la resistencia un 20%. Esta Mezcla de mortero es la que mejores resultados arrojó en la resistencia a la comprensión debido a que en todas las edades mantuvo un incremento constante y supero la resistencia a la compresión de la mezcla de mortero del Testigo.
Por último, la mezcla con Adición de PET del 10% y sustitución de CBC del 10% en la edad de 7 a 14 días incrementa su resistencia a la compresión un 18%, pero en la edad de 14 a 28 días redujo la resistencia un 5.4%
En conclusión, El proyecto busca mejorar la mezcla de mortero con materiales que son residuos de la sociedad y material contaminante para el medio ambiente. Se puede observar en los resultados que en la mezcla con adición de PET del 10% incrementa ciertas características, pero las dos mezclas con sustitución de CBC del 10% mejoran la mezcla de mortero en mayor porcentaje, alcanzando un mejor comportamiento en los resultados de compresión. Además, es importante resaltar que estas dos mezclas de mortero presentan una reducción del 10% de cemento, lo que es un impacto altamente positivo para el medio ambiente.
Nuñez Lopez Jhon Jairo Adrian, Universidad Simón Bolivar
Asesor:Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
Aranda Gonzalez Gabriel, Universidad de Guadalajara. Nuñez Lopez Jhon Jairo Adrian, Universidad Simón Bolivar. Peña Durán Sergio, Universidad de Guadalajara. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
A raíz de la pandemia del COVID-19, la gran mayoría de personas tuvo que iniciar un aislamiento voluntario para evitar contagiarse, en consecuencia, la formación y capacitación académica en línea adquiere un importante papel en la vida cotidiana, en respuesta a esta necesidad surgen cursos, tutoriales, boot camps, webinars, conversatorios virtuales, tal fue la respuesta que en cuestión de meses más allá de generar una gran aceptación, los usuarios se encuentran molestos dado la falta de administración y segmentación correcta de estos.
METODOLOGÍA
Mediante la división de labores en dos ejes (técnicos y mercadológicos), se inició el planteamiento para el desarrollo de la aplicación web, mediante el uso de diagramas UML, de maquetó la base de datos junto con los métodos que involucran cada tabla. La base de datos fue optimizada a tercera forma normal para facilitar las consultas. Aunado a esto se elaboraron diagramas de casos de uso y de estados del sistema.
Se realizó una comparativa entre las diferentes alternativas de sistemas administradores de eventos para poder encontrar un diferenciador y conocer las tendencias que siguen este tipo de sistemas.
CONCLUSIONES
Se espera desarrollar una aplicación web con todas las características definidas en la investigación utilizando el MVC (modelo vista controlador) con los frameworks Bootstrap (CSS) y Laravel (PHP y MySQL). Las pruebas de deploy en un servidor de Heroku. Se tiene previsto tener la primera versión funcional antes del fin del año en curso.
Nuñez Solorio Magdalena Lizeth, Instituto Tecnológico de La Piedad
Asesor:Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
ANáLISIS DE ACCESIBILIDAD EN LOS MERCADOS PúBLICOS DE LA PIEDAD, MICH.
ANáLISIS DE ACCESIBILIDAD EN LOS MERCADOS PúBLICOS DE LA PIEDAD, MICH.
Nuñez Solorio Magdalena Lizeth, Instituto Tecnológico de La Piedad. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
La accesibilidad se debe de tomar en cuenta antes de la construcción de cualquier espacio habitable, ya que es la condición que posibilita desenvolverse en un lugar. Desde entrar, hasta salir, no solo en un hogar, también en tiendas, parques, calles, lugares públicos, sin importar el número de personas que acuden.
Objetivo: Realizar un análisis de accesibilidad en los mercados públicos de La Piedad, Michoacán con el cual se pretende evaluar si la accesibilidad de estos espacios pueden ser calificada como universal y segura, permitiendo la autonomía de sus usuarios.
METODOLOGÍA
Métodos:
a) Diseño de la investigación: Se realizó, en una primera etapa, una investigación documental para conocer los antecedentes del tema, asimismo para ver con qué información se contaba. Posteriormente, se delimitaron las áreas de estudio para realizar una lista de cotejo que sirvió como instrumento para evaluar las zonas. Ya diseñado el instrumento y delimitada la zona, se realizó el levantamiento de campo en donde se tomaron las mediciones, toma de fotografías y anotaciones para documentar los hallazgos encontrados. Lo anterior, haciendo uso de parámetros cuantitativos y cualitativos. El diseño de la investigación fue de tipo no experimental, seccional, descriptivo y explicativo.
b) Sitio del estudio: El análisis se llevó a cabo en dos de los Mercados de La Piedad, Michoacán. Mercado 1: Gral. Francisco J. Mujica, ubicado en Vicente Silva, Las colonias, 59384, La Piedad, Mich. Mercado 2: Mercado Municipal Gildardo Magaña, ubicado en 5 de febrero 9, centro, 59300, La Piedad de Cavadas, Mich.
c) Unidades de estudio: Los mercados de La Piedad se estudiaron considerando su infraestructura tomando referencia los siguientes criterios: diseño centrado en el usuario, tecnología de apoyo y operativos.
d) Intervenciones: Para el primer mercado no se contó con un mapa por lo que se realizó un boceto a mano alzada. Mientras que para el segundo mercado, la unidad administrativa sí proporcionó el mapa correspondiente.
Se realizaron tres visitas al mercado Gral. Francisco J. Mujica y dos al mercado Municipal Gildardo Magaña. Se llevó a cabo la toma de fotografías como evidencia y se midieron los aspectos a evaluar en la lista de cotejo. También se realizó una encuesta para contemplar la opinión de los ciudadanos.
CONCLUSIONES
Resultados Principales: El trabajo de investigación consistió en el análisis de la accesibilidad de los mercados, teniendo en cuenta las discapacidades de las personas que lo frecuentan.
Este análisis se realizó a través de una lista de cotejo con tres criterios. Siguiendo los estándares de medias en rampas, las cuales deben tener una pendiente del 6 % se detectó que la mayoría de las rampas presentan una pendiente superior, algunas pasando el 20 % en la pendiente. En otros accesos ni siquiera se tienen, están en malas condiciones o les falta mantenimiento.
La señalética (de 30 cm. de ancho con una altura mínima de 160 cm. desde el suelo) con una descripción con relieve de 0.2 cm. para personas invidentes es inexistente en las zonas de estudio seleccionadas. No hay señalización en cuanto a las rutas, nombres de los pasillos, extintores o alguna señalización que indique rutas o accesos.
En cuanto la circulación peatonal, esta se ve obstruida por múltiples obstáculos que impiden el libre paso por los pasillos. Uno de los principales obstáculos es la misma mercancía de los locatarios, impidiendo que el mínimo de 120 cm. de ancho para circulación se reduzca considerablemente. A esto se le suma el mal mantenimiento de los pasillos y escalones que por lo general se encuentran mojados, cuarteados o sucios, de tal manera que hacen dificil el acceso o el paso por pasillos, escaleras o entradas.
Los accesos a los edificios cumplen con las medidas de 210 cm. de alto y 120 cm. de ancho, dando así acceso a una silla de ruedas. Sin embargo, en el acceso principal del Mercado Gildardo Magaña no se cuenta con rampas o accesos para personas con alguna condición de movilidad, ya que solo se cuenta con escaleras, limitando así el acceso a todo tipo de personas, pues estas deben dar la vuelta e ingresar por la parte trasera.
Conclusión:
La accesibilidad en áreas públicas se ha visto dañada por la mala planeación y mantenimiento de la infraestructura. No es posible acceder con facilidad a un lugar público cuando las condiciones no lo permiten, tal es el caso del mercado Gral. Francisco J Mujica y el Mercado Gildardo Magaña.
A través de esta investigación se ha comprendido la importancia de nuestro entorno y el poder tomar en cuenta la opinión de los ciudadanos al construir un edificio de acceso público.
Como se pudo corroborar en la encuesta, no todas las personas conviven en casa con una persona que necesite condiciones específicas para ingresar en un espacio. Pero la mayoría sí conoce a alguien, no porque sea algo que no suceda en casa propia quiere decir que en la ciudad no exista.
Se puede notar que la accesibilidad también se ve afectada por medio del deterioro de las instalaciones (escaleras en mal estado, pintura en pasamanos desgastada por el uso, pasillos usados con otro fin, etc.) por lo que es posible reducir los casos de inaccesibilidad al dar un buen mantenimiento a la infraestructura de los locales.
KEYWORDS: Accesibilidad, Infraestructura, Mercados públicos
Ocampo Betancurt Erika Daniela, Universidad Tecnológica de Pereira
Asesor:Mg. Yenny Marcela Orozco Ocampo, Universidad Autónoma de Manizales
APOYO EN EL PROYECTO: DISEÑO DE MÓDULOS CONSTRUCTIVOS ECOLÓGICOS REFORZADOS CON MATERIAL HÍBRIDO: CASCARILLA DE CAFÉ – PET
APOYO EN EL PROYECTO: DISEÑO DE MÓDULOS CONSTRUCTIVOS ECOLÓGICOS REFORZADOS CON MATERIAL HÍBRIDO: CASCARILLA DE CAFÉ – PET
Ocampo Betancurt Erika Daniela, Universidad Tecnológica de Pereira. Asesor: Mg. Yenny Marcela Orozco Ocampo, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Teniendo en cuenta que Colombia es el tercer país productor de café del mundo, y que es posible aprovechar las cáscaras de café generadas durante la fase del tostado y al combinarlas con plástico reciclado, es posible proponer un material con propiedades deseables para fabricar elementos fuertes, duraderos y de bajo mantenimiento.
En un estudio realizado en Ghana se comprobó que el plástico (RPW) puede reemplazar el cemento como aglutinante en la fabricación de adoquines, y en este caso específico para la fabricación de módulos constructivos que ofrezcan propiedades mecánicas para resistir esfuerzos como los que soporta un ladrillo, y que también tendrán diseños que complementarán la estética de la construcción, siendo estos montables y desmontables, disminuyendo el uso de material aglutinante.
Además de esto se tiene que el plástico es un material no biodegradable, solo el 9% del plástico en Colombia es reciclado y el 91% restante es quemado y enviado a los mares y ríos, generando contaminación, gases de efecto invernadero y demás problemáticas ambientales.
Profesores y estudiantes de la Universidad Autónoma de Manizales trabajan en el desarrollo de módulos constructivos fabricados a partir de cascarilla de café y PET, y que además favorecerá a la reutilización de estos elementos que son desechados. Siendo relevante la etapa de análisis mediante simulación de las configuraciones formales seleccionadas, empleando la herramienta Simulation del programa SolidWorks se analizará el comportamiento de los modelos creados, bajo las cargas a las que estarán expuestos, para obtener resultados de deformaciones, esfuerzos y factores de seguridad; y así realizar las modificaciones necesarias hasta lograr una geometría adecuada para su utilización.
METODOLOGÍA
Semana del 15 junio - 18 junio.
Se realizó la presentación del proyecto y del equipo de trabajo, donde se contextualizo acerca de las labores (plan de trabajo) a realizar durante la instancia de investigación, el proyecto consta de la fabricación de unos módulos constructivos con cascarilla de café y plástico reciclado, trabajando en simultaneo con los diseñadores industriales quienes se encargaron de hacer los diseños de las configuraciones formales, los ingenieros mecánicos, nos encargamos de hacer las pruebas requeridas en software de simulación.
Semana del 21 junio - 25 junio
Se trabajaron algunos conceptos de resistencia de materiales, se analizaron ejercicios que se resolvieron de forma analítica y por medio de la herramienta computacional SolidWorks simulation, se compararon los resultados los cuales fueron cercanos a los obtenidos mediante cálculos manuales, seguido de esta labor se trabajó la convergencia de mallas en materiales dúctiles utilizando una teoría de falla de Von Mises, se realizó un análisis de los resultados utilizando diferentes técnicas de mallado, se calcularon las gráficas y los porcentajes de error.
Semana del 28 junio - 02 julio
Se trabajaron conceptos de resistencia de materiales, en este caso para materiales frágiles, la teoría de Mohr-Coulomb, se analizó la convergencia de malla utilizando diferentes métodos de mallado, se analizaron los resultados, para este caso usamos como criterio el factor de seguridad (FS) en materiales frágiles. Seguido a esta labor, se trabajó sobre la lectura de un artículo científico de aglutinante alternativo de residuos de plástico para la producción de adoquines que utilizan en el país de Ghana en una ciudad llamada Sunyani, con el cual buscan disminuir el impacto ambiental, ya que es el 2do país con más residuos sólidos, también reducir costos en la producción de estos adoquines.
Semana del 05 julio - 09 julio
Con base al artículo se establecieron algunas experiencias para tomarlas como base, se establecieron semejanzas a lo realizado por el equipo de trabajo. Se puede concluir que la propuesta es totalmente viable ya que el plástico es un residuo que abunda y que no se degrada y genera un impacto ambiental negativo, y que por otro lado como referencia del artículo sabemos que el plástico debido a sus propiedades lo hacen un buen material para la fabricación de nuestros módulos constructivos que busca disminuir el impacto ambiental y rebajar los costos en la producción de estos.
Semana del 12 julio - 16 julio
Se realiza más investigación con base a lo solicitado, pruebas de simulación, preparación de la presentación para el programa delfín, resumen de las semanas trabajadas, preparación de resultados obtenidos, estudio teórico de materiales frágiles y criterio de Mohr-Coulomb.
Semana del16 julio -23 julio
Preparación de la exposición con la tutora Yenny Marcela Orozco, reunión semanal de avances, presentación y exposición de los resultados durante la semana de investigación.
Semana del 23 julio - 30 julio
Elaboración del resumen, análisis de las configuraciones formales seleccionadas de los módulos constructivos, lectura de artículos para la redacción del artículo compromiso, preparación de videos educativos explicando los métodos de convergencia de mallas.
CONCLUSIONES
La herramienta Simulation" del programa SolidWorks permite modelar, simular y analizar comportamientos de los materiales dúctiles y frágiles, variando criterios de diseño, lo cual favorece su aplicación en la caracterización de módulos constructivos.
A partir de la comparación de resultados de convergencia de malla se establece que el para las simulaciones de los módulos constructivos, el método P adaptativo es el más adecuado al presentar mayor precisión en los resultados.
Se desarrolló una metodología para aplicar herramientas de simulación en módulos constructivos, de tal manera que se facilite la toma de decisiones respecto a cambios significativos en geometría, de tal manera que se ahorre tiempo y costos de producción.
Ocampo Mejia Luis Angel, Universidad Mexiquense del Bicentenario
Asesor:Ing. Ambar González Guadarrama, Tecnológico de Estudios Superiores de Valle de Bravo
ESTRéS LABORAL Y BIENESTAR PSICOLóGICO EN LOS DOCENTES DE EDUCACIóN PRIMARIA
ESTRéS LABORAL Y BIENESTAR PSICOLóGICO EN LOS DOCENTES DE EDUCACIóN PRIMARIA
Ocampo Mejia Luis Angel, Universidad Mexiquense del Bicentenario. Asesor: Ing. Ambar González Guadarrama, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad a nivel mundial se vive una polémica que pone en riesgo la salud de toda la sociedad a gran escala por el COVID-19 este virus es causado por el coronavirus del síndrome respiratorio agudo grave de tipo 2 (SARS-CoV-2) (salud, 2021), un nuevo virus en los seres humanos que causa enfermedad respiratoria y que se puede propagar de persona a persona., por el otro lado como personas o seres humanos tenemos actividades que por nada del mundo se pueden dejar de realizar como por ejemplo laborar para tener con que alimentarse entre muchos factores más.
Por ejemplo, el sector educativo, es un modelo de trabajo que se debe continuar a pesar de las crisis y adversidades que se están pasando a nivel mundial por lo que el plan de trabajo consiste en que los docentes deben de continuar con el ámbito de enseñanza y aprendizaje hacia los alumnos a distancia (en sus correspondientes hogares) en todos los grados de estudio de nivel básico hasta nivel superior.
En cuanto a esta forma de trabajo se presentan una gran diversidad de ventajas y desventajas, dado que la forma de comunicación entre los docentes y alumnos en muchas de las ocasiones no se puede establecer de excelente forma ya que se puede enfrentar con la situación de que se carezca de los recursos tecnológicos para una buena forma de trabajo.
Pero el grado en el que se presentan mayores problemas en la forma de trabajo es en el nivel de educación básica dado que se esta tratando con niños que están aprendiendo a leer o la simple comprensión y dadas estas circunstancias los docentes de la educación primaria deben esforzarse a grande escala lo que provoca estrés en el trabajo lo cual da pase a una pregunta en específico.
¿Cuál es el nivel de estrés que se genera en los docentes en la educación primaria?
METODOLOGÍA
El presente proyecto en el que se trabaja consiste en detectar el nivel de estrés en los docentes que laboran en la educación primaria y para esto se pretende desarrollar una red neuronal.
Red neuronal: Con la creación de esta red se pretende detectar el nivel de estrés en los docentes de educación primaria en la pandemia provocada por el COVID-19.
Para esto se dará seguimiento del siguiente algoritmo.
Registro de protocolo: En base un análisis se determina que elementos son necesarios para desarrollar el proceso del presente proyecto en cuanto herramientas, procesos, Software y datos necesarios para conseguir lo requerido y la forma de cómo adquirirlos.
Recaudación de información: Se usa formularios de Google para aplicar la escala de Gonzales y determinar el nivel de estrés.
Análisis de información recabada: Proceso en el que se examina con detenimiento la información a procesar.
Selección de la muestra: Selección de un rango determinado de datos para generalizar y trabajar con ella.
Diseño de red neuronal: Es un modelo inspirado en el cerebro humano con el fin de calcular sistemáticamente el estrés laboral tomando como referencia la escala de Gonzales.
Recolección de datos mediante la escala de Hernández González:
Se usan los datos retomados a la aplicación de cuestionario a docentes de educación primaria.
Programación de red neuronal:
En cuanto a la programación de la red neuronal se realiza mediante el software de Matlab.
Análisis de resultados: Se examinará los resultados salientes de la red neuronal producida en Matlab.
CONCLUSIONES
Con el este proyecto se pretende tomar en cuenta el nivel de estrés en los docentes de educación primaria por lo que se toma a consideración porque involucra muchos aspectos importantes para crear un buen ambiente de trabajo a distancia entre los docentes y alumnos de ese nivel, ya que por lo contrario si se produce un fuerte nivel de estrés puede provocar daños mentales o psicológicos o de manera general afecta a la salud de estas personas y por lo tanto trae como consecuencia que el modelo estratégico de aprendizaje entre los docentes y alumnos fracase y cause retraso en lugar de progreso.
Las consecuencias que esta trae pueden afectar al ámbito personal, económico y principalmente en la salud. Por eso es de suma importancia realizar la investigación que permite visualizar la temática del estrés laboral en los docentes de educación primaria con la finalidad de tener un conjunto de información relevante la cual influye en la satisfacción que el empleado siente por la labor que desempeña y como este afecta a su bien estar psicológico en el ámbito social, laboral y hasta familiar.
Se llega a la conclusión de que no se debe dejar atrás el estado de los docentes y alumnos para cuidar de su bien estar y se mantenga su ritmo de salud en buen estado para que se pueda seguir laborando de la mejor forma en este tiempo de pandemia producida por el virus COVID-19.
Ocampo Mendoza Eibar Hipólito, Universidad Vizcaya de las Américas
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
IMPACTO PSICOLóGICO EN LOS PACIENTES CON ELA Y ACV AL IMPLEMENTAR UNA ICC
BASADA EN EEG Y EL MINDFULNESS EN SU REHABILITACIóN
IMPACTO PSICOLóGICO EN LOS PACIENTES CON ELA Y ACV AL IMPLEMENTAR UNA ICC
BASADA EN EEG Y EL MINDFULNESS EN SU REHABILITACIóN
Ocampo Mendoza Eibar Hipólito, Universidad Vizcaya de las Américas. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades mortales y/o degenerativas laceran a parte de la humanidad incidiendo en su calidad de vida y rehabilitación, quitándole años de vida e incluso, la vida misma. La esclerosis lateral amiotrófica o ELA, es una enfermedad mortal y neurodegenerativa del sistema motor humano, cuyas causas hoy en día, se desconocen a ciencia cierta (Kiernan, 2011); no siendo posible su curación. Una de cada 20,000 personas en el mundo es diagnosticada con ELA, mientras que en México hay 6,000 casos de ELA diagnosticados (Conadis, 2019). Por su parte, el accidente cerebrovascular (ACV) representa una de las causas más frecuentes de mortalidad y morbilidad en todo el mundo (Alessandro et al., 2020, p. 54). El ACV es la primera causa de invalidez, la segunda de demencia y la tercera de muerte en la sociedad moderna; la incidencia, a nivel mundial oscila alrededor de los 200 casos por 100 mil habitantes, hallándose en Latinoamérica tasas superiores, como la de México, con 230 casos por cada 100 mil habitantes en mayores de 35 años (Mendieta et al., 2018). Si estos datos le parecieran a alguien, algo de poca monta, hay que decir que, aparte del impacto médico y físico que la ELA y el ACV dejan en las personas que las padecen, se encuentra un impacto psicológico adverso: ansiedad, depresión, apatía, disminución de la resiliencia, resistencia al diagnóstico, desesperanza, demencia vascular, demencia frontotemporal, entre otros; los cuales, obstaculizan la rehabilitación y menoscaban la calidad de vida de estos pacientes. Esto último, por cierto, ha sido un rubro poco estudiado. Ante la gran magnitud de esta problemática, en este trabajo se plantea, la implementación de interfaces cerebro computadora (ICC) y el mindfulness para evitar síntomas psicológicos perjudiciales, mejorar la calidad de vida y la rehabilitación de personas con ELA y ACV; para ello, se han integrado conocimientos de dos campos del saber humano, tales como la ingeniería y la psicología.
METODOLOGÍA
Se llevó a cabo una afanosa y profusa investigación, en páginas de distintas revistas y artículos científicos (en inglés y español), así como en los principales buscadores de la red, consultándose (con la respectiva lectura) un total de 67 artículos científicos, 8 tesis de licenciatura, 3 tesis doctorales, 4 libros en físico de neuropsicología, 2 libros de biopsicología, 6 libros sobre mindfulness, 3 libros en PDF sobre robótica, 2 libros PDF de ICC y 2 libros electrónicos sobre mindfulnees, páginas de la OMS, documentales de YouTube, ponencias virtuales en relación al tema, páginas de la secretaría de salud México, IMSS México, entre otras fuentes. Debido a la duración del verano de investigación Delfín, ya no fue factible leer e investigar más, a pesar del esfuerzo sobrehumano que se realizó. No obstante, se recabó bastante información, investigándose los siguientes temas:
Aspectos médicos de la ELA y el ACV
Impacto psicológico de la ELA y el ACV en las personas que las padecen
Impacto psicológico en los cuidadores
Funcionamiento de la ICC basada en EEG
Impacto psicológico del uso de ICC para la rehabilitación en pacientes con ELA y ACV
Mindfulness en la rehabilitación de personas con ELA y ACV.
A causa de la extensión necesaria para explicar cada uno de estos temas y el límite de caracteres para el presente resumen, no fue factible plasmar aquí ni toda la investigación hecha, ni las referencias bibliográficas. No tenía caso poner una o dos líneas por tema pues no se alcanzaba a detallar lo fundamental para su comprensión, sin embargo, se entregó el reporte completo al asesor correspondiente, quien fue una guía muy valiosa para realizar esta tarea investigativa.
CONCLUSIONES
Debido al gran daño que llegan a producir las enfermedades de ELA y ACV en quienes las padecen y tomando en cuenta que para estas enfermedades no existe en nuestros días un remedio definitivo, el tratamiento se atiene únicamente a mejorar la calidad de vida de los pacientes, así como a optimizar su rehabilitación. Después de una ardua investigación, en este verano Delfín, pudo encontrarse que el impacto psicológico nocivo que causan la ELA y el ACV debe ser tomado en cuenta con especial atención, pues llega a reducir la efectividad de la rehabilitación en los pacientes. Por ello, es tan importante el resultado que arrojó la presente investigación: develar la gran importancia del uso de las ICC para mejorar el estado psicológico de las personas con ELA Y ACV, logrando con ello mejorar su rehabilitación, e influyendo en su calidad de vida de manera positiva.
Como un plus de este trabajo de investigación, se descubrió que el mindfulness debe ser también implementado en el tratamiento de los síntomas psicológicos adversos generados por el ACV y la ELA, así como para mejorar la rehabilitación y la calidad de vida de los individuos afectados, puesto que ha resultado muy eficaz en la intervención de otros trastornos psicológicos y en el mejoramiento de síntomas psicológicos adversos en enfermedades terminales y de otro tipo, en los respectivos pacientes. Resta expresar, que sería muy favorable para la humanidad continuar estimulando la investigación de las tecnologías ICC aplicadas a la salud y al mejoramiento de la calidad de vida de personas con ELA y ACV. Se deja este trabajo, como referencia para ampliar la indagación al respecto y para futuros trabajos de investigación.
Oceguera Castillo Valeria Jaqueline, Universidad de Guadalajara
Asesor:Mg. Carlos Alberto Rojas Trejos, Universidad del Valle
MODELO DE TOMA DE DECISIONES PARA LA LOCALIZACIÓN DE ALBERGUES TEMPORALES: CASO DE ESTUDIO: COLOMBIA
MODELO DE TOMA DE DECISIONES PARA LA LOCALIZACIÓN DE ALBERGUES TEMPORALES: CASO DE ESTUDIO: COLOMBIA
Camacaro Peña Maria Alejandra, Corporación Universitaria Minuto de Dios. Oceguera Castillo Valeria Jaqueline, Universidad de Guadalajara. Asesor: Mg. Carlos Alberto Rojas Trejos, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, aproximadamente el 36% del territorio colombiano se encuentra en situación de amenaza sísmica alta, el 28% en alto potencial de inundación y el 8% en amenaza alta por movimientos en masa. (Campos G et al., 2012). Un factor determinante es la ubicación geográfica del país, que trae consigo una diversidad geológica, hidrológica, climática y geomorfológica, acompañados de las acciones humanas, el crecimiento poblacional y concentración de ciudades en zonas de alto riesgo, que hacen propenso al territorio nacional a fenómenos catastróficos (Pérez Hernández & Rincón Amado, 2010). Cuando sucede un desastre, las repercusiones sociales y económicas son grandes, ya que hay daños en la infraestructura e integridad de las personas afectadas (La República, 2020). Por tal motivo, es importante brindar atención eficiente y oportuna en todas las etapas del desastre, las cuales son: mitigación, preparación, respuesta y recuperación. Las etapas anteriormente mencionadas están enmarcadas en dos momentos: antes de la ocurrencia del desastre (pre-desastre) y después de la ocurrencia del desastre (post-desastre). El primer momento es fundamental para la reducción del riesgo, la cual comprende actividades enmarcadas en la generación de planes de respuesta. El segundo momento es esencial es necesario el diseño de una red logística, con la cual se tenga una eficiente operación, permitiendo una reducción del impacto del desastre y la reactivación de la zona afectada. (Reyes Rubiano, 2015).
El problema de ubicación de instalaciones se ubica en la fase de respuesta a las afectaciones generadas por el desastre, puesto que es una función esencial de la logística humanitaria (LH) ofrecer rápidamente socorro (alimentos de emergencia, agua, medicamentos, refugio y suministros) a las zonas afectadas (Pérez Salazar, 2020).
Los problemas que se presentan en la toma de decisiones con respecto a la LH corresponden a la determinación de la cantidad de productos a distribuir, disponibilidad de centros de acopio, atención de zonas afectadas y su clasificación, así como el establecimiento de la cantidad de personas afectadas por el desastre. Por ende, es importante modelar este tipo de problemas, puesto a que contribuyen a buscar soluciones que permitan ante una situación de desastre una mejor planificación y control eficiente de estos recursos, flujo de productos y almacenamiento de materiales e información (Hernández Vega, 2019).
Con base en lo anterior, para contribuir en el alivio del sufrimiento de la población afectada es necesario establecer los lugares o sitios de refugio de las personas y familias damnificadas bajo unas condiciones mínimas de seguridad, accesibilidad, superficie, condiciones topográficas, estructurales y No estructurales durante las primeras 72 horas después que ocurre el evento disruptivo; por lo que constituye una problemática de atención importante en el marco de la logística humanitaria.
METODOLOGÍA
Se realiza una caracterización de la zona objeto de estudio mediante una revisión de fuentes secundarias. En diferentes bases de datos, como el repositorio de la Unidad Nacional de la Gestión del Riesgo y desastres, se busca información referente al Valle del Cauca y sus afectaciones por fenómenos naturales.
También, se identifican los factores que inciden en la localización de albergues temporales a partir de una revisión de la literatura. Partiendo de una recopilación de datos en Science Direct, Scopus y Google Académico, se reconocen los factores más importantes para la localización de albergues temporales en Colombia y otros países.
Además, se formula un modelo de toma de decisiones que considera los factores críticos identificados. Una vez recolectada la información, se formula el modelo matemático, en donde se tienen en cuenta las limitaciones de capacidad y cantidad de los albergues temporales, así como el número de personas damnificadas provenientes de cada zona afectada.
En el modelo se definen los supuestos, conjuntos, parámetros, función objetivo y las restricciones correspondientes. O anterior, se realiza con las herramientas de Excel y AMPL.
Por último, se lleva a cabo una validación del modelo de toma de decisiones a partir de un caso de estudio enmarcado en el contexto colombiano. Con la base de datos de UNGRD, se define el caso de estudio teniendo en cuenta la cantidad de personas afectadas, ocurrencia de desastres y afectaciones generadas.
La zona objeto de estudio es el departamento del Valle del Cauca, específicamente, el municipio de Roldanillo. Con la información recolectada, se generan los datos que satisfacen las limitaciones del modelo matemático y se valida su funcionalidad con la ayuda del solver Gurobi, disponible en la plataforma Neos Server for Optimization.
CONCLUSIONES
El Valle del Cauca es uno de los departamentos en los cuales se ha presentado más desastres naturales en el país, dejando una amplia cantidad de personas afectadas, fallecidas y viviendas destruidas y vías dañadas, lo que se traduce a pérdidas significativas tanto económicas como sociales. Por tal motivo se han estado incrementado los esfuerzos para mejorar la atención de respuesta ante desastres y su prevención y mitigación.
Los criterios que se deben tener en cuenta a la hora de la localización de albergues temporales son variados y depende de las condiciones de la zona y los requerimientos de la población, para que así se pueda ofrecer la ayuda oportunamente y que realmente se minimice el sufrimiento. Dentro de los criterios más comunes están: capacidad, servicios con los que cuenta, accesibilidad y exposición a riesgos.
Los resultados obtenidos con la solución del modelo planteado fueron, se logra la minimización de la demanda insatisfecha de ayuda humanitaria, al igual la distribución de las personas afectadas a los albergues manteniendo niveles adecuados de inventario en los centros de distribución y los albergues temporales para satisfacer las necesidades de las personas, logrando la ayuda oportuna.
Ochoa García Jorge Eduardo, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
ANáLISIS ESTOCáSTICO Y GEOESTADíSTICO DE UNA TORMENTA EXTREMA EMPLEANDO ESCENARIOS ESPACIO-TEMPORALES DE PRECIPITACIóN
ANáLISIS ESTOCáSTICO Y GEOESTADíSTICO DE UNA TORMENTA EXTREMA EMPLEANDO ESCENARIOS ESPACIO-TEMPORALES DE PRECIPITACIóN
Ochoa García Jorge Eduardo, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
La vulnerabilidad ante fenómenos extremos de los países de Latinoamérica y el Caribe es evidente. Las inundaciones provocadas por lluvias extremas son poco estudiadas desde un enfoque estocástico y geoestadístico. Este tipo de análisis ha permitido a países como Dinamarca, la estimación de parámetros y la evaluación del riesgo de desbordamiento por inundaciones, bajo un enfoque Bayesiano. En otros países como Estados Unidos, la modelación estocástica se ha combinado con procedimientos geoestadísticos como el Kriging.
METODOLOGÍA
El uso de estos procedimientos de hidrología-avanzada se han aplicado con gran éxito al flujo de arroyos no estacionarios multivariantes para cuencas hidrológicas urbanas. A nivel nacional, pocos son los estudios que utilizan procedimientos estocásticos para la evaluación de riesgos por tormenta en cuencas urbanas. De esta forma, se ubicó una tormenta ocurrida en septiembre de 2017 en la zona metropolitana de la ciudad de Querétaro. Con la obtención de información de datos climatológicos, se procedió con la elaboración de modelaciones estocásticas y geoestadísticas empleando diversos escenarios espacio-temporales de precipitación.
CONCLUSIONES
Los resultados de esta investigación, permiten pronosticar los caudales de las cuencas periurbanas para tormentas extremas. De esta forma, se establecen acciones precisas en la prevención de riesgos meteorológicos.
Ochoa Marquez Bernardo, Universidad de Guadalajara
Asesor:Dra. Josefina Vergara Sánchez, Universidad Autónoma del Estado de Morelos
ESTADO DE LA CUENCA RíO SANTIAGO-GUADALAJARA Y ALTERNATIVAS PARA SU TRATAMIENTO.
ESTADO DE LA CUENCA RíO SANTIAGO-GUADALAJARA Y ALTERNATIVAS PARA SU TRATAMIENTO.
Ochoa Marquez Bernardo, Universidad de Guadalajara. Asesor: Dra. Josefina Vergara Sánchez, Universidad Autónoma del Estado de Morelos
PLANTEAMIENTO DEL PROBLEMA
Se decidió optar por esta investigación debido al estado actual de la cuenca Río Santiago - Guadalajara, a la importancia que tiene el agua para la vida y a la necesidad de tener un agua de calidad para el ecosistema y la población.
Millones de personas alrededor del mundo todavía no tienen acceso a agua de calidad, hoy 2.2 millones de personas no tienen acceso a agua bebible y administrada de forma segura y el 80% del agua residual a nivel global regresa al ecosistema sin ningún tipo de tratamiento o reutilización. Y debido al calentamiento global, que aumenta la cantidad de sequías e inundaciones, el agua es aún más escasa y se encuentra en peores condiciones (ONU, 2021).
A nivel nacional, se recopilaron indicadores para medir la meta 6.3 de los ODS a nivel nacional y se encontró que se incrementó la proporción de aguas residuales tratadas de manera adecuada del 16% en 1998 hasta 49% en el 2019. En adición al dato anterior, la proporción de cuerpos de agua de buena calidad es del 53% al 2020 (Sistema de Información de los Objetivos de Desarrollo Sostenible, 2021).
Entre las principales problemáticas ambientales en la cuenca del río Santiago, el agua es un tema recurrente debido a que son la principal razón de que las actividades productivas se lleven a cabo en ésta área. Entre los factores más relevantes que afectan la calidad del agua se encuentran las descargas de aguas residuales en mantos freáticos, desechos sólidos y líquidos de las industrias como agroquímicos, pesticidas y demás industrias, el desabasto de agua y las Plantas de Tratamiento de Aguas residuales (PTAR) fuera de funciones o a un porcentaje menor para el que estaban diseñadas. Lo anterior sumado a la sobreexplotación del recurso hídrico por parte de las industrias, lo que causa un desequilibrio ecológico en la recarga de los mantos freáticos subterráneos (SEMARNAT, 2017).
METODOLOGÍA
Para la metodología, se tomaron en cuenta los límites establecidos por la ley para el fósforo y el nitrógeno amoniacal respectivamente. Se hizo una búsqueda bibliográfica extensiva sobre qué técnicas podían permitir éstos niveles de concentración en el agua ya tratada. (Kusumitha Perera, Englehardt, & Dvorak, 2019).
CONCLUSIONES
Las opciones presentadas anteriormente en forma comparativa conforman las opciones viables a implementar para la cuenca rio Santiago-Guadalajara.
El mejor tratamiento podría ser ya sea el biológico o la adsorpción, dependiendo de las condiciones del río y de los costos, ya que ambas son opciones económicas y accesibles.
Sin embargo, un modelo de adsorpción como éste requiere adherirse a limites físicos y termodinámicos. Además, puede que no sea posible elegir un modelo a priori para la cuenca, por lo sería necesario comparar datos isotérmicos experimentales con un modelo que se adapte a estos datos.
Por otro lado, un modelo biológico es un poco sensible a las condiciones ambientales, por lo que se tendría que proponer un método de control de variables como la temperatura, pH, etc. para tener un rendimiento eficiente de este sistema.
Ochoa Vega Akary Gabriela, Instituto Tecnológico Superior de Xalapa
Asesor:Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
ESTANDARIZACIÓN DE PROCESO ARTESANAL DE CERVEZA GASIFICADA NATURALMENTE MEDIANTE MIEL DE AGAVE.
ESTANDARIZACIÓN DE PROCESO ARTESANAL DE CERVEZA GASIFICADA NATURALMENTE MEDIANTE MIEL DE AGAVE.
Ochoa Vega Akary Gabriela, Instituto Tecnológico Superior de Xalapa. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
La cerveza artesanal es un vasto terreno repleto de interesantes y complejas experiencias que han dado lugar a una bebida tan apreciada que está integrada en la cultura e identidad de muchas comunidades.
Es aquella que está elaborada siguiendo una receta propia, por maestros cerveceros que le dan un sabor distinto y personal; por lógica su producción es limitada, ya que se pone especial atención en sabores y texturas distintas a las marcas industriale
Siendo esta una de las bebidas más consumidas a nivel mundial contando con suculentos aromas y sabores volviéndola más allá de una bebida refrescante.
Por su fascinante elaboración de cuatro ingredientes principales, siendo una bebida fermentada a partir de varios cereales germinados, principalmente la cebada , aromatizada y dando el sabor amargo mediante el lúpulo, utilizando agua y la levadura, dichos ingredientes permaneciendo inalterables. Aunque con el tiempo se han realizado muchas variedades y algunas cervezas imaginativas en el que se le ha añadido especias, frutas o hierbas dándoles un sabor original, así como también se han empleado nuevos métodos para gasificarla, incluso creando nuevas variedades de cervezas para que personas celiacas puedan consumirlas.
La fabricación de la cerveza artesanal cuyos procesos bioquímicos llevan a cabo:
1.La formación de enzimas en el grano de cereal germinante.
2.La degradación de almidón a azúcar por parte de estas enzimas.
3.La fermentación del azúcar a alcohol y CO2 en esta ocasión utilizando miel de
agave para su gasificación.
La carbonatación adecuada de la cerveza es uno de los determinantes para la calidad de esta ya que le añade sabor, cuerpo e influye en el modo en que los aromas del lúpulo y la malta serán percibidos. Los niveles de carbonatación se expresan en volúmenes de CO2, una medida de gas disuelto en el mismo volumen de líquido, en este caso es un litro de CO2 disuelto en un litro de cerveza. La mayoría de las cervezas cuentan con 2-3 de volumen, aunque hay algunas excepciones. Normalmente se ajustan los niveles al estilo de cerveza que se desee elaborar. En esta investigación se tomó en cuenta cinco factores a la hora de carbonatar la cerveza los cuales son: la levadura, los azúcares (miel de agave y dextrosa), el tiempo, la temperatura y a la hora de embotellar la cerveza.
METODOLOGÍA
PRUEBA 1 OBTENCIÓN DE CERVEZA
Pasos con grano entero
Moler 300 gr de malta entera sin llegar a ser polvo total.
Agregar los 300 gr de grano molido a la olla
Adicionar 2Litros de agua
Macerar por 1 hora a 68ºc
Homogenizar con ayuda de la pala de acero inoxidable y apagar la estufa.
Filtrar el mosto con una coladera a una olla.
Dejar enfriar.
Hervir 500 mililitros de agua
Agregar el agua de malta a el agua hervida
Dejar hervir la mezcla por 45 minutos (100ºc)
Dependiendo del grado de amargor que queramos la cerveza agregamos el lúpulo, a los 30 minutos agregamos 1.3 gramos de lúpulo 1, a los 15 minutos agregamos 1.3 gramos de lúpulo 2 y por ultimo a los 7 minutos agregamos 1.3 gramos de lúpulo 3.
Pasando los 45 minutos apagamos la estufa.
Enfriamos por 10 minutos en una cama de hielo o por 30 minutos dentro del refrigerador. (hasta tenerlo a temperatura ambiente)
Después de esto ya obtuvimos 2 Litros de mosto frio.
Vaciamos el mosto a la botella, el mosto tiene que bajar por las paredes de la botella sin hacer burbujas de aire.
Agregamos 1 gramo de levadura
Tapamos la botella con ayuda de una bolsa plástica, a la bolsa le hacemos unos pequeños agujeros.
Aseguramos la bolsa con una liga.
Dejamos la botella en un lugar obscuro y fresco por 7 u 8 días.
Pasando los 7 u 8 días de la fermentación se realiza la prueba de calidad, tenemos que tener en cuenta los siguientes aspectos para poder continuar con el embotellado:
Formación de nata (normal)
Sedimentación (normal)
Trazas de lúpulo (normal)
Al probar no tiene que tener sabor a limón, a grasa o sabor agrio.
No tiene que oler a acetona.
Si cumple los pasos de calidad continuar con los siguientes pasos
Vaciar 1L de cerveza en cada botella, vaciando por las paredes de la botella sin hacer burbujas de aire.
En cada botella agregar 6 mililitros de jarabe de agave para realizar la carbonización o en se defecto 6 gramos de dextrosa.
Tapar las botellas y guardar en un lugar fresco y obscuro por 2 semanas.
CONCLUSIONES
Al finalizar esta investigación pude desarrollar distintas habilidades y conocimientos, buscando alternativas secundarias para poder llevar a cabo la estandarización del proceso artesanal de cerveza gasificada naturalmente mediante miel de agave.
Al no tener los materiales específicos para realizar la prueba busque sustituirlos por materiales de nuestra vida cotidiana.
Gracias a este proyecto pude tener la oportunidad de enriquecerme con nuevos conocimientos, como lo fue el estudio de las materias primas, la investigación del proceso de obtención de cerveza y el proceso de fermentación que ocurre al utilizar dextrosa y jarabe de agave el cual es nuestro principal objeto de estudio.
Ojeda Amador Juan Alberto, Universidad Autónoma de Occidente
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PRóTESIS ROBóTICA MANEJADA POR APLICACIóN
PRóTESIS ROBóTICA MANEJADA POR APLICACIóN
Ojeda Amador Juan Alberto, Universidad Autónoma de Occidente. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
El proyecto nace de la inquietud de ayudar a las personas a tener una mejor calidad de vida, además de dar un ejemplo de lo que los estudiantes pueden lograr al aplicar los conocimientos que adquieren en el aula, para lograr este objetivo fue necesario establecer cuál era la finalidad de la elaboración del proyecto de robótica a diseñar, después de una lluvia de ideas y análisis de problemáticas que pudiéramos ayudar a resolver en la comunidad decidimos que el proyecto sería enfocado a la construcción de un brazo robótico, es decir que el diseño a desarrollar aparte de ayudar a desarrollar las habilidades lógicas, las matemáticas, razonamiento, trabajo en equipo, las habilidades psicomotrices, también es un motivante para apoyar a las personas que han sufrido la pérdida de su brazo y mano.
Con el empleo de la robótica como un recurso didáctico se logra fomentar la motivación de los estudiantes, garantizando el aprendizaje significativo, además de despertar su interés por las vocaciones científicas y de investigación en el campo de la robótica, la electrónica, la informática, la mecánica y la física entre otras.
METODOLOGÍA
Prótesis Robótica manejada por aplicación es un prototipo que consiste en una mano y antebrazo robótico que se manejan con tecnología de voz, puede ser usada como herramienta para una persona discapacitada para tomar diferentes objetos, además puede ser utilizado como herramienta didáctica en el ámbito educativo para la enseñanza práctica de la robótica o mecatrónica.
Prótesis Robótica manejada por aplicación emplea una aplicación desarrollada en App Inventor para el sistema operativo Android para la operación de la mano, es decir mediante un teléfono celular se envían instrucciones de voz que se convierten en movimientos.
Prótesis Robótica manejada por aplicación surge de la inquietud de crear una prótesis para aquellas personas que hayan sufrido algún tipo de percance y que diera como resultado la pérdida de antebrazo y mano; la intención es que estas personas puedan recobrar en la medida de lo posible sus funciones perdidas utilizando una prótesis estética y totalmente funcional a un costo accesible.
La prótesis robótica está hecha en una impresora 3D, el diseño inicial de dicha prótesis está tomado de un modelo libre de derechos que fue mejorado y adaptado para un mejor funcionamiento, su material es de un plástico PLA que nos ha permitido realizar un prototipo ligero, fácil de adaptar y con una resistencia no mayor a los 13 kgs por el tipo de motores que se usan.
La mano está compuesta por seis servo-motores, de los cuales uno le permite movilidad a la articulación del pulgar, cuatro de ellos se encargan de la movilidad de los cinco dedos, y el último se encarga de que el brazo pueda girar.
Para el manejo de la prótesis robótica se utiliza el celular mediante el cual se envían diferentes instrucciones mediante señal bluetooth al circuito arduino el cual tiene grabadas la secuencia de movimiento que tiene la mano y el brazo.
Para la realización del proyecto se buscó primero que la idea que se podría desarrollar fuera practica y útil, además que sirviera para aplicar y aprender cosas relacionadas con nuestra carrera y que tuviera un impacto en la sociedad.
Con el tema ya definido nos dimos a la tarea de investigar todo lo que actualmente se maneja sobre este tema y fue como analizamos diferentes modelos y tipos de mano decidiendo finalmente usar la tecnología de impresión 3D para hacer el diseño.
Fue muy importante para poder desarrollar Prótesis Robótica manejada por aplicación el trabajo en equipo, la colaboración e investigación que se realizó entre los miembros del grupo, además se conto con el apoyo teórico de los maestros de las carreras del área de acentuación de robótica y del área de terapia física, los cuales nos ayudaron a dar bases sólidas y científicas al proyecto.
Para el desarrollo de Prótesis Robótica manejada por aplicación se utilizaron piezas impresas en 3D PLA, tornillos, hilo para articulaciones y ligamentos para los movimientos de la mano, cuatro servomotores MG995 y un Servomotor MG90S.
Para controlar la mano se emplea un celular con sistema operativo Android el cual se conecta mediante un dispositivo bluetooth con una placa arduino nano y una tabla fenolica en la cual se tienen conectados todos los componentes electrónicos necesarios para el manejo de los motores, la programación desarrollada para el control de los motores se realizó en Arduino IDE.
Para el desarrollo de la aplicación que manejara el brazo robótico se usara la plataforma de desarrollo de APP INVENTOR, ya que contiene todos los elementos que necesitamos para la programación y es compatible con la mayoría de los celulares.
La primera fase constituye el análisis de la necesidad educativa, la segunda describe el diseño del robot el cual comprende el diseño de las tareas a ejecutar por el robot, diseño del mundo, diseño mecánico, diseño electrónico y diseño computacional, esta fase sirve de soporte a la siguiente. La tercera fase es la de construcción del robot, la cual contiene el corte y ensamble de piezas, ensamble electrónico, programación del juguete y ensamble final. La cuarta fase es la de pruebas y ajustes, en ella se describe la prueba piloto y la validación del robot, la culminación de esta fase da paso a la quinta fase que es la implementación del robot la cual describe el uso del mismo y la obtención de resultados.
CONCLUSIONES
Se lograron cumplir los propósitos y objetivos completamente del proyecto, además de aplicar los conocimientos que hemos tenido en la universidad tuvimos que aprender nuevas cosas, el trabajo se cumplió al 100% en las metas establecidas.
De este proyecto se pueden derivar nuevos prototipos o bien ampliarlo para buscar llegar a formar en un futuro un exoesqueleto que pueda ayudar a las personas a mejorar su calidad de vida.
Ha sido muy gratificante en lo académico y en lo personal para todo el equipo el desarrollo de este proyecto ya que hemos incursionado en el desarrollo de tecnología que sin duda será el futuro en todo el mundo.
Ojeda Iglesias Victor Omar, Instituto Tecnológico de Chilpancingo
Asesor:M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
DESARROLLO DE JUEGOS SERIOS DE REALIDAD VIRTUAL PARA ADULTOS MAYORES DE 65 AñOS, QUE VIVEN CON INESTABILIDAD POSTURAL A CAUSA DE LA EDAD.
Diaz Wences Erick Sebastián, Instituto Tecnológico de Estudios Superiores de Zamora. García Bibiano Jenifer Estefanía, Instituto Tecnológico de Chilpancingo. Ojeda Iglesias Victor Omar, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
Los adultos mayores pueden presentar alteración en el control postural y por ello generar respuestas inadecuadas en los ajustes posturales, ya que con el paso de los años se va deteriorando la movilidad, la agilidad y la capacidad de mantener la estabilidad que causa un alto riesgo de caídas y un severo aislamiento social. Los individuos que muestran inestabilidad al estar parados sobre una pierna, también presentan dificultades al caminar, por lo tanto, deben recibir una mayor atención porque esa fragilidad física en la vida cotidiana les causa un miedo constante por caer, esto puede causar que se aíslen de la sociedad, sin tomar en cuenta que en muchas ocasiones no toman las terapias físicas adecuadamente o las abandonan antes de tiempo. Algo que es realmente preocupante en las personas mayores de 65 años ya que son quienes corren mayor riesgo de sufrir caídas mortales, siendo estas la segunda causa mundial de muerte por lesiones accidentales o no intencionales según la Organización Mundial de la Salud (OMS).
Tratando de ayudar en el proceso de rehabilitación física de adultos mayores que han abandonado la terapia física del programa de ejercicios terapéuticos PROBAUAM, se desarrolla un sistema de realidad virtual desarrollando minijuegos serios para los adultos mayores con la finalidad de que estos puedan realizar sus ejercicios terapéuticos de forma divertida sin sentirse aislado, generando autonomía, una alta autoestima y a su vez evitando el abandono de la terapia física.
METODOLOGÍA
Para la realización del proyecto que tiene como principal objetivo el desarrollo de juegos serios de realidad virtual, se obtuvo información del protocolo PROBAUAM que es un protocolo de ejercicios terapéuticos para mejorar la estabilidad en adultos mayores de la Universidad Autónoma de Manizales. En el cual se muestran los ejercicios que deben realizar los adultos mayores en su terapia física. Para poder desarrollar los minijuegos, se realizan una serie de pasos; en los cuales el equipo de trabajo se dividió en 2 grupos; de los cuales un grupo se designó para el diseño de dichos minijuegos, dentro de sus actividades a realizar; se elegía un ejercicio del protocolo y se exponen una serie de propuestas de minijuegos que se pueden realizar con el ejercicio anteriormente seleccionado y se rellena una ficha técnica la cual contiene los datos más relevantes y la idea más explícita, posteriormente pasa por una revisión del equipo de ingeniería, los cuales cuestionan el porqué de la idea, y dan observaciones acerca del minijuego, si este es riesgoso, o que pueda causar problemas a los adultos, se realizan las correcciones y pasa por otra revisión de parte de equipo de fisioterapia para analizar, dar observaciones y aprobar o desaprobar la propuesta. Ya que es aceptada la propuesta se comienza a desarrollar la escena en Unity 3D, buscando los assets necesarios para su creación e incluirlos, organizando todos los assets por su tipo como materiales, texturas, prefabs, animaciones, por su alcance, etc. Terminado el diseño de la escena se pasa al otro grupo que es el de desarrollo que se encarga de la programación y funcionamiento de los minijuegos. Para el desarrollo se utilizó el lenguaje C#, y la herramienta SteamVR. Para realizar las pruebas se usaban los lentes y controles en físico o usando el simulador de Unity. Una vez probado y terminado el minijuego pasa a una revisión con el equipo de ingeniería para pruebas y correcciones, después pasa por el equipo de fisioterapia para dar el visto bueno o dar observaciones de algunas mejoras o modificaciones, cuando estos ya están finalizados se implementan en el proyecto final a través de GitHub.
CONCLUSIONES
Durante el proceso de diseño nos enfrentamos con muchos retos de los cuales principalmente fueron las limitantes que surgen debido a que el proyecto está dirigido a adultos mayores por lo cual debíamos tener en cuenta las restricciones; algunas de ellas eran las temáticas de los minijuegos debido a que el equipo de fisioterapia nos pedía evitar temas agresivos o que pudieran asustar a los adultos mayores, también nos pedían moderar la velocidad del juego porque les podría generar problemas de mareo; otro de los retos que tuvimos al diseñar los minijuegos fue encontrar las motivaciones que tendrían los adultos al realizar estos ejercicios, contemplando las observaciones y restricciones mencionadas por el equipo de fisioterapia. Pero gracias a las sesiones de retroalimentación con el equipo de fisioterapia y de ingeniería poco a poco fue más fácil el proponer los minijuegos con las observaciones logramos aprender y entender los factores a tomar en cuenta para el diseño de los minijuegos.
En el proceso de desarrollo obtuvimos conocimientos del funcionamiento de Unity, desde la creación de escenas, importación de assets, uso de librerías, creación de materiales y texturas, implementación de SteamVR, programación en C#, crear y controlar animaciones, etc. Además durante el desarrollo tuvimos un gran problema debido a que no muchos podían contar con el equipo de RV para estar probando los minijuegos y a pesar de utilizar un simulador para probar las escenas no era lo mismo que utilizar el equipo de RV ya que cuando se intentaban probar algunas escenas que fueron hechas con el simulador causaban algunos problemas al probarlo con el equipo de RV; también tuvimos que aprender a usar blender ya que en algunos caso era necesario modificar modelos 3D para poderlos utilizar.
El problema que más destacó fue trabajar en modalidad online pero a pesar de eso se pudo trabajar en equipo, logrando diseñar 25 de 36 actividades y desarrollar 12 de 25 minijuegos, cumpliendo con 69.44% en diseño y 48% en desarrollo de lo esperado.
Ojeda Moreno Oscar David, Instituto Tecnológico de La Piedad
Asesor:Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
SIMULACIóN DE SISTEMAS ACOPLADOS
SIMULACIóN DE SISTEMAS ACOPLADOS
Camacho Vargas Valeria Itzel, Instituto Politécnico Nacional. Ojeda Moreno Oscar David, Instituto Tecnológico de La Piedad. Pozos Patraca Alberto, Universidad Veracruzana. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
El flujo de un fluido puede ejercer presión y/o cargas dinámicas sobre los elementos estructurales. Estas cargas pueden causar una deformación estructural lo suficientemente significativa como para alterar el flujo del fluido en sí. Los efectos no deseados en una estructura pueden aumentar a medida que aumenta el nivel de interacción fluido-estructura. Con la simulación ANSYS puede obtener una comprensión más profunda de los fenómenos que ocurren para garantizar la seguridad, la fiabilidad y la longevidad.
Para los problemas de interacción fluido-estructura, se pueden utilizar simulaciones FSI (Fluid Structure Interaction) acopladas. Las simulaciones de fluido y estructurales se configuran y resuelven al mismo tiempo. Un ejemplo de esto sería calcular el flujo alrededor de un ala de un avión y transferir las cargas de presión para resolver la deformación estructural. La deformación estructural sería transferida nuevamente a la simulación CFD (Computational Fluid Dinamics) para calcular nuevamente el flujo, y este proceso se repetiría.
METODOLOGÍA
Para la simulación de un problema acoplado fluido-estructura fue necesario el empleo de herramientas computacionales, empleando el método de Elementos Finitos para la parte estructural y el método de Volumen Finito para el caso del fluido, para ello se utilizó en Software ANSYS versión Student.
Para comprender el funcionamiento del software fue necesario realizar diversas pruebas utilizando sistemas más sencillos, comenzando con las herramientas CAD, métodos de mallado, simulación Estática y dinámica Estructural, simulación Estable y Transiente para el caso de fluidos y finalmente pruebas para el acoplamiento de ambos sistemas.
CONCLUSIONES
Las herramientas de diseño y simulación utilizadas en la industria permiten la estimar con un alto grado de precisión el funcionamiento de un elemento o dispositivo bajo diferentes condiciones de carga incluso antes de realizar la fabricación del mismo. En el sector educativo, estas herramientas permiten una mejor comprensión de los conceptos de ingeniería, especialmente el diseño mecánico y el flujo de fluidos. Sin embargo, una de las desventajas, es la necesidad de contar con equipos de cómputo potentes, que puedan ejecutar los cálculos necesarios para cada tipo de modelo.
Olaguez Morales Cinthya Amayranni, Universidad Autónoma de Sinaloa
Asesor:M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez
MODELOS DE PROYECCIóN Y PREDICCIóN EN VARIABLES DE POTENCIA Y TEMPERATURA EN LOS SISTEMAS FOTOVOLTAICOS.
MODELOS DE PROYECCIóN Y PREDICCIóN EN VARIABLES DE POTENCIA Y TEMPERATURA EN LOS SISTEMAS FOTOVOLTAICOS.
Ceniceros Bermudez Brisseida, Universidad Autónoma de Sinaloa. Olaguez Morales Cinthya Amayranni, Universidad Autónoma de Sinaloa. Asesor: M.C. Jeovany Rafael Rodriguez Mejia, Instituto Tecnológico de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Sabiendo que en la actualidad el tema de energías renovables es un tema preocupante para los países debido a la sobreexplotación y el agotamiento de los combustibles fósiles, y el alto nivel de contaminación e impacto ambiental que producen, el hombre se ha visto en la necesidad de buscar fuentes energéticas renovables que permitan la manutención del equilibrio de los ecosistemas. Por lo que se ha visto en la necesidad de innovar métodos y buscar ideologías para el desarrollo de dispositivos que aprovechen la energía solar. Un claro ejemplo de ello es la instalación de celdas fotovoltaicas, pero ¿Cómo saber las características adecuadas para su instalación y el tipo de celda?, es por ello que se desarrollara un Modelo de predicción para su instalación, si se desea colocar en alguna parte de la republica con sus aspectos requeridos ya sea de 100 o 1000 watts. Este modelo arrojara la radiación que entra a la celda, la temperatura, para realizar una comparación con dichas variables y obtener la potencia de celda. Sin dejar en cuenta que determinara distintas variables importantes las cuales podrían ser la temperatura ambiente entre otras.
METODOLOGÍA
Conceptos básicos
Radiación solar: Es un fenómeno físico debido a la emisión de energía por parte del Sol en forma de radiaciones electromagnéticas. Estas radiaciones pueden ser cuantificadas y se expresan en unidades de irradiación, una unidad que refleja su potencia por unidad de superficie.
Energía solar fotovoltaica: Ésta se basa en la captación de energía solar y su transformación en energía eléctrica por medio de módulos fotovoltaicos.
Efecto fotovoltaico: El efecto fotovoltaico es la base del proceso mediante el cual una célula fotovoltaica convierte la luz solar en electricidad. La luz solar está compuesta por fotones, o partículas energéticas. Estos fotones son de diferentes energías, correspondientes a las diferentes longitudes de onda del espectro solar. Cuando los fotones inciden sobre una célula fotovoltaica, pueden ser reflejados, absorbidos, o pueden pasar a través de él. Únicamente los fotones absorbidos generan electricidad.
Celda solar fotovoltaica :Las celdas fotovoltaicas son elementos que producen electricidad al incidir la luz sobre su superficie; la fuente de luz utilizada generalmente es el sol. Estas celdas también son conocidas como baterías solares, fotopilas o generadores helio voltaico.
POTENCIA ELÉCTRICA: Potencia es la velocidad a la que se transforma la energía. Si la energía fuese un líquido, la potencia sería los litros por segundo que vierte el depósito que lo contiene. La potencia se mide en joule por segundo (J/s) y se representa con la letra P.
VOLTAJE: La diferencia de potencial entre dos puntos de una fuente de Fuerza Electromotriz (FEM) se manifiesta como la acumulación de cargas eléctricas negativas (iones negativos o aniones), con exceso de electrones en el polo negativo (-) y la acumulación de cargas eléctricas positivas (iones positivos o cationes), con ausencia de electrones en el polo positivo (+) de la propia fuente de FEM.
CORRIENTE: La corriente eléctrica que se genera en una celda es proporcional al área de la superficie en la cual incidirá la radiación solar.
Redes neuronales: Una red neuronal es un modelo simplificado que emula el modo en que el cerebro humano procesa la información: Funciona simultaneando un número elevado de unidades de procesamiento interconectadas que parecen versiones abstractas de neuronas. Las unidades de procesamiento se organizan en capas. Hay tres partes normalmente en una red neuronal: una capa de entrada, con unidades que representan los campos de entrada; una o varias capas ocultas; y una capa de salida, con una unidad o unidades que representa el campo o los campos de destino.
Desarrollo del modelo matemático
Por medio de celdas fotovoltaicas monocristalinas y policristalinas se obtuvieron datos de temperatura, voltaje, corriente y radiación. La primera fase fue la de procesamiento esta se hizo con el objetivo de manipular y acondicionar los datos crudos de las celdas fotovoltaicas y estación meteorológica, en esta fase se convirtieron los datos que se encontraban en forma de texto en datos que fueran manejables en Excel. Después se aplico la segunda fase que se basaba en la limpieza de los datos para esto tuvimos que convertidos los datos a lo que correspondía las variables de temperatura, voltaje, corriente y radiación, se establecieron los rangos y por consiguiente se aplicó un código para que procesara los datos arrojando los outliers que son los valores que se encontraban fuera del rango. En seguida de haber realizado la limpieza de datos se aplico el algoritmo PCA para poder encontrar las variables de potencia, temperatura promedio de la celda y eficiencia. Para finalizar se diseño una red neuronal para encontrar la confianza del modelo utilizan en primera la comparación de las variables de temperatura promedio y potencia, también las variables de radiación se comparo con la temperatura promedio y por ultimo la radiación y potencia.
CONCLUSIONES
Podemos concluir que los resultados fueron satisfactorios ya que se puedieron encontrar los niveles de confianza de los modelos plateados. Por otra parte tambien se deja en claro que una RNA es un modelo matemático inspirado en el comportamiento biológico de las neuronas y en la estructura del cerebro. Esta también puede ser vista como un sistema inteligente que lleva a cabo tareas de manera distinta a como lo hacen las computadoras actuales. Los modelos matemáticos en que han sido desarrollados los algoritmos para todos los tipos de redes son modelos sencillos, que aunque exigen cierto grado de conocimientos de cálculo diferencial, pueden ser asimilados y desarrollados en cualquier lenguaje de programación. Por otro lado, las estructuras de las redes se han definido por medio de notación sencilla y comprensible, cada nuevo desarrollo permite cierta flexibilidad en cuanto a la forma final de la red y esto garantiza su fácil adaptación a aplicación particulares
Olivera López Velarde Arantza, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Elmer Gonzales Benites Alfaro, Universidad César Vallejo
EFICIENCIA ENERGéTICA DEL PROCESO DE CAVITACIóN HIDRODINáMICA PARA EL TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS EN COMPARACIóN CON OTROS MéTODOS
EFICIENCIA ENERGéTICA DEL PROCESO DE CAVITACIóN HIDRODINáMICA PARA EL TRATAMIENTO DE AGUAS RESIDUALES DOMéSTICAS EN COMPARACIóN CON OTROS MéTODOS
Olivera López Velarde Arantza, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Elmer Gonzales Benites Alfaro, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
La escasez de agua a nivel mundial, así como el aumento de la contaminación en los recursos hídricos son un tema de gran importancia, causando muchos conflictos sociales y daños a la salud. (Távares, Mildred Cortés & Álamo, Carmen, 2020)
Según la ONU Más del 80% de las aguas residuales resultantes de actividades humanas se vierten en los ríos o el mar sin ningún tratamiento, lo que provoca su contaminación. (ONU, 2021)
Actualmente se ha generado una tendencia en las investigaciones y proyectos que buscan nuevas formas de realizar el tratamiento de aguas residuales domésticas e industriales (Arcila & Peralta, 2015) con la finalidad de aumentar su eficiencia, efectividad, viabilidad y sostenibilidad. Sin embargo, son pocos los trabajos de investigación que consideran el consumo de energía, las pérdidas y la eficiencia energética de los procesos como una variable relevante para tomar en cuenta en los resultados del tratamiento.
METODOLOGÍA
Se eligieron 5 métodos de tratamiento de aguas residuales los cuales fueron estudiados y analizados para calcular su consumo energético, evaluar sus resultados y definir su eficiencia energética para compararlos con los datos obtenidos del método de cavitación hidrodinámica y poder identificar cuál es el método más eficiente.
Los métodos de tratamiento seleccionados para compararlos con la cavitación hidrodinámica fueron:
- Electrocoagulación
- Electrodiálisis
- Osmosis inversa
- Fotocatálisis
- Electrofenton
Una vez consultada la bibliografía suficiente se definieron ciertos parámetros para cada método de tratamiento para poder realizar el cálculo del consumo energético, el cual parte de la ecuación de Joule y queda de la siguiente forma:
Consumo de energía= (Corriente)(Voltaje)(Tiempo)
Los datos obtenidos fueron:
Para cavitación hidrodinámica:
Se toman los datos de Contreras y Garavito (2015), que menciona un consumo de energía de 43.92 kW por día, es decir, 1.83 kWh.
Con los datos de Cadenas Castro & Santos Padilla, (2020) se calcula el consumo energético, teniendo un resultado de 2.992kWh
Se consideró promediar estos dos valores para tener un valor más aproximado para la comparación con los otros métodos, obteniendo como valor promedio un consumo energético de 2.411 kWh.
Para electrocoagulación el consumo de energía es de 1.133 kWh.
Para electrodiálisis el consumo energético para una hora sería 0.232 kWh.
Para Osmosis inversa se tiene un consumo de energía de 11,880 kWh.
Para fotocatálisis se tiene un consumo energético de 1.85 kWh.
Para electrofenton se tiene un consumo de energía de 5.05 kWh.
Una vez obtenidos estos datos se calculó el costo por kW al año, obteniendo los siguientes resultados:
Cavitación hidrodinámica: $746.96 dólares al año
Electrocoagulación: $3,945.22 dólares al año
Osmosis inversa: $229,818.6 dólares al año
Electrodiálisis: $1,077.115 dólares al año
Fotocatálisis: $858.918 dólares al año
Electrofenton: $4,689.23 dólares al año.
CONCLUSIONES
Centrándonos en el consumo de energía de la cavitación hidrodinámica, se observa que alcanza valores de consumo muy bajos. Sin embargo, estos valores podrían disminuirse aún más si los equipos utilizados fueran modernizados por bombas que consuman menos energía o que funcionen con energías renovables.
Hay métodos que parecieran ser más eficientes por su bajo consumo energético, como es el caso de la elctrodiálisis, sin embargo este proceso es lento y el consumo es por hora, por lo que el consumo final del proceso es un poco más elevado que el de la cavitación.
Se observa igual que el proceso de fotocatálisis tiene niveles bajos de consumo, estos valores son cubiertos totalmente por energía solar convirtiéndolo en un proceso sostenible energéticamente.
Ambientalmente, la cavitación encabeza la lista y es considerado un método verde de tratamiento de aguas debido a que no utiliza ningún pretratamiento químico y sus residuos se consideran casi nulos. Contrario a otros métodos como electrocoagulación que ocupan electrodos de hierro, la fotocatálisis que utiliza catalizadores de dióxido de titanio y la osmosis inversa que necesita cantidades muy altas de energía para funcionar.
En tema de costos, la cavitación hidrodinámica es la que tiene el costo más bajo por año, debido a que aunque no es el método con el menor consumo kWh sí lo es en cuanto a consumo energético total por día.
Finalmente, se concluye que el proceso de cavitación hidrodinámica sí es eficiente, y que es un área de oportunidad para la investigación, ya que pueden mejorarse mucho los valores de eficiencia energética.
Olvera Flores Démian Josué, Universidad de Guadalajara
Asesor:Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DE LENGUAJE DE PROGRAMACIóN PYTHON
SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DE LENGUAJE DE PROGRAMACIóN PYTHON
Olvera Flores Démian Josué, Universidad de Guadalajara. Rodríguez Aguilar Juan Carlos, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Se plantea estudiar, probar y dar solución a manera de cálculo de escritorio y e implementación en software de programación Python, a problemas de obtención de datos PvT (Presión, volumen, Temperatura) termodinámicos como lo son: factor de comprensibilidad z, volumen especifico, desviación de entalpia, desviación de entropía y fugacidad. El fin es cimentar lo que será una plataforma educativa para el futuro.
METODOLOGÍA
Se realizó el estudio de la ecuación de estado de Lee-Kesler, principalmente del articulo Generalized Thermodynamic Correlation Based in Three-Parameter Corresponding States. (Lee-Kezler 1975) y se separaron los temas por semana, para su fina comprensión, llevando la teoría antes de la resolución de problemas para poder llevarlos en práctica a la programación.
Se definieron los siguientes temas
Ecuación de estado Lee-Kesler
Desviación de entalpia
Desviación de entropía
Fugacidad
Posteriormente se realizaron las pruebas, de ejercicios del libro Engineering and Chemical Thermodynamics 2nd ed 2013. (Milo D. Koretsky) contestados y sin contestar.
Una vez realizadas las pruebas en papel, se procedió a programar el código y probarlo con los datos del problema.
Las constantes pruebas con datos de especies y procesos químicos reales, relatados en el libro, hicieron notar que la obra del autor Koretsky tiene una pequeña falla en una constante que habría corregir.
Otro detalle es que se notó que el libro se diferencia del artículo en el que se basa (Lee-Kezler 1975), con datos con signo invertido, es decir, negativos en lugar de positivos y viceversa.
No obstante, se consideró sobre la metodología que sí varió el resultado y es normal, debido a la prioridad del uso de las constantes y no del hecho de simplemente interpolar linealmente y el redondeo utilizado.
La ecuación de Lee-Kesler involucró en la programación el recurso spicy.optimize import newton para realizar el método numérico para la obtención de la ecuación cubica del volumen.
Además se programó de tal forma que el usuario solo tenga que ingresar:
Temperatura critica [K]
Presión critica [bar]
Factor acéntrico [adimensional]
Temperatura [K]
Presión [bar]
Al finalizar el código y las pruebas satisfactoriamente se cumplieron los objetivos del programa y como extra, se reunió cada método (Ecuación de estado, llamada así en Python) se unificó en un solo menú (archivo base, llamado así en Python) cual bastará con solo abrirlo para acceder a un panel de opciones que enlazará a cualquier método disponible, automáticamente a elección del usuario (siendo la opción 9 Metodo_Lee el método estudiado principalmente en el programa Delfín).
Como parte de la metodología, se muestra a continuación cada prueba realizada en escritorio y posteriormente comprobada, probada y evaluada en Python.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos prácticos de la programación de ecuación de estado, como teóricos en la formulación y comprensión de los mismos.
Se logró desarrollar el código para la ecuación de estado de Lee-Kesler, realizando problemas en la teoría tanto como en el programa, con el fin de comparar resultados y garantizar el funcionamiento del código.
Los resultados con el programa se calculan exageradamente más rápido que la forma tradicional, difiriendo de los datos tabulados en graficas que provienen de regresiones lineales, que, en retrospectiva, son menos exactos que los programados.
Además, se logró reunir más ecuaciones de estado previamente desarrolladas por el asesor en un solo menú, con la finalidad de hacer la experiencia más agradable al usuario.
Se está trabajando en dar seguimiento al programa con la parte visual y grafica al conjunto de ecuaciones que favorecerían la facilidad de uso aún más con la inclusión de tablas con datos reales sobre Presiones críticas y Temperaturas críticas de diversas especies orgánicas e inorgánicas, por lo que de esto último no hay evidencias hasta el momento.
Ordoñez Miranda Guadalupe, Universidad Mexiquense del Bicentenario
Asesor:M.C. Juan Carlos Aquino Hernández, Universidad Tecnológica de Nayarit
CELDAS FOTOVOLTAICAS A BASE DE TIO2 Y TIZNE DE MADERA
CELDAS FOTOVOLTAICAS A BASE DE TIO2 Y TIZNE DE MADERA
Ordoñez Miranda Guadalupe, Universidad Mexiquense del Bicentenario. Asesor: M.C. Juan Carlos Aquino Hernández, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
El ser humano siempre ha buscado mejorar su bienestar y comodidad, sin embargo, la generación de energía eléctrica basada en fuentes convencionales de energía conlleva la liberación de contaminantes que afectan el medio ambiente y la salud en zonas cercanas a la central de generación de ésta; dichas afectaciones han presentado un considerable aumento a lo largo del tiempo; debido a que del mismo modo se ha presentado un incremento en la demanda de energía eléctrica, todo esto como resultado del crecimiento de la población y de la actividad económica. Por tal motivo, uno de los principales objetivos actualmente de la sociedad es el de disminuir la emisión de contaminantes, puesto que cada vez son más los que apuestan por el uso de energías renovables y se destaca en este estudio las energías renovables a través de celdas solares orgánicas, las celdas de silicio cristalino tipo p se han utilizado como componente activo en la mayoría de las células solares en nuestro caso se utilizara 8 capas de sol-gel deTiO2 y Tizne de leña para conocer las propiedades de conducción. Cabe destacar que existe gran cantidad de fuentes de energía sustentable; sin embargo para casos prácticos, se busca la elaboración de una celda fotovoltaica a base de deTiO2 y Tizne de leña para generar energía eléctrica, resaltando que ésta es una herramienta que permite la reducción de la contaminación, generando un ahorro económico en los hogares y también ayudando a disminuir algunos de los daños causados a la salud de la población.
METODOLOGÍA
El desarrollo del presente proyecto gira en torno a la elaboración de celdas fotovoltaicas a base de dióxido de titanio, las cuales se les pretende brindar un enfoque más ecológico colocándolos sobre tejas y de tal manera sustituir los materiales convencionales con los cuales se elaboran dichas celdas; para de tal manera dar cumplimiento con alguno de los objetivos de desarrollo sostenible que integran la Agenda 2030.
Con respecto a la elaboración de la celda solar se optó por utilizar cristales puesto que el vidrio permite que la luz natural pase mientras refleja una gran parte del calor solar. Así mismo optimiza la transmisión de la luz, el control solar y el alto rendimiento térmico. Del mismo modo se optó por implementar el dióxido de titanio, destacando que Betanzos Sánchez Omar (2018) señala que este material funciona como un excelente foto catalizador debido a que es capaz de absorber la radiación electromagnética cerca de la zona ultravioleta, debido a esta importante característica, el TiO2 es un material usado para la construcción de paneles solares. Debido a su color característico blanco y sus grandes ventajas, teniendo aplicaciones en pintura, pigmentos, protectores solares y cosméticos.
Sin embargo para obtener mayores niveles de energía se optó por utilizar grafeno ya que Betanzos Sánchez Omar (2018) señala que el grafeno es un material formado por una fina lamina plana de átomos de carbón con hibridación en dos dimensiones. Cuanta con características únicas como su increíble dureza, excelente conductividad eléctrica, amplia superficie y gran conductividad térmica.
En primer lugar se cortó el cristal con las respectivas medidas que se mencionaron con anterioridad, siendo un total de 12 cristales; posteriormente se agregó a un recipiente 10 gramos de dióxido de titanio, con alcohol etílico y tizne de leña. Una vez que se obtuvo la mezcla necesaria se procede a preparar las celdas; dicho proceso consistió en corroborar cual es el lado conductor del cristal, aquí se colocan los cables al multímetro para medir el lado del cristal es conductor presionando hacia abajo sobre el cristal, si el multímetro presenta lectura, significa que estamos en el lado conductor del cristal, si se está midiendo del lado incorrecto no habrá lectura; por lo que se debe de voltear al lado conductor.
Una vez identificado el lado conductor se procedió a colocar la mezcla en los cristales con un pincel, una vez finalizado este proceso se colocan los cristales en el horno durante 30 minutos aproximadamente a una temperatura de 500 grados y después se le agregan otras 4 capas más y se realiza el mismo procedimiento se lleva la celda al horno (mufla) a una temperatura de 500 C grados centígrados durante 30min. Por consiguiente se procede a colocar los cristales en la teja para elaborar la celda y una vez obtenida la celda ésta se coloca bajo el sol, el último paso consiste en realizar las mediciones correspondientes con un multímetro para checar el voltaje obtenido y compararlo con el voltaje de un panel solar comercial.
CONCLUSIONES
A lo largo de la estancia de verano de investigación se lograron adquirir conocimientos teóricos y prácticos de las celdas solares y sobre sustancias clave que son conductoras de energía y sobre todo sumamente útiles para el desarrollo y elaboración de las celdas con un enfoque más ecológico, sin embargo resulta de suma relevancia destacar que se obtuvieron resultados positivos; puesto que las celdas presentaron distintos voltajes, sin embargo, dichos voltajes radican entre los 4 a 20 V. por tal motivo se sigue trabajando en la celda fotovoltaica, destacando que un aspecto clave a considerar es que se trata de un campo de estudio sumamente amplio y de constante innovación, por lo cual el trabajar en una celda implica llevar a cabo gran cantidad de investigación y experimentos.
Como resultado se puede observar que al colocar el gel de Tio2 y Tizne de madera, en el cristal de 10x10 y después llevarlo a un proceso de calentamiento térmico a 500 C, se comprueba que existe conductividad al exponer al sol con un ángulo de 20ª grados la placa de vidrio y 11:30 am de la mañana, midiendo con el multímetro 10.8 mV.
Ormart Cepeda Daniel, Universidad Autónoma de Baja California
Asesor:Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
TéCNICAS DE CARACTERIZACIóN E INTERPRETACIóN DE DATOS DE MATERIALES CON PROPIEDADES FOTOCATALíTICAS.
TéCNICAS DE CARACTERIZACIóN E INTERPRETACIóN DE DATOS DE MATERIALES CON PROPIEDADES FOTOCATALíTICAS.
Ormart Cepeda Daniel, Universidad Autónoma de Baja California. Asesor: Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Los contaminantes orgánicos originados por la actividad doméstica e industrial, tales como tintes, pesticidas y fármacos, han atraído gran atención por parte de la comunidad científica debido a sus efectos negativos en los ecosistemas donde se depositan. Las consecuencias adversas de este tipo de compuestos se deben a su alta toxicidad y dificultad para degradarse mediante técnicas convencionales, por lo que se requiere de una metodología eficaz, rápida, asequible y amigable con el medio ambiente.
Si bien en México se han adoptado medidas para reducir el uso y liberación de sustancias que corresponden a contaminantes orgánicos, producto del Convenio de Estocolmo, la creciente urbanización e incremento de población ha imposibilitado evitar el grave daño al medio ambiente por parte de estos agentes nocivos. Particularmente, los cuerpos de agua (lagos, ríos, etc.) son los más afectados debido a la descarga de desechos, significando un problema para la salud pública.
METODOLOGÍA
Tomando en cuenta la importancia de conocer las propiedades de los materiales fotocatalíticos, se llevó a cabo una revisión bibliográfica de distintas técnicas de caracterización, como espectroscopía infrarroja con transformada de Fourier (FTIR), espectroscopía UV-Vis y difracción de rayos x (XRD). Así, se comprendieron los fundamentos básicos en torno a las vibraciones moleculares, transiciones electrónicas, estructuras cristalinas y métodos de evaluación fotocatalítica empleando nanomateriales
Adicionalmente, se aprendió el uso del software Origin Lab para el manejo de los datos obtenidos por distintas técnicas. De esta manera se familiarizó con la elaboración y manipulación de distintos tipos de gráficas, así como en su interpretación e importancia. Además, se instruyó en la manera de obtener teóricamente datos relevantes para el análisis de catalizadores, como el tamaño de cristalito.
CONCLUSIONES
Durante el verano de investigación se estudiaron temas esenciales para el comprendimiento básico de los materiales fotocatalíticos y las técnicas con las cuales es posible caracterizarlos. Con el objetivo de analizar semiconductores sintetizados en laboratorio; se empleó un software especializado y se instruyó en la manera de utilizarlo apropiadamente e interpretar los resultados. De esta manera, el conocimiento teórico fue acompañado de herramientas virtuales que permitieron profundizar en el tema y contar con una perspectiva más amplia acerca de este.
Ornelas Mendoza Daniel Alejandro, Instituto Tecnológico de Sonora
Asesor:Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
Medina Lozano Edgar Rafael, Benemérita Universidad Autónoma de Puebla. Ornelas Mendoza Daniel Alejandro, Instituto Tecnológico de Sonora. Ramirez Galicia Itzel, Instituto Tecnológico de Tláhuac. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Durante el último año la pandemia COVID-19 ha afectado demasiado a la humanidad, a nivel mundial existen registros de miles de muertes y pérdidas millonarias en la industria debido al aislamiento.
Con el paso del tiempo se ha generado un gran volumen de datos referentes a la COVID-19, desde la cantidad de personas infectadas, decesos, recuperaciones hasta los efectos secundarios causados por la aplicación de la vacuna y el índice de vacunación.
Sabemos que en la Ciudad de México existe un alto índice de personas con enfermedades crónicas y respiratorias, una de las principales causas que favorece al contagio de la COVID-19, además de ser de la tercera edad o tener bajas defensas.
La problemática que se presenta en esta situación es encontrar relaciones y patrones en los datos que nos permitan obtener conclusiones importantes para la toma de decisiones con respecto a la pandemia.
METODOLOGÍA
Se comenzó con la extracción y descarga de datos abiertos, relacionados con los efectos causados por la aplicación de la vacuna en la Ciudad de México. Mediante la API de Twitter, los datos se almacenaron en un servidor del Instituto Politécnico Nacional. Estos datos permitirán estandarizar información sobre enfermedades crónicas y respiratorias de la Ciudad de México.
Durante casi tres semanas se realizaron las extracciones usualmente en dos tiempos por la mañana y por las tardes. Para facilitar esto se desarrolló un script para que las extracciones fuesen menos tediosas y se agilizara el proceso.
Una vez concluido el tiempo de extracción de datos se investigó en fuentes confiables el concepto de Inteligencia Artificial, Machine Learning, Ciencia de Datos y librerías de utilidad para el desarrollo de estos conceptos. También aprendimos conceptos nuevos como big data y deep learning. Lo más interesante es ver como existen diferentes ramas de la inteligencia artificial muy útiles en el mundo actual. Una de ellas y en la que nos centramos fue el machine learning, que es capaz de fusionar las matemáticas junto a las ciencias de la computación.Gracias a los datos que son recolectados y procesados por medio de técnicas de minería de datos, las máquinas pueden realizar aprendizaje automático.
En la última semana tuvimos una sesión con un experto en machine learning para comenzar un proceso de análisis exploratorio de los datos recopilados, con el fin de conocer mejor la información y prepararla para la ejecución de algoritmos de aprendizaje automático. Debido a que los datos eran externos a nosotros, se tomaron datos de la plataforma kaggle para este último paso.
Para esto trabajamos en Colab o también llamado Colaboratory que es una plataforma de google, la cual nos permite ejecutar y programar en python. Trabajamos en tiempo real y en equipo. Utilizamos diferentes librerías para hacer el análisis exploratorio de los datos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de machine learning y ponerlos en práctica por medio del análisis de datos. Sin embargo, como la extracción de datos del COVID-19 aún continúa no se pueden mostrar los datos de este. Por lo cual el análisis de datos se basó en información obtenida de kaggle. Estos nos muestran que a nivel mundial la vacuna que se ha aplicado más es la AstraZeneca y la Pfizer. También aprendimos cómo es el día a día en la vida de los científicos de datos y el trabajo que se realiza en equipo. Podemos concluir que la ciencia de datos es un área que se encuentra actualmente en auge y hacen falta muchos profesionales que se desarrollen en ella, así mismo aprendimos los conceptos básicos que nos dan la base para seguir aprendiendo sobre esta rama de la ciencia.
Orozco Escamilla Litzy, Instituto Tecnológico de Cuautla
Asesor:Dra. Elva Lilia Reynoso Jardon, Universidad Autónoma de Ciudad Juárez
DISEñO Y SIMULACIóN DE UN MOLDE MULTICONTACTO ELéCTRICO POR MEDIO DE SOLIDWORKS
DISEñO Y SIMULACIóN DE UN MOLDE MULTICONTACTO ELéCTRICO POR MEDIO DE SOLIDWORKS
Orozco Escamilla Litzy, Instituto Tecnológico de Cuautla. Asesor: Dra. Elva Lilia Reynoso Jardon, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El moldeo por inyección de materiales poliméricos, a pesar de ser uno de los procesos más asequibles en el mercado, presenta con frecuencia problemas en su producción como lo son las líneas de soldadura, marcas de rechupe y la compactación desigual. Estos problemas llegan a causar defectos de apariencia, defectos internos, de precisión dimensional reducida, deterioro de las propiedades mecánicas y corto rendimiento de los productos moldeados. Estos problemas están asociados con una compensación inadecuada de la contracción volumétrica, que es una consecuencia del punto de inyección en la cavidad del molde. El estudio y corrección de estos problemas puede aminorar problemas de debilitamiento y degradado de piezas.
En muchas publicaciones, al considerar el problema de los defectos en los productos moldeados (Barvinsky y Barvinskaya, 2012), para la mayoría de los defectos radica su percepción visual, y se utiliza el esquema "defecto - causas posibles - vías de eliminación" que, por un lado, simplifica y abarata el proceso de control del producto. Por otro lado, dificulta el esclarecimiento de las razones la aparición de defectos y la elección de un método de eliminación, ya que los defectos visualmente similares pueden tener diferentes causas. Es aconsejable considerar el esquema "defecto - mecanismo de formación - posibles causas - formas de eliminación". Aquí, el "mecanismo de formación" es una designación convencional de los fenómenos fisicoquímicos que conducen a defectos, así como sus modelos matemáticos. Las posibles causas se definen como las peculiaridades del modo de fundición, material polimérico, diseño del producto o molde fundido, máquina de moldeo por inyección, factores ambientales, etcétera.
METODOLOGÍA
Abrir la pieza de la cual realizaremos el molde.
Ir al comando escala en el cual aumentaremos la pieza al 5%.
Determinar las líneas de partición a 2° utilizando un análisis de ángulo en el perímetro.
Utilizaremos el comando de superficies desconectadas para cubrir todos los huecos que se encuentran en la pieza, de esta forma evitaremos que esos huecos sean rellenados al crear la pieza. Dejando cada uno de ellos en "contacto".
Crear una superficie de separación de forma perpendicular, dejando como distancia 12.5 mm.
Utilizar el comando superficie reglada alrededor del perímetro en la superficie de separación, dejando una distancia de 15 mm y tomando en cuenta 6° en top plane.
Utilizar superficie-recubrir para rellenar las partes que se encuentran abiertas en la base de la pieza.
Se necesita extender la superficie que recubrimos anteriormente, para eliminar los espacios que se encuentran en la parte superior a ella.
Realizaremos un corte para eliminar las partes que no necesitamos, debemos seleccionar lo que deseamos conservar, de esta manera eliminaremos los excesos.
Utilizaremos el comando coser superficie, en donde realizaremos una unión de todas las partes que anteriormente recortamos, de esta manera tendremos una sola.
Crear un nuevo plano a 12.5 mm por debajo del top plane.
Crearemos una membrana que nos perminitrá desmoldar la pieza de forma adecuada.
Realizaremos un recorte en la parte inferior de la pieza, para que no el multicontacto pueda ser rellenado sin problema.
Utilizando el comando núcleo/cavidad, realizaremos el molde correspondiente al multicontacto.
Finalmente podremos aplicar una transferencia a cada cuerpo, de esta forma podremos observar el multicontacto dentro.
CONCLUSIONES
Al analizar los resultados bajo las consideraciones de operación inicial de presión manejados a 100 MPa, temperatura ambiente de 27°C y diámetro de punto de inyección de 5mm. Los valores obtenidos mediante la simulación numérica se encontraron que los valores máximos de llenado son de hasta 1.84 segundos para la distribución del flujo para la formación de la pieza. Mientras que los tiempos de enfriamiento de la pieza fueron de 13.55 segundos y la apertura del molde fue de 5 segundos. Las condiciones de presión al final de llenado se podrían manejar hasta 43.7MPa. La presencia de cizallamiento se observa en la zona central de la pieza. Por otro lado, las deformaciones en la pieza se presentan en los extremos del multicontacto eléctrico.
Orozco Gamboa Jorge Antonio, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
INSTRUMENTACIóN DE UN SISTEMA DE MONITOREO DE SIGNOS VITALES A DISTANCIA
INSTRUMENTACIóN DE UN SISTEMA DE MONITOREO DE SIGNOS VITALES A DISTANCIA
Orozco Gamboa Jorge Antonio, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
Debido a las enfermedades neurodegenerativas y a la pandemia de COVID-19, presente desde principios del año 2020, hemos presenciado la falta de preparación con respecto a las medidas de seguridad sanitaria y de contingencia ante este tipo de situaciones. Hoy en día existen protocolos de sanidad con los cuales se puede disminuir el riesgo de contagio, sin embargo, estas medidas requieren de personal el cual esté constantemente exponiéndose a tomar los parámetros que estos protocolos nos exigen.
A pesar de los avances tecnológicos y del avance contra la pandemia, no hemos logrado erradicar el factor humano y por lo tanto un factor de contagio al realizar los protocolos de seguridad, a pesar de ello, hemos visto como muchas empresas han desarrollado equipo para implementar con dichos protocolos, no obstante, los costos de inversión para que las empresas logren conseguir equipos especializados son muy elevados.
Se ha identificado que en los protocolos de acceso a lugares cerrados la medición de la temperatura corporal es algo primordial a la hora de disminuir el riesgo por contagio, ya que la alta temperatura corporal (mayor a 37.5) es un indicador de un posible caso positivo a COVID-19, otro parámetro de posible caso positivo es el ritmo cardiaco y el porcentaje de saturación de oxígeno, en los cuales los parámetros que pueden señalar un posible caso positivo son: una frecuencia cardiaca mayor a 110 bpm en un estado de no relajación o normal, y una saturación de oxígeno menor al 92%.
La medición de estos 3 parámetros a la entrada de las instituciones puede ayudar a identificar posibles casos, pero dicha medición para eliminar el factor de riesgo y error humano debe ser desarrollada de manera no invasiva y a distancia, por lo tanto, se ha decidido usar sensores de temperatura corporal, oximetría y frecuencia cardíaca en puntos estratégicos de dichas instituciones.
METODOLOGÍA
Se desarrolló una plataforma web y una base de datos basada en MySQL, capaz de tener control de los datos recibidos por los dispositivos, mostrar dichos datos y hacerlos de una manera amigable para el usuario final, toda la información enviada por los dispositivos es introducida a una base de datos y que esta con ayuda de un experto pueda realizar un análisis. La comunicación con los dispositivos es de tipo dual, es decir los dispositivos pueden enviar información a la plataforma vía protocolo https y el servidor es capaz de responder al dispositivo mandando señales de procesamiento correcto o erróneo.
De igual manera se desarrolló un prototipo de un dispositivo de registro de usuarios mediante tecnología RFID capaz de grabar tarjetas de NFC con una clave única de registro la cual es obtenida y registrada a través de una interfaz de usuario basada en la nube la cual es capaz de comunicarse con el dispositivo de manera dual, esta comunicación es muy importante ya que el servidor manda la clave única registrada en el sistema al dispositivo y una vez grabada en la tarjeta NFC, el dispositivo le contesta al servidor que dicho proceso ha sido efectuado correctamente y este se encarga de realizar los procesos necesarios para el control de los datos referentes a esta clave única.
Para el control de ingreso y salida de los usuarios registrados en la base de datos, se diseñó un prototipo de un dispositivo de medición de temperatura, saturación de oxígeno SpO2, y la verificación del usuario existente. El proceso que el dispositivo realiza es, primero verificar que la tarjeta escaneada esté registrada en la base de datos, una vez que esta información esté confirmada, se procede a sensar la temperatura, únicamente si la temperatura excede el valor límite marcado como "normal", la saturación de oxígeno SpO2 será verificada, una vez revisados todos los parámetros, toda esta información será mandada al servidor para ser registrada en la base de datos.
CONCLUSIONES
Gracias a la estancia de verano se logró aprender el uso de nuevas tarjetas de desarrollo y métodos de sensado y muestreo usando sensores infrarrojos para medir temperatura y pulsioximetria, sin embargo, es importante resaltar que la medición de pulsioximetría no está completamente terminada ya que requiere pasar por un proceso de calibración y muestreo, el cual, al ser más extenso, no fue posible obtener una medición más exacta. El desarrolló de la plataforma web, base de datos y los dos prototipos de dispositivos encargados del proceso de sensado y registro han sido terminados correctamente junto con toda la comunicación necesaria para tener conexión con un servidor web.
Orozco Morales Lorena, Universidad Tecnológica de Pereira
Asesor:Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
DISEñO Y SELECCIóN DE BOYA DE MONITOREO EN TIEMPO REAL DE LA CALIDAD DEL AGUA CON EL USO DE IOT DE LA PRESA MIGUEL ALEMáN EN VALLE DE BRAVO, EDO. MéX.
Barradas Diaz Jesus Uriel, Instituto Tecnológico Superior de Xalapa. Delgado Garcia Elvia Guadalupe, Instituto Tecnológico Superior de Xalapa. Orozco Morales Lorena, Universidad Tecnológica de Pereira. Asesor: Ing. María Cecilia Becerra Ambriz, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En este trabajo de investigación la base es el agua, este es un recurso natural que es esencial para el hombre. En el caso de presas como la de valle de bravo las fuentes de agua en embalse posibilitan el desarrollo de una gran cantidad de actividades para la comunidad, además de recreación y de servicios. Por lo que es importante conocer los aspectos fundamentales de la calidad del recurso, pero hacerlo de forma tradicional implica tomar muestras, enviar a un laboratorio y realizar un análisis, lo cual significa tiempo excesivo, desperdicio de mano de obra y poco económico. La propuesta de la investigacion es realizar un dispositivo que pueda efectuar una medición de la calidad del agua en tiempo real que permita tener una base de datos actualizada con la información necesaria de cuál es el comportamiento de los datos, además de que esta sea autosuficiente energéticamente. El objetivo es el uso del IoT como herramienta para la comunicación de datos en tiempo real, usando la tecnología LoRa. En conjunto con un sistema de comunicaciones basado en un sistema Bluetooh, además de que las mediciones se harían con el uso de sensores, los cuales interactuaran entre sí en cada momento como medición-análisis-comunicación, esto necesitará una alimentación suministrada por un conjunto de celdas conectadas a una tarjeta programaba Raspberry. El desarrollo del dispositivo pretende conformar una plataforma que ponga las bases en cuanto a que estrategias o tecnologías se pueden usar en mejorar o regular la calidad del agua del embalse. Este dispositivo estaría en una Boya dentro del lago para tener un control en tiempo real.
METODOLOGÍA
-Análisis: Hacer lainvestigación documental en artículos, revistas, compañías y patentes registradasque conduzca a la selección dela metodología ideal de diseño para el dispositivo.
Realizar la selección de los elementos que conformaran al dispositivo, sensores, elementos de comunicación, ordenador o placa y plataforma de desarrollo de software.
Seleccionar la fuente de poder para los elementos que conformaran al dispositivo, tomando en consideración su correcto funcionamiento
-Síntesis: Diseñardispositivo de forma diagramática, realizando la conceptualización en diagramas de flujo y de bloques.
Seleccionar los elementos para la fuente de poder, celdas y conexiones eléctricas.Realizar el algoritmo de programación de medición, recolección, comunicación y análisis de datos a través de la plataforma seleccionada.
Modelar y simular la boya que contendrá el dispositivo de medición, a través del CAD/CAE
CONCLUSIONES
-Evaluación: Construir de la boya junto con el dispositivo de medición, conformando los elementos previamente diseñados y seleccionados.
Realizar pruebas de medición en un ambiente controlado para evaluar el funcionamiento de sensores, ordenador o placa y comunicación.
Evaluar el correcto funcionamiento de la boya que contendrá al dispositivo en cuestión.
Conformar la boya de medición con todos los elementos previamente testeados para su puesta en marcha
Orozco Trinidad Ulises, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar
CONTROL AUTOMáTICO
CONTROL AUTOMáTICO
Orozco Trinidad Ulises, Instituto Tecnológico de Tuxtla Gutiérrez. Rodríguez Mendoza Jesús, Universidad de Guadalajara. Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
Los principios de la Industria 4.0 son la conectividad de máquinas, productos y sistemas a internet y esto se ve reflejado en un alto nivel de organización y control para las propias empresas lo que nos trae a resaltar un concepto muy sonado en la actualidad que es la automatización ya que involucra cambios drásticos en las condiciones de producción, distribución y consumo de bienes y servicios.
Es una realidad la implementación de estas nuevas tecnologías que incluso se piensa llegaron para quedarse y son incontables la cantidad de casos en los que este concepto ha sido clave en el crecimiento exponencial de grandes empresas, sin embargo, existe la contra parte que son las pequeñas y medianas empresas ya que estas por situaciones económicas se han estancado en temas relacionados con la Industria 4.0, esto debido al alto costo de implementación.
Es por ello la necesidad de crear una guía de apoyo para ese sector de empresas que aún no puede implementar estos conceptos, cabe mencionar que esta guía se hará con el motivo de que el empresario de pequeñas y medianas empresas tenga la posibilidad de implementarla con una inversión de bajo costo.
METODOLOGÍA
Como primera instancia realizamos una revisión bibliográfica exhaustiva en diversas bases de datos científicas donde lográramos encontrar artículos científicos los cuales nos documentaran sobre lo que es la Industria 4.0, cabe resaltar que esta búsqueda es orientada a las pequeñas y medianas empresas ya que es el objetivo general de esta investigación. Los artículos científicos encontrados nos permitieron documentar desde los comienzos de la Industria 4.0 hasta las últimas tecnologías que hasta el día de hoy se están implementando, al igual que darnos cuenta de la gran importancia que esta tiene para el desarrollo económico de los países.
Una vez teniendo estos conocimientos impregnados nos pasamos a buscar y averiguar sobre herramientas Open Source y Freeware que nos permitieran realizar una aplicación práctica del concepto, sin olvidar que las herramientas deben tener un bajo costo ya que serán implementadas para empresas de pequeña y mediana escala. Las que más se ajustaban a estos términos son:
Prosys OPC UA Simulation Server
Node-Red
IBM Watson IoT
XAMPP
Prosys nos permite tener un servidor OPC UA local donde podremos almacenar o bien generar datos que posteriormente con Node-Red nos permitirá extraerlos y manipularlos de una manera muy sencilla ya que este implementa una estructura de bloques que le permite al usuario reducir en gran medida la programación y dentro de la misma podremos hacer una conexión con la nube de IBM Watson IoT y la base de datos de XAMPP para mandar los datos obtenidos y así poderlos visualizar de manera gráfica desde cualquier lugar sin importar el dispositivo tecnológico que estés usando solo teniendo conectividad a internet.
El software XAMPP nos permitirá hacer nuestra computadora un servidor al integrarle lenguajes de programación de páginas web como es HTML, PHP y base de datos MySQL, este conjunto de lenguajes nos permitirán almacenar los datos para posteriormente de manera gráfica observarlos.
El conjunto de cada una de ellas nos permitirá una implementación y visualización de datos generados por un sensor o bien sea simulados, sin embargo, nosotros los generaremos con una placa de desarrollo llamada Arduino y un sensor DHT11.
Por último, realizamos una guía en la cual detallamos de forma precisa los pasos a seguir para que así los empresarios de este sector empresarial mencionado puedan implementar dicho concepto de una manera más sencilla y sobre todo con un bajo costo.
CONCLUSIONES
En el transcurso de nuestra pasantía logramos adquirir nuevos conocimientos que nos ayudaran a lo largo de nuestras carreras como en el ámbito laboral ya que la Industria 4.0 es un nuevo concepto que llego para quedarse por un largo tiempo y el amplio campo laboral trae a más y más personas a fijarse en él.
Durante nuestra investigación nos pudimos percatar de la gran necesidad de la implementación de la Industria 4.0 en pequeñas y medianas empresas ya que esto trae consigo un crecimiento exponencial, así como una productividad más eficiente dándole un valor agregado a los productos y servicios que dichas empresas ofrecen, sin embargo no ha podido ser implementada por el alto costo que conlleva, pero en este proceso logramos crear una pequeña guía, que nos permitiese ofrecer implementación de bajo costo para estas empresas.
El tan amplio y variante concepto provoca que está guía aún se encuentre en constante desarrollo, sin embargo, se espera lograr ofertar a este sector empresarial una guía que les permita la implementación de la Industria 4.0 con un bajo costo para que así puedan hacer uso de estas nuevas tecnologías.
Ortega Alvarez Eduardo, Instituto Politécnico Nacional
Asesor:Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
MONITOREO DE LÍNEA DE PRODUCCIÓN CON UN SISTEMA SCADA Y HMI CON LABVIEW
MONITOREO DE LÍNEA DE PRODUCCIÓN CON UN SISTEMA SCADA Y HMI CON LABVIEW
Hernández Ramírez Mario Gabriel, Instituto Politécnico Nacional. Ortega Alvarez Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Las industrias necesitan nueva tecnología capaz de cubrir los requerimientos necesarios para competir, no solo automatización de sus sistemas, además, tecnología de la industria 4.0, que digitalice todos sus procesos productivos. Esta industria 4.0 ha estado creciendo en los últimos años, y no todas las industrias se han visto inmersas en ella, sin embargo, una situación como la actual demuestra la importancia de involucrarse en la cuarta revolución industrial. Es decir, con una pandemia andando, la de COVID-19, es contraproducente laboral presencialmente en las plantas de producción, necesitando sistemas que permitan la supervisión y el control de manera remota en tiempo real, y hasta corrección de errores, todo desde un lugar seguro y apartado.
Por ello, se realiza este trabajo de investigación para la aplicación de un sistema SCADA, con el cual se adquieren, procesan y almacenan algunos datos recabados en una pequeña simulación o representación gráfica de un sistema de almacenaje, controlando y monitorizando sus variables, con una interfaz sencilla de manejar.
METODOLOGÍA
Se comenzó definiendo el proceso industrial a simular, monitorear y controlar en el software Factory IO: la clasificación de cajas de acuerdo con su peso y/o tamaño, el paletizado y almacenaje de estas. Después de ello, se realizó el diseño de la planta industrial con las herramientas del software: bandas y rodillos transportadores, una báscula transportadora, clasificador de ruedas, paletizadoras con elevador, plataformas giratorias, sensores, racks de almacenamiento, entre algunos otros.
Se evaluaron diferentes formas de programación, de diferentes softwares que nos proporcionaban facilidad y un buen funcionamiento. Se seleccionó una programación a través de diagramas de escalera, en el PLC Siemens con ayuda del entorno TIA Portal. Se utilizó un modelo S7-1200 con módulos I/O agregados para manejar todas las señales de entrada y salida de la línea de producción.
Después de comunicar el PLC con la planta industrial, se realizó el diseño de la interfaz de monitoreo en el software de LabVIEW, que permite controlar el arranque y paro de la planta y la visualización remota del estado de los procesos según el tipo de producto, y permitiendo el acceso sólo a personal autorizado a la base de datos que se genera. Para conectar las señales que controla el PLC con la interfaz, se utilizó un servidor OPC. Y finalmente se programó el sistema de rastreo de las piezas para guardar esta información en la base de datos.
CONCLUSIONES
En una situación actual, con una pandemia de por medio, un sistema SCADA resulta una opción sumamente viable para continuar laborando y generando, pues como se ha analizado y corroborado, el ser humano puede interactuar con los procesos sin necesidad de correr riesgos en la planta, ni por la misma, ni por riesgo de contagio de enfermedad. Así, resulta fácil el control y monitoreo del proceso y sus datos generados, pues la ilustración gráfica de los procesos y la interfaz de usuario permite una cómoda inspección.
Ortega Bañuelos Natali, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
RUTEO VEHICULAR
RUTEO VEHICULAR
Flota Chuc Erick Ronaldo, Consejo Quintanarroense de Ciencia y Tecnología. Ortega Bañuelos Natali, Tecnológico de Estudios Superiores de Valle de Bravo. Samano Peña Heimy Lissette, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Ramírez Leslie Marlene, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
El ruteo de vehículos nace de la necesidad de determinar las rutas posibles de entrega a los diferentes clientes o consumidores dentro de un área geográfica definida. Las entregas mencionadas se realizan con vehículos que tienen capacidad de carga o volumen. Se pretende realizar las entregas con la menor cantidad de vehículos o bien con el menor recorrido. En el ruteo de vehículos, existe un depósito central de donde parten los vehículos, se tiene un conjunto de clientes que requieren el producto, se cuenta con una flota vehicular y se conocen las distancias de recorrido para llegar a los clientes.
El VRP optimiza las rutas que se tienen que seguir dependiendo de las condiciones que se nos brindan, como lo son la distancia, capacidad del vehículo y el pedido de los destinos. En otras palabras, el Ruteo de Vehículos permite establecer las rutas que debe seguir una flota de vehículos, con el propósito de optimizar las variables asociadas al transporte de mercancías o prestación de servicios, tales como costos, distancias, nivel de satisfacción al cliente, entre otros.
Ahora bien, los objetivos principales que busca el VRP son obtener el menor costo total asociado a transporte, menor distancia recorrida, menor tiempo de distribución, entre otras variables, sujetas a los requerimientos que se nos brinde.
Los componentes generales que se establecen para el estudio de un problema de ruteo son: los clientes, vehículos, depósitos, restricciones y objetivos. El cliente cuenta con una demanda establecida que necesita ser satisfecha por la flota de vehículos, la cual debe salir y regresar al depósito. Los objetivos y restricciones se establecen dependiendo del caso de estudio. Con el parámetro que hace falta mencionar, se tiene que dejar claro si al final todos los vehículos deben regresar.
Este tema ha sido objeto de una gran cantidad de estudios, trabajos de investigación y publicaciones; por su gran utilidad y por ser práctico. Entre las técnicas más utilizadas para su solución se encuentran las relacionadas con heurísticos, también los métodos exactos y los métodos de aproximación. Aunque los métodos de aproximación no brindan una respuesta exacta, si permiten evaluar una mayor cantidad de variables y se pueden plantear escenarios más apegados a la realidad.
METODOLOGÍA
Los algoritmos genéticos son considerados una excelente herramienta para resolver problemas complejos en optimización con restricciones difíciles. Las etapas de esta metodología son:
Población inicial: En la población inicial los individuos deben estar bien dispersos por el espacio de soluciones. La manera más simple de cumplir con este objetivo es elegir individuos al azar, pero el uso de alguna técnica de indagación y descubrimiento.
Evaluación de los individuos: Para la evaluación de los individuos simulando la selección natural, se utiliza una variable llamada fitness, que representa qué tan buenos son los individuos que hay en la población.
Selección: Esta etapa será la encargada de elegir qué individuos van a disponer de oportunidades de reproducirse y cuáles no. Existen diferentes métodos:
Método de selección de la ruleta (roulette wheel method).
Método de selección del ranking.
Método de selección del torneo.
Operadores genéticos: permiten que las soluciones puedan reproducirse y mejorar sus características, mutar cambiando aleatoriamente sus genes y así poder moverse por el espacio de búsqueda. Se divide en los siguientes apartados:
Cruzamiento (crossover).
Mutación.
Inversión.
Criterio de término: es el encargado de definir el momento en el cual debe interrumpir el ciclo de evolución y adoptar el individuo más apto como la solución encontrada por el algoritmo genético. Estos pueden ser:
De identidad.
De aptitud.
De generaciones.
CONCLUSIONES
La introducción a un nuevo lenguaje de programación es un reto en sí, pero también lo es el trabajo en equipo. Para la creación de un algoritmo genético en C++ nos da la oportunidad de conocer cómo aplicar el lenguaje para resolver el problema del ruteo vehicular. Transformando instrucciones escritas a líneas de código que realizan lo mismo, hemos llegado a la conclusión que los algoritmos genéticos son de gran ayuda al resolver problemas con varias restricciones.
Este tipo de algoritmos se basan en los principios de genética y selección natural, resultan útiles como técnica de optimización y búsqueda. El algoritmo genético que se estuvo realizando durante casi cuatro semanas es un método para la optimización de procesos, en este caso en el ruteo vehicular donde podemos comprender que la función que debe realizar es buscar la mejor ruta que debe recorrer un vehículo para entregar la carga a sus diferentes clientes. Teniendo en cuenta que el vehículo tiene una capacidad de carga, los clientes piden diferentes tamaños de carga y la distancia que recorre el vehículo en cada una de las trayectorias.
Este tipo de métodos nos ayudan a obtener las mejores rutas que pueden ser tomadas, teniendo en cuenta las características antes mencionadas, haciendo de la ruta un ruteo vehicular eficiente y eficaz.
De igual manera fue necesario contemplar algunos factores relevantes que influyeron en el desarrollo del problema como la distribución desde un depósito central a un conjunto de clientes geográficamente dispersos. Además de conocer la demanda en cada punto de venta, cantidad de vehículos disponibles con sus respectivas capacidades, ubicación geográfica del depósito y clientes. La presencia de estos factores en problemas de ruteo de vehículos hace que sean difíciles de resolver por encontrarse en la categoría NP- complejo, con base en las características derivadas de cada problema.
Ortega Flores Sebastian, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora
DISEñO INSTRUCCIONAL Y POLIMEDIA
DISEñO INSTRUCCIONAL Y POLIMEDIA
Ortega Flores Sebastian, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Alberto Díaz Vázquez, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
La tecnología educativa ha tenido cambios muy importantes en el transcurso de los años, el diseño de materiales didácticos innovadores, permiten al estudiante aprender de diversas alternativas, esto trae áreas de oportunidad para utilizar programas que lo motiven para aprender de forma significativa. En virtud de que en la actualidad se cuenta con un mundo más dinámico, es necesario hacer uso de productos innovadores que permiten al sistema educativo adaptarse rápidamente al nuevo orden mundial, en este sentido, para desarrollar cursos interactivos, es necesario hacer uso de las tecnologías de información y comunicación, así como diversas teorías del aprendizaje y diseño instruccional constructivista.
Se emplea un concepto llamado polimedia, el cual fue adoptado por la Universitat Politécnica de Valéncia, es un sistema diseñado para la creación de contenidos multimedia, con la finalidad de apoyo a la docencia, en donde se involucra la comunicación no verbal. La Polimedia es una herramienta que permite realizar flipped classroom de gran calidad técnica.
Está investigación se lleva a cabo en el Instituto Tecnológico de Estudios Superiores de Zamora, en donde se hace un diseño cuasi experimental con dos grupos: experimental y de control, para poder implementar cursos de educación a distancia con contenidos interactivos, empleando recursos digitales y programas específicos.
METODOLOGÍA
Esta investigación es de tipo experimental. El proceso secuencial se efectuaría de la siguiente manera:
Investigación documental. Técnicas de investigación de campo. Recopilación de la información. Análisis de la información obtenida. Interpretación de la información obtenida. Conclusiones y recomendaciones. Definir los resultados obtenidos. Determinar las causas y los efectos de dichos resultados. Precisar la alternativa más conveniente. Reporte final de investigación.
Metas:
A corto plazo se pretende aplicar el diseño instruccional y polimedia en una clase de la materia de Seminario I de la maestría en sistemas computacionales, se presentará al estudiante los temas y subtemas que contiene alguna unidad y se describirá la importancia de la misma. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir.
A mediano plazo se implementará en una materia completa, en donde cada unidad contenga todos los elementos del diseño instruccional constructivista y polimedia. También, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir.
A largo plazo se implementará en la maestría de sistemas computacionales, en donde todas las asignaturas cuenten con el diseño instruccional constructivista y polimedia, de igual forma se emplea con los anteriores, se dará a conocer los indicadores que muestran que el estudiante ha aprendido y cuáles son los objetivos que deben cubrir.
Finalmente, se incluirá, cómo se llevaron a cabo las actividades de aprendizaje, Éstas se realizarán a través de las actividades que proporciona Moodle como son: multimedia, polimedia, aula invertida, entre otros.
CONCLUSIONES
En este verano delfín trabajamos desarrollando un curso de la materia de Seminario I de la maestría en sistemas computacionales por lo cual nos basamos en una plantilla de diseño constructivista (PDC) para poder desarrollarlo de la mejor manera, teniendo en cuenta la planeación de una clase.
Mi experiencia en este verano del programa delfín ha sido una de mis mejores experiencias trabajando a distancia de forma virtual, pues es todo un reto estar trabajando en esta modalidad, debido a algunos inconvenientes que se tienen a la hora de las sesiones como por ejemplo fallas de Internet, que hacen un poco mas complicado el desarrollo del proyecto, pero al fin exitoso.
Ortega González Andrés, Universidad de Sonora
Asesor:Dr. Pável Zúñiga Haro, Universidad de Guadalajara
EVALUACIóN DEL TIEMPO DE EJECUCIóN EN LA PLATAFORMA ARDUINO UNO
EVALUACIóN DEL TIEMPO DE EJECUCIóN EN LA PLATAFORMA ARDUINO UNO
Ortega González Andrés, Universidad de Sonora. Asesor: Dr. Pável Zúñiga Haro, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Arduino es una plataforma de prototipos electrónica de libre uso con fin de facilitar el uso entre hardware y software. El uso de Arduino para hacer prototipos y proyectos de diferentes complejidades ha incrementado desde su introducción en 2005. Con la gran cantidad de librerías disponibles para todo el mundo, Arduino brinda una excelente oportunidad para diseñar y crear proyectos para cualquier situación. Sin embargo, existen ciertos proyectos donde se desea obtener un control total sobre el tiempo de ejecución del programa con una precisión por ciclo del reloj. En estos casos, es requisito tener conocimiento del funcionamiento interno de un microcontrolador para optimizar el código de manera efectiva tales como la manipulación y uso de registros, temporizadores e interruptores.
En la librería predeterminada de Arduino, existen funciones para obtener el tiempo en milisegundos o microsegundos desde que se inició el programa. Con estas funciones es posible obtener tiempos de ejecución de cualquier algoritmo; sin embargo, existen limitaciones de resolución que no lo permiten ser lo más preciso posible. Este trabajo se desarrolla un método para obtener tiempos de ejecución con alto grado de precisión usando los ciclos de reloj del cristal.
METODOLOGÍA
Durante la investigación se desarrolló un algoritmo capaz de medir el tiempo de ejecución usando los ciclos de reloj del cristal implementado en las tarjetas de desarrollo. Adicionalmente, se utilizo como base la tarjeta Arduino Uno por ser el más común en el mercado. El algoritmo usa los registros, interruptores y temporizadores dentro del microcontrolador para obtener control absoluto de las instrucciones que se ejecutan y poder medir las funciones con la mejor precisión posible.
Con este algoritmo se implementaron pruebas con diferentes operaciones matemáticas y funciones para evaluar el desempeño del algoritmo. Las funciones de prueba son: suma, multiplicación, raíz cuadrada, seno, coseno, multiplicación de matrices e integración numérica mediante el método trapezoidal. El algoritmo se compara mediante otro algoritmo que usa las funciones de tiempo dentro de las librerías predeterminadas de Arduino, como micros() y millis(). Adicionalmente, se usa un puerto de salida para determinar de manera física el tiempo de ejecución usando señales eléctricas.
Para comenzar, el programa se carga a la tarjeta de desarrollo con una función de prueba para determinar el tiempo de ejecución mediante el monitor serial. El monitor serial visualiza la comunicación entre la plataforma y la tarjeta de desarrollo para mandar datos entre ellos, Los datos visualizados incluyen el tiempo de ejecución mediante el nuevo algoritmo, tiempo de ejecución usando las librerías, alertas de desbordamiento y cantidad de ciclos transcurridos durante la ejecución. Estos datos se capturan en Excel usando la extensión Data Streamer para ser procesados.
Durante la adquisición de datos en Excel, se conecta una sonda del puerto de salida al osciloscopio. Con esto permite usar las mediciones automáticas del osciloscopio para medir el ancho del pulso, es decir, el tiempo donde está activo el puerto de salida, que consecuentemente es el tiempo de ejecución de la función de prueba. Esta medición es capturada mediante una captura de pantalla usando las funciones internas del osciloscopio para ser guardadas en una memoria USB.
Con los datos obtenidos en el monitor serial y osciloscopio, se comparan mediante una tabla para evaluar el rendimiento entre algoritmos y funciones de prueba.
CONCLUSIONES
Durante este verano de investigación se logró obtener conocimientos teóricos y prácticos de la plataforma Arduino y el microcontrolador ATmega328P acerca de los manejos precisos de ciclos para la evaluación de los tiempos de ejecución de diferentes funciones y operaciones matemáticas. El algoritmo desarrollado es más preciso con tiempo de ejecuciones cortos. Con tiempos más largos, la diferencia entre algoritmos es casi nula para algunas funciones. Adicionalmente, los tiempos mostrados en el monitor serial son menores comparados con las señales eléctricas. Se requiere realizar mejores algoritmos para compensar el tiempo de ejecución extra elaborado en el método con señales eléctricas.
Ortega Islas Cristian Joel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dra. María Eugenia Estrada Chavira, Universidad Politécnica de Tecámac
COMPARACIóN DE UN PLAN LOGíSTICO DE 2 AEROPUERTOS INTERNACIONALES: FELIPE ÁNGELES Y ADOLFO LóPEZ MATEOS DEL ESTADO DE MéXICO PARA LA EXPORTACIóN DE CARNE DE CONEJO DE TECáMAC A ALEMANIA.
COMPARACIóN DE UN PLAN LOGíSTICO DE 2 AEROPUERTOS INTERNACIONALES: FELIPE ÁNGELES Y ADOLFO LóPEZ MATEOS DEL ESTADO DE MéXICO PARA LA EXPORTACIóN DE CARNE DE CONEJO DE TECáMAC A ALEMANIA.
Ortega Islas Cristian Joel, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dra. María Eugenia Estrada Chavira, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Derivado de los altos índices de consumo de la carne de conejo en Alemania, surge como problema de investigación la comparación de un plan logístico de 2 aeropuertos internacionales: Felipe Ángeles y Adolfo López Mateos del Estado de México mismos que son los más cercanos a Tecámac, Estado de Mexico, establecido como lugar de origen, estos dos aeropuertos son los más viables para evitar que las distancias recorridas del punto de origen al aeropuerto seleccionado sean prolongadas para evitar algún daño en las características del producto, esto por pertenecer a la clasificación de tipo alimenticio y perecedero.
METODOLOGÍA
Para el problema de investigación que se presenta y que pretende la comparación de dos aeropuertos internacionales para exportar carne de conejo a Alemania desde Tecámac, Estado de Mexico, el modelo de transporte esta dado por lo siguiente:
La función objetivo es minimizar los costos de transportar n unidades de carne de conejo desde Tecámac a m aeropuerto para exportarlo a Alemania, sujeto costo por unidad y demanda del producto, teniendo como restricciones la oferta y la demanda del producto.
CONCLUSIONES
Una vez que se resolvió el modelo de transporte se obtuvo que para minimizar los costos se debe enviar al aeropuerto Felipe Ángeles 20 unidades de Granja Hernández y 80 de Granja Flores y en el caso del Aeropuerto Adolfo López Mateos la mejor opción sería enviar 115 unidades de la Granja Hernández.
El modelo de transporte se realizó de manera correcta y brindo información confiable para que se establezcan de manera correcta las cantidades que cada granja debe mandar a cada aeropuerto considerando los niveles de oferta y demanda, entonces, con base en esto se garantiza a los cunicultores una estrategia confiable que les sea de ayuda cuando quieran llevar este proceso al plano de la realidad.
Ortega Mata Sergio, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Ángela Suárez Jacobo, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)
LA ULTRAFILTRACIóN COMO ENFOQUE TECNOLóGICO Y SOSTENIBLE PARA LA OBTENCIóN DE PROTEíNA Y LACTOSA DEL SUERO DE LECHE.
LA ULTRAFILTRACIóN COMO ENFOQUE TECNOLóGICO Y SOSTENIBLE PARA LA OBTENCIóN DE PROTEíNA Y LACTOSA DEL SUERO DE LECHE.
Ortega Mata Sergio, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Ángela Suárez Jacobo, Centro de Investigación y Asistencia en Tecnología y Diseño del Estado de Jalisco, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Durante el proceso de producción del queso, un subproducto de la separación del coágulo de la leche es el lactosuero que es obtenido por la acción de enzimas del tipo del cuajo (renina, enzima digestiva de los rumiantes) que rompen el sistema coloidal de la leche en dos fracciones. A pesar de su valor nutricional potencial y el aumento en su aprovechamiento para la producción de otros alimentos, aún gran parte es descartado, causando problemas de contaminación en ríos y suelos.
Las proteínas del lactosuero son de un importante valor nutritivo ya que proporcionan una rica y balanceada fuente de aminoácidos esenciales de alto valor biológico (por su contenido en leucina, triptófano, lisina y aminoácidos azufrados), tienen una calidad igual a las del huevo y no son deficientes en ningún aminoácido.
La obtención de proteínas de suero y de la lactosa a partir del lactosuero de quesería, es producto del uso de tecnologías de separación por membranas. Dentro de estas tecnologías, la utilizada para este propósito, debido al peso molecular de los componentes a separar, es la ultrafiltración.
El objetivo del presente trabajo es recopilar la información necesaria de la Ultrafiltración para establecer las condiciones de proceso más importantes de la separación de proteína y la posibilidad de obtener lactosa a partir del suero de leche.
METODOLOGÍA
Se realizó una búsqueda de información para comprender el fundamento de la tecnología de separación por membranas, en especial la Ultrafiltración, tipos y tamaños de equipos, y sus perspectivas en el área de lácteos. Una vez desarrollada la descripción de la tecnología, se identificaron las variables de operación del proceso para la separación de proteínas de suero. Las variables identificadas fueron: la composición del suero, el flujo de entrada del lactosuero, la presión transmembrana y la temperatura de proceso.
Basándonos en la información investigada, se estableció un tamaño de poro de membrana de acuerdo con el tamaño de las moléculas a separar en esta operación unitaria. Por lo que, para la separación de proteína de suero y lactosa, el tamaño de poro establecido corresponde a 10 kDa.
Los tipos de membrana utilizados en las investigaciones incluyen membranas cerámicas mono-tubulares, poliméricas de hoja plana y poliméricas en espiral, de las cuales, la mayoría de las poliméricas son construidas de polietersulfona. Los rangos de operaciones con los que se trabajan son una presión que va desde 0.2 bar hasta 3 bar, siendo 2 bar la más utilizada y una temperatura de proceso desde 20° C hasta 50°C. La mayoría de los estudios reportan sus resultados en el cambio de flujo de salida con respecto al tiempo, sin embargo, se observan rangos de calidad de separación de las proteínas que van desde 48% hasta 80% en peso. El impacto de la separación de las proteínas y el flujo de salida en el sistema de UF se encuentran en función tanto de las variables de operación como de la composición del suero y el tipo de membrana.
La NORMA Oficial Mexicana NOM-183-SCFI-2012 nos indica los métodos de análisis que se deben realizar a la materia prima como las corrientes obtenidas de la separación. En ella se incluyen las siguientes metodologías: Humedad, contenido de proteína por Micro Kjeldahl y azúcares reductores, con lo que se puede conocer la cantidad de solidos totales, proteína y lactosa respectivamente.
Por último, se investigaron las operaciones unitarias a realizar posteriores al proceso de Ultrafiltración como lo son la nanofiltración, microfiltración y secado por aspersión, para generar los productos de uso en la industria de alimentos (lactosa, concentrado de proteínas de suero y aislado de proteína de suero).
CONCLUSIONES
El presente trabajo logró que el estudiante conociera las variables a establecer para el diseño teórico de un proceso de ultrafiltración, comprendiendo el fundamento de los modelos matemáticos que rigen a esta operación unitaria, y conociendo la aplicación en el área de la industria láctea para generar productos de alto valor agregado a partir de subproductos industriales.
Propondría evaluar la viabilidad económica de esta operación unitaria para los pequeños y medianos productores queseros que quieran aprovechar los residuos generados en su proceso. De esta forma, puedan conocer los beneficios que genera el lograr una separación del suero de la leche en dos productos de alto uso en la industria alimentaria: Proteínas concentradas de suero y Lactosa.
Para lograr esta separación, recomendaría conocer la composición exacta del lactosuero que se va a filtrar e identificar a los proveedores de membranas accesibles para solicitar una valuación del producto y poder elegir la membrana de operación más adecuada. Después, evaluar las condiciones que generen una calidad de separación adecuada de proteína y lactosa y así definir los valores óptimos que se adecuen a cada proceso y materia prima.
Por último, se deben tomar en cuenta la viabilidad de las operaciones unitarias posteriores al proceso de UF para el diseño completo de una producción de concentrado de proteínas de suero y de lactosa, obteniendo así el beneficio económico y ambiental de la utilización del suero de leche.
Ortega Soto Raymundo, Instituto Politécnico Nacional
Asesor:Dr. Diego Adrian Fabila Bustos, Instituto Politécnico Nacional
DESARROLLO DE SOFTWARE EN PYTHON PARA LA ADQUISICIóN DE SEñALES DE ESPECTRóMETRO
DESARROLLO DE SOFTWARE EN PYTHON PARA LA ADQUISICIóN DE SEñALES DE ESPECTRóMETRO
Ortega Soto Raymundo, Instituto Politécnico Nacional. Asesor: Dr. Diego Adrian Fabila Bustos, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En el área de espectroscopia, equipos como espectrómetros son empleados para la medición de señales de fluorescencia, reflexión difusa, transmisión y absorción. Sin embargo, estos instrumentos cuentan con software de control con funciones de operación limitada, por lo cual es necesario contar con una herramientas que permite incorporar funciones adicionales para el procesamiento de las señales a adquirir. Por lo cual, en el presente proyecto se desarrolló una interfaz gráfica de usuario mediante Lenguaje de Programación Python, que permita la adquisición y preprocesamiento de señales obtenidas con el espectrómetro US4000 de la firma Ocean Optics.
METODOLOGÍA
Para llevar a cabo el desarrollo del proyecto, como primera etapa se alumno se familiarizó con el Lenguaje de Programación Python, principalmente en el uso de módulos para el manejo de arreglos, gráficos y creación de interfaces gráficas. Cómo segunda etapa, se estudió el principio de funcionamiento de un espectrómetro y las diferentes aplicaciones en las que puede ser empleado, así mismo el modo de operación y configuración del espectrómetro USB4000 de la firma Ocean Optics. Como tercera etapa se analizó el funcionamiento del módulo Pyseabreeze que permite la comunicación entre un equipo de cómputo y el espectrómetro por medio del protocolo USB. Se desarrolló una interfaz gráfica la cual permite configurar parámetros básicos como el modo de operación, tiempo de integración y filtrado de la señal, así mismo la interfaz cuenta con un módulo de visualización en tiempo real del espectro obtenido con el equipo, así como funciones para el almacenamiento de los datos adquiridos.
CONCLUSIONES
Se desarrolló una interfaz gráfica amigable para la operación del espectrómetro USB4000 de la firma Ocean Optics empleando el Lenguaje de Programación Python. Dicha interfaz permite realizar configuraciones básicas de operación y procesamiento de señal. Así mismo, es escalable para poder ser empleada en sistemas operativos.
Ortegate Escobar Christian, Universidad Nacional Abierta y a Distancia
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
USO DE ENERGíA HíBRIDA PARA LA PROPULSIóN Y CONSUMO DE ENERGíA GENERAL EN EMBARCACIONES DE LA ARMADA NACIONAL DE COLOMBIA, TIPO NODRIZA
USO DE ENERGíA HíBRIDA PARA LA PROPULSIóN Y CONSUMO DE ENERGíA GENERAL EN EMBARCACIONES DE LA ARMADA NACIONAL DE COLOMBIA, TIPO NODRIZA
Ortegate Escobar Christian, Universidad Nacional Abierta y a Distancia. Rey Prada Raquel Jimena, Universidad Tecnológica De Bolívar. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La propulsión de embarcaciones se ha dado utilizando recursos energéticos basados en gases volátiles, carbón y petróleo, los cuales aumentan la ya marcada huella de carbono en el mundo, aumentando considerablemente al pasar de los años el calentamiento global.
Los navios por sus caracteristicas flotantes que implican horas de transporte lejos de una fuente fija de suministro de energía, deben tener una capacidad suficiente para generar y aprovechar el combustibe, plantas generadoras de electricidad. Se plantea hacer uso de energías renovables como una solucion para mitigar el impacto ambiental del consumo de los combustibles y darle un respaldo de seguridad a la navegación por parte del aprovechamiendo de la energía solar.
METODOLOGÍA
Conocidas las caracteristicas de la embarcacion, cuya forma del casco maximiza el desempeño del sistema de propulsión, siendo una embarcación de defensa; se determina el area disponible para ubicar los paneles fotovoltaicos, se considera una eficiencia del 16% y 5 horas pico de energia.
Teniendo disponibles aproximadamente 50 m2 para la instalación de paneles solares, se obtendrían aproximadamente 8kW con la instalación fotovoltaica y la planta generadora de una embarcacion tipo nodriza requiere de 58kWh, considerando que la misma no trabaja a plena carga.
Los 8kW de potencia instalada obtenida de fotovoltaicos, teniendo en cuenta que se tienen 5 horas pico de energía solar, proporcionarían al día aproximadamente 40kWh de energía, lo que puede usarse para reducir la dependencia de combustibles fósiles, supliendo una parte del suministro de energía con energía renovable.
CONCLUSIONES
Se considero un tipo de embarcacion nodriza, se tomo en cuenta condiciones de areas disponibles en la misma para ser aprovechadas en la instalacion de paneles solares. Se encontró que el aprovechamiento de energia solar es bastante viable y seria una gran manera de disminuir la contaminacion por parte del uso de combustible en un tipo de transporte bastante usado como lo es el maritimo.
Ortiz Cornejo Carlos Uriel, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
DISEñO Y DESARROLLO DE SISTEMA DE CONTROL DE MOVIMIENTO DE UN ROBOT DELTA, A TRAVéS DE LA ECUACIóN CINEMáTICA DIRECTA E INVERSA, CON GESTIóN Y CONTROL EN PLATAFORMA ARDUINO Y SERVOMOTORES.
DISEñO Y DESARROLLO DE SISTEMA DE CONTROL DE MOVIMIENTO DE UN ROBOT DELTA, A TRAVéS DE LA ECUACIóN CINEMáTICA DIRECTA E INVERSA, CON GESTIóN Y CONTROL EN PLATAFORMA ARDUINO Y SERVOMOTORES.
Ortiz Cornejo Carlos Uriel, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Víctor Neri Bartolo Torres, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
Los elementos tecnológicos que cada vez más se emplean son los robots, debido a que se adaptan a diversos campos de trabajo, y tienen mayor productividad. Sin embargo, los costos para adquirir un robot de este tipo son altos, y para algunas personas e inclusive empresas resulta muy difícil poder obtener este tipo de tecnología. Los robots manipuladores se pueden clasificar de acuerdo a su estructura: serie, paralelo e híbridos; este trabajo se orienta a los robots manipuladores paralelos tipo delta o plano, ya que pueden ser esférico y espacial.
Hoy en día los robots paralelos tipo delta han tenido gran impacto, ya que pueden manipular objetos pesados, con una velocidad de operación alta, además tienen una mejor precisión y repetitividad.
El propósito de realizar este proyecto es generar un sistema, el cual se capaz de calcular los parámetros de salida o entrada mediante las ecuaciones de movimiento cinemático directa e inversa de un robot delta 580, para lo cual se utilizarán las ecuaciones cinemáticas, los requerimientos, límites, y parámetros constantes para obtener datos de salida como son x, y, z o los parámetros de entrada como son las coordenadas angulares de los motores. Una vez obtenido los datos de entrada de los motores en base de una posición espacial definida por el usuario (x,y,z) estos valores angulares de cada motor se deben de proporcionar y vincular como parámetros hacia el Arduino y el control de los servomotores para poder posteriormente establecer la posición y/o porcentajes de error entre lo teórico y la parte real.
METODOLOGÍA
En este trabajo se utiliza un robot paralelo tipo Delta de tres grados de libertad, que se caracteriza por tener alta rigidez, producto de la ubicación simétrica de sus tres juntas. El robot está conformado por tres juntas motorizados distribuidos simétricamente.
El robot delta consta de dos plataformas: la fija, en la cual se ubican los actuadores que para este tipo de robot consisten en motores, colocados a la misma distancia del centro O en los puntos 1, 2 y 3 y la plataforma móvil que porta el efector del robot, ubicada adecuadamente en el centro del triángulo. Las dos plataformas están unidas entre sí por tres cadenas cinemáticas fuertemente acopladas por uniones esféricas por lo cual consta primeramente de un eslabón conectado a los motores este a su vez conecta a un eslabón paralelogramo y posteriormente a la plataforma móvil del efector final.
Una vez concluida la parte de la investigación documental del robot delta 580, se da comienzo a la investigación y comprensión de las ecuaciones de la cinemática inversa y directa, para lograr obtener coordenadas polares mediante coordenadas rectangulares o viceversa.
Concluida la parte de la investigación, se da comienzo al levantamiento de requerimientos siendo nuestra primera etapa en el desarrollo de software, por lo que se desea desarrollar un sistema, donde se introducen coordenadas, bien sea de tipo polar o rectangular, cual sea el que se introduzca de estos dos tipos de coordenadas uno es el contrario del otro, siendo que si se introducen al sistema una coordenada polar debe de ser convertido en una coordenada rectangular mediante la ecuación de la cinemática directa, después de la obtención de alguna de las coordenadas el sistema enviara la información a él sistema Arduino, siendo el encargado de controlar y manipular los motores del robot delta, mediante la información recibida del sistema, con la cual las coordenadas de los ángulos de cada motor, los motores se moverán en el ángulo que se estableció, o si la información son coordenadas rectangulares se moverá la plataforma móvil del robot delta, aun que cualquier coordenada enviada al Arduino nunca superara los límites de que tiene el robot, ya el sistema debe de ser capaz de identificar cuando las coordenadas están excediendo los límites del robot delta.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos de los diferentes tipos de robot delta, uso, diseño y entre otras cosas, a partir de las diversas investigaciones tomadas como antecedentes y estado del arte, de igual forma se realizó un entendimiento de las ecuaciones de entrada y salida, mediante las técnicas de cinemática inversa y directa para la obtención de los parámetros en coordenadas rectangulares a coordenadas polares y viceversa, debido a la proyección del proyecto aún está en etapa intermedia, el cual debe de ser un sistema que mediante la introducción de coordenadas cartesianas(plataforma móvil) o angulares(motores) aplicado ya sea a la cinemática directa o inversa, se debe obtener la coordenadas cartesianas de la plataforma móvil o ángulos de los motores, para después de que el sistema haya podido obtener las coordenadas deseadas, tendrá que enviarse las instrucciones de estos valores a la plataforma de Arduino, el cual deberá ser capaz de llegar a las coordenadas obtenidas si estas, no sobrepasas los límites del robot delta 580.
Ortiz Gonzalez Roberto Bernardo, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
SISTEMA DE GENERACIóN TERMOSOLAR DENTRO DEL ESTADO DE GUANAJUATO
Hernández Escobar María Concepción, Instituto Tecnológico Superior de Guanajuato. Martínez Guido David Tadeo, Instituto Tecnológico Superior de Guanajuato. Montiel Torres Kevin Yair, Instituto Tecnológico Superior de Guanajuato. Ortiz Gonzalez Roberto Bernardo, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtro. Luis Armando Torres Pérez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
El avance de los países desarrollados se ha basado en el consumo masivo de los combustibles fósiles. Para los países en vías de desarrollo, las necesidades energéticas son aún más vitales si pretenden equipararse con países que disponen de unas infraestructuras y niveles de industrialización ya consolidados.
Los graves efectos medioambientales en el clima regional y global provocados por el actual sistema energético están haciendo que la sociedad esté tomando conciencia acerca de la necesidad de considerar cambios en dicho sistema.
Estos cambios se dirigen hacia el desarrollo de sistemas más eficientes, hacia el fomento de una cultura de consumo más razonable, a la implantación de tecnologías energéticas que utilicen fuentes de energías renovables, etc., con el fin de lograr un modelo energético sostenible.
Esto, unido a la importancia de la energía solar como fuente de energía renovable, hace que las centrales termosolares, como sistemas generadores de energía eléctrica, adquieran gran relevancia de cara a asegurar las necesidades energéticas de una sociedad respetuosa con el medio ambiente
En México sólo existe un campo termosolar en funcionamiento. Realizada por Abengoa, la central Agua Prieta se encuentra en el estado de Sonora, próxima a la frontera con Estados Unidos. Este proyecto, licitado por la Comisión Federal de Electricidad, contó con el apoyo financiero del Banco Mundial y se integra a su vez en un ciclo combinado, formando una central híbrida o ISCC (Integrated Solar Combined Cycle).
METODOLOGÍA
La presente investigación busca impulsar el uso de la energía solar para procesos de calentamiento de agua a media y alta temperatura dentro del estado de Guanajuato y ser parte del crecimiento sustentable del país, con tecnologías apropiadas para cada aplicación, técnica y económicamente sean factibles por su operatividad y rentabilidad económica, para ir supliendo de manera parcial o total a la tecnología convencional existente.
Alcances y limitantes
Si bien la energía contamina, no es esto lo que realmente causa las grandes emisiones de carbono, si no la manera en que se obtiene la misma. Es por esto, que cada vez es más grande el esfuerzo por que las energías renovables representen un gran volumen del consumo de energía en el país.
Aunque no es la única energía renovable obtenida del sol, si es de las más importantes, seguida por la energía fotovoltaica y la solar pasiva.
La energía termo solar, es una de las energías renovables más importantes de México, puesto que aporta un 45% en cuanto a capacidad instalada para la obtención de energía en el país.
El uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar hasta un 50% en consumo eléctrico de fuentes no renovables.
La energía termo solar puede obtenerse de tres formas, mediante una central de torre, central de disco parabólico y una central de cilindro parabólico
Por otra parte, algunas limitantes de esta tecnología, lo es el tiempo de instalación de una central termo solar, ya que puede llevar algunos meses, además de requerir un lugar extenso para su instalación y con terrenos firmes. Añadido a esto, un factor limitante no muy importante es el cambio climático de la zona.
A continuación, se muestra cada una de las fases a realizar dentro de la investigación.
Primeramente, investigamos los procesos de calentamiento de fluidos mediante sistemas solares de media y alta temperatura se distinguen tres tipos de centrales termosolares atendiendo a las características del campo solar, es decir, al sistema utilizado para convertir la radiación solar en energía térmica.
Como segundo paso elaboramos las ventajas y desventajas que conlleva implementar la energía termosolar como se muestra a continuación.
Una vez analizado los pros y contras de la energía termosolar así como los diferentes tipos (Centrales de Colectores Cilindro Parabólicos CCP, Centrales de receptor central o torre y Centrales de disco parabólico) llegamos a la conclusión de que nuestra mejor opción es la elaboración de un prototipado de CCP.
Derivado de los pasos anteriores elaboramos el diseño de nuestra Central de Colector Cilíndrica Parabólica (CCP) mediante el programa de diseño asistido por computadora SolidWorks como se puede observar en la imagen 1.
Para continuar con el proceso de análisis, se llevó a cabo un análisis AMEF, del proceso y diseño de nuestro sistema, para evaluar de manera más practica los posibles errores o fallas que pudiese tener. Dichos AMEF´S se muestran en la tabla 1 AMEF de Diseño y en la tabla 2 AMEF de Proceso.
CONCLUSIONES
Este sistema de energía termo Solar tiene un gran aprovechamiento del recurso natural que es el sol ya que el sistema de movimiento que tiene hace que el reflector parabólico capte desde los primeros rayos de sol hasta los últimos, el uso de energías renovables tiene un gran alcance, debido a que además de reducir las emisiones de Co2, aporta un beneficio económico, puesto que es una fuente de energía natural y gratuita por lo que los únicos gastos realizados serian para el mantenimiento, además de ahorrar en consumo eléctrico de fuentes no renovables.
Ortiz Medina Cinthya Rebeca, Universidad de Guadalajara
Asesor:Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
ESTUDIO DE MATERIALES TIPO ABO3 PARA FOTOCATáLISIS
ESTUDIO DE MATERIALES TIPO ABO3 PARA FOTOCATáLISIS
Ortiz Medina Cinthya Rebeca, Universidad de Guadalajara. Asesor: Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La principal fuente de energía en la actualidad son los combustibles fósiles, que se están agotando gradualmente y causan muchos problemas ambientales. La energía solar es la fuente de energía más grande del mundo. Se ha intentado convertir la energía solar en energía eléctrica, por ejemplo, utilizando paneles solares. Sin embargo, esta energía está limitada. Además, hoy en día, la industrialización elevada libera con frecuencia contaminantes orgánicos en el agua y el suelo. Esta contaminación perturba la vida acuática, la tierra y los seres humanos. La basura farmacéutica y los desechos orgánicos son en su mayoría no ecológicos, y su eliminación de entornos anaeróbicos da lugar a ingredientes nocivos en la atmósfera. Métodos químicos y los procesos físicos han sido explorados para controlar los contaminantes farmacéuticos a través de la degradación de colorantes orgánicos. Pero, en los últimos tiempos, la fotocatálisis ha ganado una atención considerable como un proceso respetuoso con el medio ambiente en el que no se espera más energía en el tipo de calor durante los procesos de degradación. Esta se ha estudiado durante mucho tiempo para aplicaciones ambientales y de energía limpia. Entre las diversas clases de materiales estudiados, los fotocatalizadores basados en perovskitas tienen propiedades fotofísicas únicas y ofrecen distintas ventajas.
Los materiales de perovskita se prepararon mediante el método tradicional de reacción en estado sólido. Sin embargo, se han introducido muchos métodos, como la ruta del nitrato de glicina, el método sol-gel y el método de liofilización, la síntesis hidrotermal de conversión química, la deposición química en fase vapor asistida por láser, el método sol-gel y tratamientos térmicos fáciles.
En los últimos años, los óxidos de perovskita a base de titanio (ATiO3) como NiTiO3, SrTiO3, MnTiO3, etc. han recibido un interés significativo para las aplicaciones fotocatalíticas, debido a su actividad catalítica, alta estabilidad y durabilidad en el medio acuoso bajo radiación UV - vis. Entre estos materiales de óxido de tipo perovskita, el NiTiO3 se ha utilizado ampliamente en diversas aplicaciones, como pilas de combustible, lubricantes sólidos, biosensores y sensores de gas. Se han informado por primera vez de la actividad fotocatalítica de la luz visible del NiTiO3 para la degradación del azul de metileno (MB). Hay informes de la fotodegradación del ácido húmico y el pentaclorofenol utilizando fotocatalismos NiTiO3. Se han informado varios otros fotocatalizadores basados en NiTiO3, como NiTiO3/Ag3VO4, NiTiO3/rGO, Fe2O3/NiTiO3 y CdS/NiTiO3/CoS para la degradación de naranja de metilo (MO), nitrobenceno (NB), rodamina (RhB) y actividad de producción de hidrógeno fotocatalítico, respectivamente. Recientemente un artículo informó un método de preparación de dos pasos de (anatasa) TiO2 cargado con 5% en % de NiTiO3 para la producción de hidrógeno fotocatalítico.
La perovskita MnTiO 3 ha atraído recientemente la atención para aplicaciones en registradores magnéticos, células solares, sensores de gas y cerámicas dieléctricas, etc. debido a la alta movilidad del portador, enorme coeficiente de absorción, excepcionales propiedades foto-físicas / químicas. Además, la fuerte absorción en la región visible ha gobernado MnTiO3 como material competente para la eliminación fotocatalítica de colorantes orgánicos. Se ha informado de la utilidad de MnTiO3 para la fotodegradación de MO bajo irradiación de luz solar. Recientemente, también se informó de la fotodegradación del colorante MB utilizando polvos de MnTiO3 sintetizados por sol-gel, pero la degradación total se restringió al 70% después de 240 min de irradiación. También se informó de la degradación del colorante RhB.
METODOLOGÍA
La síntesis del MnTiO3 se llevó a cabo utilizando el método de sales fundidas. Este método permite sintetizar materiales tipo ABO3. Para la síntesis se utilizó una mezcla de óxidos MnO-TiO2 junto con una mezcla de sales NaCl. Los polvos sintetizados fueron calcinados a diferentes temperaturas para alcanzar la estructura cristalina. Los polvos se estudiaron utilizando difracción de rayos X, microscopía electrónica de barrido (SEM) y espectroscopia ultravioleta visible (UV-Vis). Las pruebas fotocatalíticas se realizaron bajo luz ultravioleta para la degradación del colorante Rodamina. Para esta prueba, se utilizó una solución de Rodamina B (RhB) 5ppm, se le adicionó 0.2 g de fotocatalizador (MnTiO3) y se dejó en agitación magnética durante toda la prueba. Inicialmente se dejó 1 hora en oscuro y después se encendió la lampara UV. Se tomaron alícuotas de 6 ml cada 30 minutos hasta cumplir 6 horas. Cada alícuota se centrifugo dos veces. Por último, se guardaron las muestras para su análisis.
Los XRD son para la síntesis estructural, es decir conocer qué estructura cristalina presenta el polvo sintetizado, el SEM permite evidenciar la morfología de las partículas sintetizadas y el UV-Vis permite conocer las propiedades ópticas (absorción de la luz).
CONCLUSIONES
Los materiales tipo perovskita han sido durante mucho tiempo un grupo fascinante, debido a que es posible jugar con la simetría de perovskita de tipo ABO3 con un gran número de cationes, se han reportado enormes esfuerzos para explotar sus propiedades electrónicas, eléctricas, magnéticas y ópticas, así como catalíticas. La división del agua fotocatalítica es otra área en la que las perovskitas, las heterouniones y otros materiales compuestos muestran un buen potencial de aplicación en el futuro. Los avances en la síntesis de perovskitas son algunos de los desarrollos que se han demostrado con éxito y deberían ayudar en el futuro en el descubrimiento de más aplicaciones para este interesante grupo de materiales.
Osegueda Rodríguez Gisell Vanessa, Universidad Nacional de Ingeniería
Asesor:Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
DISEñO E IMPLEMENTACIóN DE UN COLORíMETRO PARA IDENTIFICAR LA PIGMENTACIóN DE LAS SOMBRAS USANDO UNA FOTORRESISTENCIA.
Caicedo Valencia Jasbleidi, Universidad Antonio Nariño. Osegueda Rodríguez Gisell Vanessa, Universidad Nacional de Ingeniería. Asesor: Dra. Irma Martínez Carrillo, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
La industria cosmética es uno de los sectores de mayor crecimiento anual en economía que tiene el objetivo de mejorar aspectos físicos de las personas, en la cual para que un nuevo producto salga al mercado pasa por fases como desarrollo galénico, fabricación y control de calidad. Posteriormente en muchas ocasiones su calidad en la pigmentación de los tonos no es la más adecuada ya que son fabricado con materiales inapropiados para la piel o que no se adaptan a ella. El objetivo de este trabajo es diseñar e implementar un colorímetro para identificar la pigmentación de las sombras para así crear mejoras en la línea de productos que garantice que la sombra aplicada al parpado tiene el mismo color e intensidad que el de la paleta por la cual nos basaremos en la escala RGB que integra tres colores que nos permite identificar la luminosidad del rojo, verde y azul en diferentes proporciones.
METODOLOGÍA
Diseñar y construir un dispositivo (colorímetro) que sea capaz de reconocer e identificar el tono y la intensidad de color para tener una medida más objetiva en ciertas sombras. Para desarrollar el circuito, se estarán utilizando muestras que ayuden a diferenciar pigmento, en donde explicaremos el funcionamiento del componente del circuito del sistema de selección de color, así como los programas incluidos en la placa Arduino.
CONCLUSIONES
El tipo de sombras que se utilizo para llevar a cabo las muestras son de diferentes lotes de paletas con tonalidades de diferentes tonos de azul, verde y rojo, adicionando el color blanco. Posterioemente se seleccionó este tipo de sombras debido a que por sus tonos son colores primarios que los encontramos incorporados en la escala RGB, que son los más usuales para la fabricación de cosméticos.
Para experimentar el sistema se utilizaron sombras de cuatro tonos que contenían colores claros y oscuros, que permitieron por medio del sensor comprobar la saturación del producto cosmético, identificando las de mayor pigmentación y menor.En cuanto a los ensayos llevados a cabo muestran la variabilidad tonalidades y que con la aplicación del dispositivo se mejorara la calidad en pigmentación entre tonalidades.
Osorio Cardozo Maria Camila, Universidad de la Costa
Asesor:Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional
REVISIóN SISTEMáTICA PARA MEJORAR LA PRODUCCIóN DE HIDRóGENO: CONDICIONES óPTIMAS Y TIPO DE SUSTRATO
REVISIóN SISTEMáTICA PARA MEJORAR LA PRODUCCIóN DE HIDRóGENO: CONDICIONES óPTIMAS Y TIPO DE SUSTRATO
Osorio Cardozo Maria Camila, Universidad de la Costa. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Actualmente el mundo vive en una emergencia climática provocada por los gases de efecto invernadero que están produciendo el calentamiento global. Dichos gases son producidos por el uso de los combustibles fósiles como fuente de energía, así como de los residuos orgánicos mal gestionados entre otros. Como respuesta para frenar los efectos del cambio climático se han considerado el uso de tecnologías sostenibles y renovables para producir energía. La producción de energía limpia puede ser con el uso de tecnologías fotovoltaicas, energía motriz provocada por el viento, el agua e incluso las olas de mar. Otra opción amigable con el ambiente y capaz de combatir la crisis energética mundial son los bioenergéticos, que derivan del aprovechamiento de la biomasa; dentro de estos bioenergéticos podemos encontrar la producción de hidrógeno que integra la recuperación de residuos agroindustriales, alimenticios e incluso del tratamiento de aguas residuales de diferentes fuentes, lodos entre otros, aportando a la gestión de los residuos.
METODOLOGÍA
Criterios de Inclusión
Para seleccionar qué documentos forman parte de la revisión se establecen una serie de criterios referentes tanto al documento:
Año de publicación: 2010-actualidad (Puede haber excepciones)
Idioma: inglés o español
Ámbito geográfico: Cualquiera
Identificar las Fuentes de Información y Establecer la Estrategia de Búsqueda
Para poder realizar la búsqueda de artículos científicos que formen parte de la revisión, se utilizaran, principalmente pero no limitado, las bases de datos de Sciencie Direct.
Establecer la Estrategia de Búsqueda que Incluya los Límites Aplicados.
Criterios de búsqueda: Hydrogen, biohydrogen, dark fermentation, acidogénesis, anaerobic digestion
Utilizando los operadores boleanos se definieron los siguientes limites:
Acidogenesis and hydrogen production
Enzymes and biohydrogen
Biohydrogen and dark fermentation
Biohydrogen and anaerobic digestion
Biohydrogen and anaerobic and microorganisms
Selección y Clasificación de los Estudios
Como primera instancia se eliminarán aquellos documentos que estén duplicados (o más). Posteriormente se clasificarán en Pertinentes y no pertinentes de acuerdo con el título de los documentos y su resumen. Por último, sobre las investigaciones seleccionadas, se realizará una valoración del grado de interés del documento, por su calidad, grado de ajuste al tema de estudio o innovación.
Definición de las Variables de Estudio
Las variables del estudio deben contestar a las preguntas guía establecidas:
¿Cómo se lleva a cabo el proceso de producción de hidrógeno durante la digestión anaerobia?
¿Cómo se ve favorecida la producción de hidrógeno?
¿Qué puede inhibir a las bacterias metanógenas?
¿Cuáles son los grupos enzimáticos requeridos para la producción de hidrógeno y que microorganismos las generan?
¿Qué presión parcial deben tener los digestores?
¿Qué aplicaciones tiene el hidrógeno molecular?
¿Cuáles son los rendimientos de producción de hidrógeno?
¿Qué tipo de residuos se han evaluado para la producción de hidrógeno?
Proceso de Extracción de Datos y Confirmación
Comunicación de resultados
Se realizará una lectura crítica y obtención de la información necesaria de cada uno de los artículos seleccionados para completar las tablas con las variables descritas en el apartado anterior. Posteriormente se realizará el análisis crítico de los resultados obtenidos.
CONCLUSIONES
Se identificó el proceso de producción de hidrógeno molecular a partir de la digestión anaerobia de diversos sustratos con altos rendimientos de producción. La diversidad de sustratos, refleja una excelente oportunidad de aplicación e investigación a otros residuos con la finalidad de ayudar al medio ambiente. Además se encontró que el uso de co-sustratos como el glicerol y nanoparticulas así como los pretratamientos termicos que inhiben a las bacterias metanogénicas mejoran la producción de hidrógeno. Finalmente las condiciones de producción de hidrógeno encontradas son muy variadas con respecto a la temperatura, el pH y tiempo de residencia hidráulica para lo que se requiere de un ejercicio de análisis más exhaustivo, metódico y critico para poder identificar aquellos resultados obtenidos de la revision de diferentes artículos que se puedan comparar entre sí. La elaboración de un artículo de revisión es un ejercicio desafiante ya que se requiere de una gran capacidad de análisis crítico tanto al momento de leer los artículos como al momento de redactar los hallazgos obtenidos por los autores; es un trabajo que resume el estado actual de un campo de conocimiento, dónde se incluye información actualizada y agrupada en secciones que vuelvan comprensible su lectura, por esta razón, la escritura de un review también es un reto de redacción y síntesis.
Osorio Chino Andrea Paola, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
Jiménez Mercado Diana, Tecnológico de Estudios Superiores de Valle de Bravo. Osorio Chino Andrea Paola, Tecnológico de Estudios Superiores de Valle de Bravo. Segundo Cortés Cesar Augusto, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 en el Estado de México actualmente presenta oportunidades, pero también desafíos para las organizaciones de la industria, ya que los beneficios son potencialmente efectivos por quienes son capaces de innovar y adaptarse. Así mismo se hace visible que las organizaciones pueden adaptarse a los cambios, siempre y cuando conozcan y sepan adecuar a su sector productivo, las tecnologías necesarias para optimizar tanto los procesos como la capacidad de mejorar su rentabilidad. Por eso se hace necesario hacer énfasis en la implementación de programas educativos enfocados a la I4.0 ya que la educación no es ajena a esta revolución, dado que debe preparar a las personas para lo que ocurre en la industria y de esta forma mantener la relación que existe entre la industria y la educación.
Es por ello que el análisis de los programas existentes en el Estado de México es de gran relevancia para poder conocer como la Industria 4.0 está siendo implementada en un área tan importante como la educación, por lo que durante el verano de investigación se estudian componentes indispensables de la I 4.0 así como los programas educativos de Educación Superior del estado y algunos internacionales para así poder saber cómo esta Revolución Industrial ha causado la necesidad de adaptar la educación para que los estudiantes desarrollen las competencias disciplinares y transversales que solo adquirirá en procesos de aprendizaje a lo largo y ancho de su vida, que lo preparen constantemente para una realidad laboral cambiante y exigente.
METODOLOGÍA
La revisión de la literatura relacionada con los temas de Educación e Industria 4.0, refleja que ambas deben coexistir, trabajar y avanzar de manera lateral, tanto las personas como la tecnología deben converger en la creación de nuevas oportunidades de creatividad e innovación.
Es por ello que el propósito de esta investigación es determinar el estado actual del contexto regional (EDOMEX) para la formación de recursos humanos para el perfil laboral de la industria 4.0. El objeto de estudio es la Industria 4.0, en el contexto del sector productivo industrial regional. El sujeto de investigación incluye Instituciones de Educación Superior del Estado de México como base, en comparación con otras a nivel nacional e internacional.
Actualmente las Instituciones educativas enfrentan un gran desafío para lograr la fusión e implementación de la industria 4.0 en la educación, no obstante, se trabaja y se le da la importancia y necesidad que amerita este muevo cambio.
Por lo tanto este trabajo aplica un estudio documental para la construcción del marco teórico y un estudio de campo mediante una encuesta diseñada en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El instrumento se aplicó a especialistas en temas relacionados con Industria 4.0 con escolaridad mínima técnico con un rango menor a dos años de experiencia en adelante en la industria regional con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Las Instituciones de Educación Superior mexicanas son competitivas a nivel internacional, buscando su adaptación al nuevo paradigma, sin embargo estos esfuerzos aun no son suficientes ya que es necesario la implementación de más programas educativos enfocados a I4.0; los existentes solo han adaptado ciertas materias y a pesar de que no es una Revolución tan reciente, la mayoría de las personas con conocimientos en I4.0 tiene poca experiencia. Es por ello que las IES se deben comprometer a adaptar sus modelos educativos en pro de la demanda puesto que en su mayoría las personas a las cuales les interesa estudiar una carrera enfocada a la I4.0 deben de buscar carreras que se relacionen ya que no existe un plan de estudio universitario 100% enfocado al tema; por lo que las instituciones educativas que forman profesionistas no deben ser ajenas a los rápidos cambios que se dan en la industria, por lo que los perfiles profesionales de los profesores de las áreas de industria 4.0 deberían ser pertinentes con las necesidades de la región, sin embargo, a pesar de que estos profesionistas están en la disposición de capacitarse más en el tema al no contar con los programas suficientes como lo son cursos, maestrías o doctorados esto no será posible.
Es necesario que los docentes tengan experiencia profesional para fomentar en los estudiantes la innovación y creatividad que permita realizar procesos similares de aplicación futura e implementando cursos prácticos para captar su interés. Emplear este tipo de enfoques permite una mejor comprensión y acercamiento por parte de los estudiantes a los temas para que estén preparados y puedan ser dinámicos, activos y reflexivos respecto a su responsabilidad como profesionistas.
Por ello es necesario contar con una mejor agenda académica para promover el desarrollo de la I4.0 en la región y contar con más programas de apoyo económico tanto a las instituciones como a los estudiantes, esto permitirá crear nuevos modelos educativos así como la actualización de los existentes y los enfoques de trabajo, así mismo toda la infraestructura y encuadre de los contenidos educativos. Pero, esto llevará tiempo, dinero y modificaciones profundas en la cultura organizacional y en las formas de hacer las cosas.
Osorio Perez Michael Sneider, Corporación Universitaria Americana
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
TENDENCIAS INVESTIGATIVAS EN INGENIERíA
TENDENCIAS INVESTIGATIVAS EN INGENIERíA
Osorio Perez Michael Sneider, Corporación Universitaria Americana. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
"La Cuarta Revolución Industrial genera un mundo en el que los sistemas de fabricación virtuales y físicos cooperan entre sí de una manera flexible a nivel global. Sin embargo, no consiste solo en sistemas inteligentes y conectados. Su alcance es más amplio y va desde la secuenciación genética hasta la nanotecnología, y de las energías renovables a la computación cuántica. Es la fusión de estas tecnologías y su interacción a través de los dominios físicos, digitales y biológicos lo que hace que la Cuarta Revolución Industrial sea diferente a las anteriores" [Klaus Schwab].
METODOLOGÍA
"La Cuarta Revolución Industrial genera un mundo en el que los sistemas de fabricación virtuales y físicos cooperan entre sí de una manera flexible a nivel global. Sin embargo, no consiste solo en sistemas inteligentes y conectados. Su alcance es más amplio y va desde la secuenciación genética hasta la nanotecnología, y de las energías renovables a la computación cuántica. Es la fusión de estas tecnologías y su interacción a través de los dominios físicos, digitales y biológicos lo que hace que la Cuarta Revolución Industrial sea diferente a las anteriores" [Klaus Schwab].
Para abordar cómo hemos llegado a la Cuarta Revolución Industrial es conveniente echar la vista atrás y repasar las tres revoluciones industriales previas, y como cada una de ellas cambió la forma de ser y estar en el mundo en su época. A continuación, las resumimos:
Primera Revolución Industrial. Llega casi a finales del siglo XVIII, en 1784, con la aplicación del vapor a la producción mecánica. La aparición del primer telar mecánico es uno de sus hitos.
Segunda Revolución Industrial. En 1870 se introdujo la producción masiva basada en la electricidad. Se inventa la cadena de montaje y el sector industrial vive una extraordinaria aceleración.
Tercera Revolución Industrial. En 1969, de la mano de la informática, comienzan a programarse las máquinas, lo que desemboca en una progresiva automatización. Tareas únicas y repetitivas.
Cuarta Revolución Industrial. Más flexibles.
CONCLUSIONES
En torno a 2014, la industria experimenta otro giro de 180º: surgen las fábricas inteligentes y la gestión online de la producción. Regresando a Schwab, en su libro La Cuarta Revolución Industrial el economista alemán traducía a palabras lo que se avecinaba: "Estamos al borde de una revolución tecnológica que modificará la forma en que vivimos, trabajamos y nos relacionamos. En una escala de alcance y complejidad la transformación será diferente a cualquier cosa que el género humano haya experimentado antes". Y efectivamente lo está siendo por tres motivos que ponen de acuerdo a los expertos: su velocidad, su alcance y su impacto sin precedentes.
PUNTOS CLAVE
1- ANÁLISIS Y SIMULACIÓN: Utilizar más ampliamente la información de la planta analizando datos en tiempo real, lo que reduce el mundo físico y el virtual, lo que le permitirá a los operadores probar y optimizar la configuración de la maquinaria.
2- ROBÓTICA: El uso de robots en la industria no es un concepto nuevo, pero en la industria 4.0, estos adquieren habilidades más allá de sus predecesores, logrando incorporar nuevas capacidades para trabajar sin un supervisor humano y son capaces de trabajar para automatizar y coordinar una serie de tareas logísticas y de producción, además de reducir los costos estos robots representan un aumento de la producción.
3- INTERNET DE LAS COSAS: En la industria de bienes y servicios el IOT representa diferentes tecnologías que antes estaban desconectadas y ahora están interconectadas en una red basada en IP, esta es una de las bases del crecimiento digital
4- CLOUD COMPUTING: Este modelo tecnológico está permitiendo sostener el desarrollo de la industria 4.0, cada vez son más las tareas relacionadas con la producción de bienes y servicios. Requieren el uso de aplicaciones y datos compartidos entre diferentes ubicaciones y sistemas más allá de los límites de los servidores de la empresa
5- FABRICACIÓN ADITIVA (IMPRESIÓN EN 3D): Este pilar implica la producción de partes de capas de material superpuestas típicamente en forma de polvo para obtener un modelo 3D. Inclusive casas impresas con técnicas 3D.
6- REALIDAD AUMENTADA: A pesar de que es uno de los pilares menos desarrollados de la industria 4.0, la realidad aumentada es compatible con una gran variedad de aplicaciones y servicios en diferentes campos como la medicina, construcción, arquitectura y la educación.
Osorio Santa María Aurora, Universidad Autónoma de Ciudad Juárez
Asesor:Mg. Juliana Velásquez Gómez, Universidad EIA
ANáLISIS ESTADíSTICO DE PERSONAS CON DISCAPACIDAD EN COLOMBIA DE ACUERDO CON EL CENSO 2005 Y 2018 COMO HERRAMIENTA DE APOYO PARA EL PROYECTO “DESARROLLO DE ESTRATEGIAS DE INNOVACIóN SOCIAL MEDIANTE LA CONSTRUCCIóN DE PRODUCTOS DE APOYO CONTRIBUYENDO A LA EDUCACIóN INCLUSIVA PARA FAVORECER LA INCLUSIóN LABORAL Y PRODUCTIVA DE PERSONAS CON DISCAPACIDAD EN EL DEPARTAMENTO DE ANTIOQUIA, PAID”.
ANáLISIS ESTADíSTICO DE PERSONAS CON DISCAPACIDAD EN COLOMBIA DE ACUERDO CON EL CENSO 2005 Y 2018 COMO HERRAMIENTA DE APOYO PARA EL PROYECTO “DESARROLLO DE ESTRATEGIAS DE INNOVACIóN SOCIAL MEDIANTE LA CONSTRUCCIóN DE PRODUCTOS DE APOYO CONTRIBUYENDO A LA EDUCACIóN INCLUSIVA PARA FAVORECER LA INCLUSIóN LABORAL Y PRODUCTIVA DE PERSONAS CON DISCAPACIDAD EN EL DEPARTAMENTO DE ANTIOQUIA, PAID”.
Osorio Santa María Aurora, Universidad Autónoma de Ciudad Juárez. Asesor: Mg. Juliana Velásquez Gómez, Universidad EIA
PLANTEAMIENTO DEL PROBLEMA
De acuerdo con estimaciones de la Organización Mundial de la Salud, en el año 2009 aproximadamente el 10% de la población mundial, es decir, casi 650 millones de personas tenian algún tipo de discapacidad. Sin embargo, en diciembre de 2020, la misma organización menciona que hay más de mil milones de personas con alguna discapacidad, es decir, cerca de un 15% de la población mundial. El número de personas con alguna discapacidad esta aumentando drásticamente debido entre otras causas a las tendencias demográficas y al aumento de la prevalencia de enfermedades crónicas.
Actualmente, Colombia cuenta con registros de caracterización de personas con alguna discapacidad, que ayudan a definir las estadísticas de la población, es por ello, que se realizará un análisis estadístico de los registros obtenidos en el censo con corte en el año 2005 contrastado con el censo más reciente, que corresponde al año 2018.
Dicho análisis se categorizará en tres ámbitos de gran interés: clasificación de discapacidad, educación y ámbito laboral. Este trabajo pretende ser utilizado como herramienta de apoyo para el proyecto PAID, el cual tiene como objetivo el desarrollar estrategias que contribuyan a la educación inclusiva para favorecer la inclusión laboral y productiva de las personas con discapacidad (PcD) en el departamento de Antioquia.
METODOLOGÍA
Se realizó una búsqueda en la base de datos del censo 2005 y el Censo Nacional de Población y Vivienda 2018 en la página oficial del Departamento Administrativo Nacional de Estadística -DANE-, la cual corresponde a la entidad responsable de la planeación, levantamiento, procesamiento, análisis y difusión de las estadísticas oficiales de Colombia.
El proceso de búsqueda se realizó utilizando la herramienta de cruce de variables de personas, colocando como variable principal la opción de Edades quinquenales, la cual permite observar el desglose de acuerdo con los rangos de edad al que pertenece la población de interés. Para la segunda variable se seleccionó Tiene alguna limitación para el caso del Censo 2005 y Alguna dificultad en su vida diaria para el 2018, con un filtro de área geográfica correspondiente a todo el país.
Para las variables de control se hizo una selección de las variables de interés que pudieran aportar información relevante al estudio, de las cuales se obtuvo el Excel correspondiente a los datos obtenidos para posteriormente ser procesadas.
Entre las variables que se analizaron se encuentran: la edad y el género de las personas caracterizadas, así como las diferentes limitaciones que pueden presentar, desde limitaciones para ver, caminar, oír, utilizar sus brazos o manos, limitaciones del habla y del aprendizaje, entre otras. Además de variables relacionadas al ámbito escolar que permitieron conocer el porcentaje de PcD que saben leer y escribir y que se encuentran asistiendo a alguna institución educativa, así como un análisis del nivel educativo obtenido. Mientras que para el ambiente laboral se realizó un desglose de las actividades que realizan dentro de sus vidas diarias las cuales engloban actividades como: ir a trabajar, realizar cosas del hogar, estudiar, estar pensionado o jubilado, por mencionar algunas.
Cabe mencionar que cada una de las variables estuvo comparada a su respectiva variable del censo adverso, sin embargo, algunas de las variables fueron agregadas al reciente censo 2018, por lo cual no se pudo estimar una comparación.
CONCLUSIONES
Se obtiene que las tres principales clasificaciones de discapacidad con mayor presencia en Colombia son: la visual, la motriz y la auditiva, según sus porcentajes, las cuales coinciden con las principales limitaciones presentes a nivel de América Latina.
Dentro del ámbito educativo, es grato observar que la mayoría de la población sabe leer y escribir, mismo caso para la población que tiene alguna limitación, siendo un factor importante ya que este será un elemento de gran impacto dentro de su desarrollo personal. Cabe resaltar que más de la mitad de la población con discapacidad entre 5 y 25 años se encuentran estudiando dentro de una institución educativa, de lo cual se extrae que en promedio el máximo nivel de estudios que cursa una PcD es el nivel de básica primaria, sin embargo, es interesante observar que cerca de 50 mil personas con alguna limitación han logrado obtener un grado de educación a nivel especialidad, maestría y doctorado.
En cambio, en la observación realizada para la actividad laboral de las personas con alguna limitación se obtuvo que las actividades más realizadas por dicha población corresponden a trabajar y llevar a cabo actividades dentro de sus hogares.
Se espera que este análisis pueda servir como una herramienta eficaz para el proyecto PAID y a partir de ello desarrollar productos de apoyo y talleres con el fin de tener una población inclusiva en todos los ámbitos para que las personas con alguna limitación puedan desarrollarse de una manera óptima dentro de sus vidas diarias.
Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
Adame Galeano María Fernanda, Instituto Politécnico Nacional. Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez. Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla. Segura Martínez Alejandro, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La evaluación de la señal electromiográfica (EMG) tiene muchas aplicaciones en el área biomédica especialmente en interfaces hombre-máquina. Para procesar los datos de EMG es necesaria la fase de preprocesamiento, en esta fase se establece la extracción de características e índices para procesar y analizar la señal con el fin de crear clasificadores y modelos de regresión. Una vez que la precisión de dichos modelos y clasificadores es lo suficientemente efectiva, el método de análisis podría cambiar de fuera de línea a en línea, para procesar los datos en tiempo real y desarrollar una aplicación específica de control de dispositivos con EMG.
El objetivo de este estudio realizado durante el verano de la investigación, es la creación de diferentes scripts que clasifiquen mediante el método Off-line y a través de la aplicación de algoritmos de Machine Learning, las Fases, Velocidad, Peso y Fatiga y compilar todos los scripts en una aplicación o GUI para usarlos fácilmente.
METODOLOGÍA
Protocolo Experimental
Consiste en la adquisición de EMG durante la realización de una flexión-extensión del brazo la cual consta de 5 fases, dichas 5 fases constituyen un Trial (repetición). Se realiza un trial a distintas velocidades: rápida (16 segundos de duración), normal (20 segundos) y lenta (24 segundos), esto constituye un run (corrida). Además, 5 runs forman un bloque y en cada uno de ellos el usuario carga un peso diferente en su mano. Los pesos usados para este estudio fueron 0 libras, 2 libras y 5 libras. En total se tienen a analizar 3 bloques, 15 runs y 45 trials. Los músculos del bíceps braquial, tríceps braquial, braquiorradial y braquial son los involucrados en el movimiento de flexión-extensión que se realiza en el experimento; sin embargo, solo se capturan las señales del bíceps braquial y tríceps braquial. Se plantea que este protocolo puede ser utilizado con cualquier adulto sin trastornos del movimiento.
Adquisición de la señal:
Se utilizará una ortesis adaptable a la que se le colocaran los electrodos superficiales que estarán conectados a un equipo o dispositivo de adquisición de señal EMG, en paralelo a esto se conectará un encoder con un dispositivo de lectura de señales digitales, ambos circuitos se conectarán a un software que leerá los datos del EMG, en este experimento fue utilizado el dispositivo g.STIMbox y el software BCI2000. Las señales EMG se muestrearon con una frecuencia de 4800 Hz.
Posteriormente se establecen parámetros que se utilizarán en el procesamiento de los datos, entre estos parámetros se encuentran: Tipo de estudio, clasificador, feature, normalización, etc.
Procesamiento y análisis:
En este punto se desarrollaron una serie de scripts en el programa MATLAB con el fin de automatizar el preprocesamiento de los datos y lograr llevar un mejor manejo de los cálculos y algoritmos durante el procesamiento de cada estudio.
En el caso de los clasificadores se usa uno de los siguientes métodos:
Linear Discriminant Analysis (LDA).
SVML (Support Vector Machine Linear).
SVMR (Support Vector Machine Reggresion).
Para el análisis de fatiga se toman los datos de los 45 trials y se intuye que en el primer trial se tendrá una mucho menor fatiga que en el número 45 por lo que se ordenan los datos en este mismo orden.
Para este análisis se tomaron cuatro diferentes índices de fatiga:
Average rectified value (ARV), el cual es similar al Mean Absolute Value (MAV).
Zero crossing (ZC)
Slope sign changes
Waveform length (WL)
Posteriormente se grafican los distintos índices de cada trial y se diferencian entre biceps y triceps. A partir de los resultados de esta graficación se determinó que los mejores índices para este estudio son ARV y WL.
Para la creación de los modelos de regresión lineal se usaron dos comandos de MATLAB regress y mdl, ambos se probaron con el conjunto de datos provistos de cuatro variables ARV de bíceps, WL de bíceps, ARV de tríceps y WL de tríceps, teniendo la variable a relacionar como el número de trial puesto que esta debe de estar directamente relacionada con la fatiga.
CONCLUSIONES
La clasificación entre el movimiento sin peso añadido y con peso añadido resultó ser muy eficiente, entre distintos pesos no se obtuvieron tan buenos resultados. La clasificación entre velocidades tiene una eficiencia regular en todas las fases del movimiento con 0.83 de exactitud, y mala para ciertas fases o individuales, llegando a tener menos 0.6 de exactitud. Por otro lado, la clasificación biclase entre pesos obtuvo muy buenos resultados independientemente de la fase seleccionada, llegando a tener valores de exactitud mayores a 0.95. Mientras que para la clasificación triclase de pesos se obtuvieron resultados muy cercanos al 100% de predicción considerando las fases de flexión, contracción y extensión del movimiento. Los mejores índices para el análisis de fatiga fueron ARV y WL; además, se concluye que es importante considerar todas las fases del movimiento para la regresión lineal, teniendo una diferencia en el valor R cuadrada de entre 0.32 y 0.23.
A lo largo de la estancia de investigación, se lograron adquirir de manera satisfactoria conocimientos sobre señales electromiográficas, su adquisición, sus características y las diversas formas procesarlas para lograr obtener resultados. Además de obtener conocimientos sobre algoritmos de Machine Learning y del manejo del programa MATLAB, mismos que culminaron en la elaboración satisfactoria de un guide para facilitar el manejo de los estudios y sus resultados. Por último, se espera mejorar en un futuro algunos aspectos mínimos mencionados para el procesamiento de las señales.
Pacheco Rios Carolina Marisela, Universidad de Guadalajara
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
Pacheco Rios Carolina Marisela, Universidad de Guadalajara. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
Actualmente vivimos en una situación desfavorable para el mundo, el COVID-19 ha obligado a las personas a cambiar su rutina y ha repercutido notablemente tanto en la salud física y mental de las personas, como en las viviendas, obligando al usuario a pasar más tiempo en el hogar, trabajando muchas horas en un espacio que tal vez no sea el más confortable.
Las viviendas son responsables de más del 50% de las emisiones de CO2 y del consumo de energías primarias del planeta; son responsables directos del efecto invernadero y el cambio climático; de la pérdida de biodiversidad, la contaminación de ríos, mares y suelos. Paradójicamente construimos nuestros hogares para protegernos del clima y con ello estamos contribuyendo al cambio climático.
Se busca construir con técnicas que aprovechen los recursos sustentables para edificar espacios con el confort necesario tanto en verano como en invierno. Aplicando métodos sustentables que no comprometan a las generaciones futuras. Además, es conveniente utilizar ecotecnologías dentro del hogar para facilitar el ahorro del consumo energético y reducir el de agua.
Debido a esto, en el verano se estudiaron distintas ecotecnias y sistemas de construcción sustentable, para diseñar y crear una vivienda con espacios confortables y ecológicamente autosustentables.
METODOLOGÍA
En la investigación utilizamos distintas paginas web para compilar los datos, para conocer las veocidades del viento, utilizamos la página de Global Wind Atlas, 2021, asimismo para el uso de suelo utilizamos la tabla de usos de suelo del plan municipal de desarrollo urbano de San Felipe del Progreso publicado en el sitio web de transparencia del municipio.
En cuanto al mobiliario implementado para el ahorro y reducción del consumo de agua, se utilizaron sitios comerciales y un apoyo en el Reglamento de Construcciones del Distrito Federal para el diseño de la casa Ecológica Autosustentable. Para las estrategias que utilizamos en el diseño de la CEA se empleó el uso de una herramienta para el diseño bióclimático de nombre BC Chart.
Para el diseño de la CEA, comenzamos evaluando las necesidades de espacio requeridas para una vivienda de 5 habitantes, congregando datos climáticos y del entorno como el movimiento del sol y las orientaciones, para crear una distribución adecuada.
Se investigó la normatividad de construcción vigente sobre eficiencia energética, así como los materiales adecuados de alta inercia térmica para concederle a la vivienda un buen aislante térmico que nos ayudará a mantener el confort de calefacción en invierno y de frescura en verano. Decidimos utilizar adobe, para evitar las pérdidas de calor y temperatura además de ser ecológico, la teja de cerámica, para los techos inclinados, por su estanqueidad para el almacenamiento de agua de lluvias, y tomamos en cuenta el aislamiento térmico con materiales como el poliestireno expandido y la fibra de vidrio.
Se evaluaron los requerimientos de agua de una vivienda, donde habitan 5 personas, anualmente, obteniendo como resultado del cálculo un promedio anual de 332.4 m3, lo que nos otorga una demanda de agua que puede ser abastecida por la lluvia de 248.4m3, dimensionando un depósito de 15.1234m3 para el almacenamiento del agua pluvial.
Los sistemas de calefacción pasiva se diseñaron con métodos constructivos que aprovechan al máximo los recursos naturales del entorno, manteniendo una temperatura confortable todo el año y ayudando al ahorro energético. Se propusieron muros trombe ubicados en el lado sur poniente de la vivienda, siendo una alternativa que propone potenciar la energía solar que recibe un muro y así convertirlo en un sencillo sistema de calefacción; vidrios de doble acristalamiento para disminuir las perdidas de calor, también se implementará un sistema de calefacción pasiva por piso radiante, el cual es una serie de tuberías que distribuyen agua caliente o fría por la vivienda, calentando o enfriamento depende de la temporada del año, por medio del suelo.
Se diseñó un sistema fotovoltáico interconectado a la red eléctrica, con una demanda diaria de 11.084 kWh/día. Se trata de un sistema monofásico con 220/127 V de tensión y 60 Hz de frecuencia, que se compone de 3 circuitos y tiene una eficiencia en un 75%. Se utilizan 6 módulos de paneles solares de 500W, los cuales presentan un presupuesto estimado de la instalación eléctria para un sistema interconectado es de 137,475.08 con un aproximado de 25 años de vida de los paneles.
Para diseñar el sistema hidráulico de la CEA, se comenzó por determinar el gasto de la vivienda a través del método de Hunter, el cual consiste en sumar las UM de cada uno de los aparatos de la vivienda (Total 31 UM).
Para satisfacer las necesidades de agua caliente sanitaria utilizaremos un colector solar que transfiere el calor por medio de la radiación al agua para elevar su temperatura. Se necesitará un área de captación mínima de 3.25 m2 y un tanque de almacenamiento de mínimo 325 litros. Se propone un captador solar directo pasivo termosifón, el cual cuenta con circulación natural de agua con transferencia directa de calor.
CONCLUSIONES
Durante la estancia de verano adquirimos conocimientos para el diseño adecuado de la Casa Ecológica autosustentable, implementando los datos obtenidos de la investigación teórica sobre los datos climáticos, las orientaciones con respecto al movimiento del sol, los materiales utilizados en construcciones vernáculas que nos sirvieron como una guía en el aprovechamiento de los recursos de construcción local para un bajo impacto ambiental, la instalación de diferentes sistemas dentro de la vivienda como es el sistema el hidráulico, el tratamiento de aguas grises y su uso para riego, la instalación de piso radiante, la investigación documental de aparatos sanitarios con bajo consumo de agua, el uso e instalación de un biofiltro, además de métodos constructivos bioclimáticos que aprovechan los recursos naturales para un confort térmico todo el año. Documentando todo en una presentación técnica y gráfica del contenido, que incluye diagramas, textos y los planos arquitectónicos y de instalaciones.
Padilla Gutierrez Sergio Alfredo, Universidad Autónoma de Tamaulipas
Asesor:M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas
MODELADO ONTOLóGICO DE LA PRODUCCIóN DE CíTRICOS EN PADILLA, TAMAULIPAS, MéXICO.
MODELADO ONTOLóGICO DE LA PRODUCCIóN DE CíTRICOS EN PADILLA, TAMAULIPAS, MéXICO.
Padilla Gutierrez Sergio Alfredo, Universidad Autónoma de Tamaulipas. Puente Trejo Josue, Universidad Autónoma de Tamaulipas. Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La agricultura en todos los niveles y tipos de cultivo se transforma, atravesando grandes cambios de paradigma, en donde ya no se basa sólo en la utilización de técnicas rudimentarias y uso de insecticidas, sino que, en la actualidad está orientada a lo sustentable y rentable, permitiendo establecer nuevas estrategias de cuidado, germinación, crecimiento y floración de las plantas. Además, los citricultores, por su naturaleza predominantemente activa, necesitan el poder salvaguardar su información de técnicas y a qué tipo de cítrico va aplicada en base a sus experiencias, a lo largo de los años, para construir su propia identidad y brindar su opinión incluso cuando estos ya no estén. Ante esta situación, los citricultores, expresan su preocupación, su participación en este tipo de actividades, sería de grandes beneficios en el desarrollo de la agricultura. Por lo antes expuesto, en este contexto, es que es necesario analizar la importancia en qué medida la participación de los citricultores en las actividades agrícolas realizadas en Padilla, Tamaulipas. En concordancia con los nuevos enfoques, tendencias y objetivos de la agricultura de la nación, la cual tiene el reto de mejorar la calidad de sus productos de exportación. En el dominio de la producción de cítricos en el municipio de Padilla Tamaulipas, México, el conocimiento tácito juega un papel primordial, y cabe resaltar que la conservación del conocimiento tácito, es decir el conocimiento que se obtiene de la experiencia de los citricultores puede ser representado semánticamente y modelado dentro de una ontología para que éste pueda ser fácilmente explotado.
METODOLOGÍA
La creación de una ontología es un proceso complejo y como tal, está compuesto de una serie de actividades que se realizan en un determinado orden, para un fin especifico.
Discusión y elección del tema: A lo largo del camino, discutimos las decisiones de modelado que el diseñador debe tomar, así como los pros, los contras y las implicaciones de diferentes soluciones. Después de definir una versión inicial de la ontología, podemos evaluarla y depurarla usándola en aplicaciones o métodos de resolución de problemas o discutiéndola con expertos en el campo, o ambos. Revisar la ontología inicial, este proceso se lleva a cabo durante todo el ciclo de vida de la ontología
Determinar el dominio y el alcance de la ontología: ¿Cuál es el dominio que cubrirá la ontología?
Considere la posibilidad de reutilizar ontologías existentes: Las ontologías pueden ser un requisito si nuestro sistema necesita interactuar con otras aplicaciones que ya se han comprometido con ontologías particulares vocabularios controlados. ¿Qué propiedades tienen estos términos?. Enumerar términos importantes en la ontología: Es importante obtener una lista completa de términos sin preocuparse por la superposición entre los conceptos que representan. Desarrollo de la jerarquía de clases y la definición de las propiedades de los conceptos (espacios) están estrechamente entrelazados: Por lo general, creamos algunas definiciones de los conceptos en la jerarquía y luego continuamos describiendo las propiedades de estos conceptos y así sucesivamente. Definir las facetas de las ranuras: Las ranuras pueden tener diferentes facetas que describen el tipo de valor, los valores permitidos, el número de valores (cardinalidad) y otras características de los valores que la ranura puede tomar. Una ranura puede tener varios valores y los valores son instancias de la clase. Es decir, una ranura con instancia valuetype con una clase permitida. Crea instancias: El último paso es crear instancias individuales de clases en la jerarquía. Definir una instancia individual de una clase requiere (1) elegir una clase, (2) crear una instancia individual de esa clase y (3) completar los valores de los espacios. Definición de clases y una jerarquía de clases: Esta sección discute aspectos que se deben tener en cuenta y errores que son fáciles de cometer al definir clases y una jerarquía de clases. Definición de propiedades: En esta sección discutimos varios detalles más a tener en cuenta al definir espacios en la ontología. Principalmente, discutimos ranuras inversas y valores predeterminados para una ranura. ¿Lo que hay en un nombre?: Definir convenciones de nomenclatura para conceptos en una ontología y luego adherirse estrictamente a estas convenciones no solo hace que la ontología sea más fácil de entender, sino que también ayuda a evitar algunos errores comunes de modelado. Hay muchas alternativas para nombrar conceptos
CONCLUSIONES
Las ontologías por tanto ahora serán usadas para salvaguardar datos que antes no se tomaban en cuenta, en consecuencia, hemos buscado alternativas para preservar los conocimientos obtenidos de los especialistas del campo. Además, nos ofrece la posibilidad de crear un recurso independiente y autónomo, que es fiable, después de mostrar nuestra propuesta en lo que se refiere a la representación de la información conceptual asociada a los términos, hemos centrado nuestra atención en el estudio de la posibilidad de un sistema de recolecta nacional para la estructura de una base de datos terminológica entorno a las técnicas aplicadas funcionales en todo el país para salvaguardar ese conocimiento practico. Después de analizar la gran diversidad existente de categorías de datos y las múltiples formas en las que estos datos pueden estructurarse, decidimos optar por un estándar de representación. Así que, los datos obtenidos y la representación estructural construida utilizando Protégé nos permite alcanzar los objetivos de representar y almacenar de forma ordenada y estructurada los datos relacionados al dominio, además de lograr una herramienta que pueda ser empleada como repositorio de información.
Padilla Ron Raul, Universidad de Guadalajara
Asesor:Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
EFECTO DE LOS TRATAMIENTOS TéRMICOS SOBRE LA MICROESTRUCTURA DE LA ALEACIóN 6063 Y SU INFLUENCIA EN LA VIDA úTIL A FATIGA
EFECTO DE LOS TRATAMIENTOS TéRMICOS SOBRE LA MICROESTRUCTURA DE LA ALEACIóN 6063 Y SU INFLUENCIA EN LA VIDA úTIL A FATIGA
Padilla Ron Raul, Universidad de Guadalajara. Asesor: Dr. Arturo Abúndez Pliego, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
Se prevé que las aleaciones 6XXX puedan remplazar algunos aceros con el fin de mejorar la economía energética, reciclabilidad y el costo del ciclo de vida. Sin embargo, se ha visto que la mayor debilidad de estos aluminios, comparado con los hierros y aceros fundidos, es la vulnerabilidad al desgaste en situaciones de contacto por deslizamiento y rodadura.
La demanda de crear aleaciones de aluminio más ligeras y resistentes impulsó a investigar los tratamientos térmicos y su efecto en las propiedades del metal. Ahora bien, las cualidades mecánicas y físicas del Al6063 lo hace atractivo para su uso en componentes de ingeniería ligeros. Para emplear con éxito la aleación en elementos destinados a tareas de larga duración es imprescindible comprender su comportamiento a la fatiga. Se puede encontrar una gran cantidad de trabajos en los que se reporta la relación entre el efecto que tiene una secuencia estándar de tratamientos térmicos sobre las características mecánicas en la Al6063, pero sólo algunos de ellos se dedican a presentar la influencia de la microestructura sobre la vida
METODOLOGÍA
A partir de un exhaustivo análisis de la información de la literatura especializada, se identificó y analizó el efecto que tiene una secuencia estándar de tratamientos térmicos sobre la microestructura de una aleación de aluminio 6063 comercial, cómo se modifica y de qué depende. Posteriormente, se teorizó acerca de su influencia en la vida útil a fatiga. El tratamiento de endurecimiento por precipitación es el proceso térmico más utilizado para las aleaciones de aluminio 6063.
Al variar ciertos parámetros— temperatura y tiempo de exposición— del tratamiento térmico, se obtiene un determinado estado. Para cada estado existe un grupo de propiedades como límite elástico, esfuerzo máximo, dureza y punto de fluencia. Uno puede escoger el tiempo y temperatura de homogeneizado o envejecimiento para obtener un determinado grupo de propiedades mecánicas asociándolo con la microestructura resultante. A continuación, se presentan puntos concretos, para relacionar y teorizar, de cómo los atributos microestructurales desempeñan un papel importante en el fenómeno de la falla por fatiga:
a) Tamaño, forma y distribución de fases intermetálicas: En general, la formación de precipitados provoca fortalecimiento. La rigidez y dureza de la aleación puede incrementarse considerablemente con la distribución uniforme de partículas intermetálicas (Mg2Si, Al12Fe3Si y Al9Fe2Si2) en la matriz porque crean campos que dificultan el movimiento de las dislocaciones.
b) Tamaño y forma del grano: La baja resistencia a la fatiga está relacionada con un tamaño de grano relativamente grande, lo que resulta en una rápida propagación de grietas en la etapa I de fatiga
(iniciación). Dicho lo anterior, se desean granos finos equiaxiales para obtener la mejor combinación de resistencia y ductilidad al maximizar el área de la superficie del límite del grano para reducir las zonas libres de precipitaciones (PFZ). Cuanto mayor es la tasa de deformación en frío, más delgados son los granos en la matriz. Esta configuración de grano se desea con la finalidad de alterar la trayectoria de la grieta y así interactúe de manera intergranular y transgranular, con la esperanza de obtener una reducción en la tasa de crecimiento de la grieta por fatiga.
c) Zonas libres de precipitaciones: Estas zonas (PFZ) suelen ser más débiles que el grano mismo y, en general, la fractura se producirá dentro de dicha área. Por lo tanto, se espera que tanto el esfuerzo máximo como la elongación sean mayores para tamaños de PFZ inferiores que para PFZ más grandes.
d) Ductilidad contra rigidez: Se presentó que los materiales con una mayor resistencia a la deformación permanente exhiben vida de fatiga mayor en el régimen de ciclo alto, donde la resistencia a la iniciación de grietas es el factor dominante; en cambio, los materiales más dúctiles muestran una mayor vida útil en el régimen de ciclo bajo, donde la resistencia a la propagación de grietas es más importante. Por lo tanto, se confirma el hecho de evitar endurecer al máximo el material si la resistencia a la fatiga es un parámetro de diseño importante y se rectifica la influencia del tamaño de grano en la vida a fatiga debido a que la morfología de la fractura, cerca del origen de la fisura, sigue direcciones cristalográficas específicas. Al someter el material a fatiga, la deformación se concentra en las zonas dúctiles de la matriz y en las zonas libres de precipitaciones adyacentes a los límites de grano; por ende, en dichas áreas blandas se forman grietas transgranulares e intergranulares.
Con base a las combinaciones tratadas en la literatura especializada, se puede decir que un perfil para obtener la mejor combinación en términos de resistencia a la tracción, límite elástico, dureza, granos finos y manifestación uniforme de componentes intermetálicos, se obtiene al homogeneizar a una temperatura alrededor de los 520°C con una retención no superior a 5 horas y envejecer la pieza a 175°C para un tiempo de 8 a 10 horas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos que permitieron exponer las relaciones que existen entre el procesamiento, composición, tasas de homogeneizado y maduración para controlar y determinar la microestructura probable en una aleación de aluminio 6063. Dadas las condiciones e historia del tratamiento térmico, es posible explicar los efectos del endurecimiento por envejecimiento sobre la recristalización y propiedades mecánicas del material, con el fin de encontrar criterios que aumenten la vida útil del componente ante cargas dinámicas cíclicas. Por otro lado, se reforzó los enfoques cuantitativos y cualitativos del método científico para concebir a la investigación como algo cotidiano y no algo que sólo le corresponde a los profesores o científicos.
Padilla Torres Michelle Denise, Instituto Politécnico Nacional
Asesor:Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
PADN
PADN
Padilla Torres Michelle Denise, Instituto Politécnico Nacional. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
PLANTEAMIENTO DEL PROBLEMA
Alumna: Michelle Denise Padilla Torres
Asesor: Dr. Eduardo Vázquez Santacruz
PADN
(Plataforma de Apoyo para Diagnostico Nutricio)
Introducción El propósito de un diagnóstico nutricio es identificar y describir un problema específico de nutrición que podría ser resuelto o mejorado por un profesional de la nutrición y dietética a través de un tratamiento/intervención nutricia. Un diagnóstico nutricio (por ejemplo, ingestión inconsistente de hidratos de carbono) es diferente de un diagnóstico médico (por ejemplo, diabetes).
Los datos recolectados de la evaluación nutricia son usados para identificar y etiquetar los diagnósticos nutricios del paciente/cliente usando la terminología diagnóstica estandarizada. La TPANe provee una hoja de referencia para cada diagnóstico nutricio la cual incluye su definición, sus posibles etiologías/causas y los signos y síntomas comúnmente identificados en el paso de evaluación nutricia.
La terminología para el diagnóstico nutricio está organizada en 3 dominios (categorías):
Ingestión
Demasiado o muy poco de un alimento onutrimento comparado con los requerimientos reales o estima dos.
Clínico
Problemas nutricios que se relacionan con condiciones médicas o físicas.
Conductual-Ambiental
Conocimientos, actitudes, creencias, ambiente físico, acceso a alimentos o seguridad alimentaria.
Estado del arte
El diagnóstico nutricional también es importante como referencia para el monitoreo de la evolución del paciente. Como la intervención debe ir encaminada a dar solución a cada uno de los problemas identificados, el diagnóstico nutricional hace las veces de lista de chequeo clínico que nos permitirá evaluar el progreso de la misma.
METODOLOGÍA
Objetivo
Crear un sistema para ayudar a conseguir un diagnostico nutricio y permitir tener un expediente con antecedentes según su historial.
Planteamiento del problema
En muchas ocasiones dependiendo de factores exteriores se tiene la necesidad de cambiar de clínica, de doctor entre otras razones, por lo tanto muchas veces no se tiene un seguimiento directo con cada paciente provocando que no se tenga la información necesaria para llegar a un diagnóstico y no poder llegar a brindar la ayuda necesaria según sus antecedentes.
Solución propuesta
El sistema proporcionara que las diferentes clínicas tengan acceso y poder acceder o saber si el paciente había recibido algún tipo de atención anteriormente, lo que se registró en el momento y si se puede llevar un seguimiento específico o modificarlo.
Métodos y herramientas para la solución
Para el desarrollo de mi proyecto en esta investigación he utilizado Visual Studio Professional (2019).
Figura 4: Para crear la base de datos hice una tabla para registrar los datos personales del paciente.
Figura 5: Agregue diferentes botones para poder agregar, eliminar o modificar los datos, también para acceder a alguno de los historiales del paciente ya sea el clínico, de ingesta o ambiental.
Figura 6: En el historial clínico de cada paciente se tendrán los antecedentes, algún padecimiento y lo que el medico observe.
Figura 7: muestro como estoy creando la tabla de los datos para el Historial Clínico.
Figura 8: Creación de la tabla para el Historial Ambiental con los datos.
Figura 9: todas las tablas que he hecho tienen instrucciones SQL.
Figura 10: Así es como el sistema mostrara el historial ambiental al apretar su botón
Figura 11: y para el botón de historial de ingesta
Figura 12: cada historial o formulario tiene una tabla en la cual se almacena la información, solo que no es visible.
CONCLUSIONES
Conclusiones
Existen muchas problemáticas en nuestro entorno las cuales con nuestro conocimiento y dedicación pueden ser resueltas aunque sean pequeñas. En conclusión el sistema que hice es un inicio para facilitar el trabajo de una clínica de nutrición.
Trabajo a futuro
Poder agregar una sección para que los doctores ingresen dietas, que hay un menú clasificado e incluso si la situación del paciente es delicada y tiene aparatos médicos para su uso personal estos datos puedan ser registrados continuamente por el paciente.
Paez Soler Yuber, Dirección Nacional de Escuelas de la Policía Nacional
Asesor:Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
ESTADO DEL ARTE PARA EL DISEñO E INVESTIGACIóN DE UN SISTEMA DE BOTON DE PANICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES
ESTADO DEL ARTE PARA EL DISEñO E INVESTIGACIóN DE UN SISTEMA DE BOTON DE PANICO PARA EL ANDADOR DEL TECNOLóGICO DE LOS REYES QUE FUNCIONE CON PANELES SOLARES
Paez Soler Yuber, Dirección Nacional de Escuelas de la Policía Nacional. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
PLANTEAMIENTO DEL PROBLEMA
En la actualidad el Instituto Tecnológico Superior de los Reyes (ITSLR) cuenta con un promedio de 1600 estudiantes, de los cuales el 70% recorre caminando aproximadamente 480 metros de vía en regulares condiciones desde la parada ubicada en la carretera Zamora-Los Reyes hasta las instalaciones del (ITSLR). (Zaragoza, 2020)
La desolada vía y las malas condiciones en las que se encuentra, son un factor que incrementa los niveles de inseguridad a los cuales están expuestos cada día la comunidad estudiantil del (ITSLR); y en la ausencia de mecanismos de seguridad es necesarios buscar alternativas que puedan contrarrestar y prevenir hechos que puedan poner en riesgo la vida e integridad de los estudiantes velando de esta manera por el bienestar tanto de los estudiantes como de los funcionarios que laboran dentro del (ITSLR).
METODOLOGÍA
En el presente trabajo de investigación se recopilan y adaptan a un contexto investigativo los antecedentes de estudios realizados por docentes, estudiantes, investigadores, diseñadores, programadores y diferentes fuentes nacionales e internacionales en relación con los resultados previos de investigaciones que se relacionen con el objeto de estudio, adicionalmente se consolidan los conocimientos sobre la importancia que representa dentro de una institución los botones de pánico.
En este contexto, durante el proceso de búsqueda se determinaron criterios de selección de la información, los hallazgos y documentos.
Esta búsqueda se realizó de manera asistida por internet mediante el uso de buscadores especializados como Jurn.org, Google académico, Yippy.com, refseek.com, se limitaron los hallazgos a fuentes como libros, monografías, páginas web de fabricantes, eventos de investigación, artículos de investigación y publicaciones.
Se identificaron algunos Sistemas de Captación de Energía Solar, así como los componentes de un sistema fotovoltaico como energía renovable alternativa.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre un sistema de un botón de pánico que permita alertar casos de inseguridad además de conocer diferentes aplicaciones que se le han dado a este tipo de dispositivos, así como algunos Sistemas de Captación de Energía Solar, y componentes de un sistema fotovoltaico como energía renovable alternativa.
Pahuamba Barajas Alondra, Instituto Tecnológico Superior de Uruapan
Asesor:Mtro. Efrain Castañeda Hernández, Instituto Tecnológico Superior de Ciudad Serdán
ELABORACIóN DE VINO TINTO A BASE DE UVAS SILVESTRES
ELABORACIóN DE VINO TINTO A BASE DE UVAS SILVESTRES
Pahuamba Barajas Alondra, Instituto Tecnológico Superior de Uruapan. Pineda Castañeda Maria Isabel, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Efrain Castañeda Hernández, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, hay un incremento en el consumo de vino y las técnicas empleadas para la elaboración de vinos, están encaminadas a la obtención de vinos de calidad. Para conseguir tales productos, el proceso de elaboración debe tener en cuenta la aplicación de técnicas dirigidas a obtener un máximo de aromas y demás características gustativas en los vinos. Y eso consigue desde el comienzo, poniendo el máximo esmero, eligiendo el proceso adecuado de elaboración, cuidando por último la conservación y embotellado de los vinos. Para ello se utilizó la siguiente metodología
METODOLOGÍA
Pesado: El pesado se realiza en el laboratorio, antes de ser estrujada la uva, con el propósito de determinar la cantidad de uva que se utilizará en cada tanque de fermentación a usar.
Despalillado y estrujado: Esta operación se realiza totalmente a mano, donde se hace la eliminación parcial o total del raspón, pasando las uvas a una tina receptora, donde posteriormente serán estrujadas con rodillos de madera reventando las bayas de la uva para permitir la salida del jugo que esta contenidas en las pequeñas vacuolas, favoreciendo los fenómenos de difusión y disolución de los pigmentos que caracterizan al vino tinto.
Encubado: Esta operación consiste en introducir la uva ya molida junto con el mosto en los recipientes de fermentación en donde se lleva a cabo el proceso de fermentación y el batido.
Fermentación con maceración: Es el conjunto de diversas reacciones metabólicas que contribuyen de manera importante en la adquisición de sus características sensoriales, en virtud de esta fermentación los azúcares que contiene el mosto se convierte el alcohol (etanol), con gran desprendimiento de dióxido de carbono (CO2), también se consumen algunos ácidos orgánicos como el málico y se hidrolizan las sustancias pépticas y las proteínas durante la maceración, las partes solidas de la uva silvestre (hollejos, semillas y borras de la pulpa), ceden parcialmente al mosto sus contribuyentes, es un proceso que requiere atención ya que las sustancias útiles como antocianinas, taninos y compuestos aromáticos aportan al vino tinto sus cuatro características primordiales: color, taninos, componentes del extracto y aroma, el espíritu del vino o etanol es el producto que le da el carácter al vino, el cual se obtiene a través de esta fermentación.
Prensado: Las uvas son prensadas después del proceso de fermentación, el cual se lleva a cabo durante seis días, para extraer el mosto, el cual será depositado en barriles de roble blanco, previamente lavados esterilizados. La madera de roble permite suavizar la textura del vino y estabilizarlo. Además, hace que los taninos se polimericen dando una sensación más agradable y redonda en la boca en este caso se utilizó ollas de acero inoxidable ya que era lo que teníamos al alcance.
Fermentación lenta o secundaria: Después de haber depositado el mosto en el recipiente, estos se llenan casi hasta el borde dejándose un pequeño espacio para evitar el derramamiento del vino por efecto de la dilatación del líquido, en esta etapa se deja reposar el vino por algunos días más, hasta que se agotan los azúcares residuales hasta dejar el vino seco, si así se desea, para posteriormente someterlo al otro proceso.
Trasiego: El trasiego se realiza después de haber dejado reposar el mosto en el recipiente, este procedimiento consiste en cambiar el mosto de un recipiente a otro previamente lavado y esterilizado en donde se adiciona el grado alcohólico y el vino se endulzará ligeramente para dejarlo reposar. (Verificar el grado alcohólico con un alcoholímetro Gay Lusacc (GL) así como el grado brix que nos indica la concentración de azucares en el mosto para clasificarlo como vino tinto seco y tipo oporto). Los vinos van de 5 a 14° GL, teniendo un máximo de 14.5° GL.
Maduración: Las características sensoriales del vino tinto se mejoran considerablemente, si este se madura durante varios meses (6-8) en barricas de roble blanco, durante la maduración, los compuestos provenientes de la uva silvestre adquieren el equilibrio aromático que favorece su composición dándole a este vino su buquet y sabor característico.
Envasado y etiquetado: El envasado se realiza en botellas de vídrio de color ámbar de 750 ml, con tapa de corcho y la etiqueta debe presentar el nombre del producto, capacidad, grados de alcohol y lugar de elaboración.
CONCLUSIONES
La elaboración de vino es un proceso milenario que con los años ha llegado a alcanzar un nivel de complejidad y unos estándares de calidad verdaderamente sobresalientes. Toda gira en torno a la fermentación de la uva y el proceso que se dé su elaboración, debemos tener en cuenta que cada etapa del proceso de elaboración es muy importante ya que de ello depende obtener un buen vino.
Palacio Castillo Luz del Carmen, Universidad Autónoma de Occidente
Asesor:Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
SINAFOOD
SINAFOOD
Palacio Castillo Luz del Carmen, Universidad Autónoma de Occidente. Sopeña Rios Alan Giovani, Universidad Autónoma de Occidente. Tirado Angulo Andrea de Jesus, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Sinaloa es considerado el estado agrícola más importante de la Federación. Adicionalmente, cuenta con la segunda flota pesquera más grande del país y culturalmente, es conocido a nivel nacional e internacional por su gastronomía y música típica, la Banda o Tambora.
La gastronomía del Estado de Sinaloa es impactante, existen variedad de platillos realizados con productos de la región, desde el campo hasta el mar, en manos de maestros culinarios locales, nacionales e internacionales, como el aguachile de camarón, callo de hacha y pescado zarandeado.
Actualmente, en el ámbito gastronómico, los recursos tecnológicos han ido adquiriendo especial relevancia y ha venido a transformar procesos, técnicas e instrumentos culinarios; hoy existen diversas aplicaciones sociales como WhatsApp, Messenger, Instagram y Facebook en donde puedes localizar diversas recetas culinarias. Sin embargo; se han detectado los siguientes problemas: la pérdida del patrimonio gastronómico en la población, el desinterés de la población por conservar la gastronomía de la ciudad y los cambios que ha sufrido la biodiversidad. Por ello, es importante que la población conozca los platillos, los postres y las bebidas típicas del Estado de Sinaloa.
METODOLOGÍA
De acuerdo con la relevancia y el contexto del presente estudio, se plantearon tres objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en técnicas de investigación documental y de campo bajo un enfoque mixto. En la técnica de investigación documental se consultaron libros electrónicos, fuentes históricas y diversos artículos científicos, mientras que en la técnica de campo se diseñó una encuesta.
La encuesta, constó de 10 preguntas, se aplicó a 50 ciudadanos, sus edades oscilaban entre los 18 y los 54 años y eran de distintos Municipios del Estado de Sinaloa, entre ellos: Mazatlán, San Ignacio, Concordia y Escuinapa.
La aplicación móvil, cuyo desarrollo se va a cubrir a continuación recibe el nombre de SinaFood. Su principal objetivo es dar a conocer a la población y a turistas que en el Estado de Sinaloa existe una diversa variedad gastronómica, así como distintos tipos atractivos que visitar. Para la creación de esta, se llevaron a cabo diversas etapas: Análisis, Diseño y Desarrollo.
En la etapa de análisis, se definen tanto los objetivos como los requisitos que se deben satisfacer para cumplirlos. Por lo cual, a través de la utilización de fuentes de investigación documental, reuniones en equipo y la aplicación de las encuestas a los ciudadanos, se realizó un análisis minucioso de la información.
En la etapa de diseño, se definieron varios puntos importantes de la aplicación antes de proceder a su creación. Era necesario definir el logotipo, considerando el tipo de letra y la gama de colores. Además, también se realizaron prototipos de las distintas pantallas de la aplicación para que fueran la base de la creación de la interfaz final.
En la etapa de desarrollo, se utilizó Dart y Flutter, las cuales proporcionan soporte tanto para el lenguaje como para las peculiaridades del framework y la elección de Visual Studio Code viene dada por su velocidad.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el estudio de la gastronomía del Estado de Sinaloa y conocimientos prácticos en el desarrollo de una aplicación móvil. En SinaFood podrá encontrar de manera ágil información gastronómica de los municipios Culiacán, Mazatlán, Cosalá, Elota, San Ignacio, Concordia, Rosario y Escuinapa. Se pretende que el proyecto crezca, incluyendo la promoción de los 18 municipios del Estado de Sinaloa, a través de la ubicación por geolocalización (GPS) para que los pobladores y visitantes puedan situar y visitar los lugares emblemáticos y esté disponible para teléfonos y tabletas bajo el sistema Android.
Palancares Sosa Maria Jose, Instituto Politécnico Nacional
Asesor:Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
APLICACIóN DE TéCNICAS DE PREPROCESAMIENTO Y SEGMENTACIóN PARA LA PREDICCIóN DE COVID-19 USANDO DEEP LEARNING.
Arteaga Arteaga Harold Brayan, Universidad Autónoma de Manizales. Bravo Ortiz Mario Alejandro, Universidad Autónoma de Manizales. Martínez Rodríguez Fernanda, Universidad de Guadalajara. Palancares Sosa Maria Jose, Instituto Politécnico Nacional. Asesor: Dr. Sonia Contreras Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
La pandemia de COVID-19 causada por el virus SARS-CoV-2 tiene un impacto severo en áreas sanitarias y también económicas, forzando la implementación de medidas de confinamiento social con el objetivo de reducir la expansión del virus y prevenir el colapso de los sistemas de salud.
A la fecha no existe un tratamiento farmacológico específico, sin embargo, gracias a los avances en investigación se han desarrollado vacunas y métodos de detección del virus. Las técnicas de imagen médica como radiografías de tórax (CXR) resaltan ante las pruebas de reacción en cadena de la polimerasa con transcriptasa inversa (RT-PCR) porque permiten diagnosticar y dar seguimiento a la enfermedad de manera más rápida y accesible.
Con la intención de reducir la carga de trabajo del personal de salud, al mismo tiempo de aumentar la fiabilidad del diagnóstico y el análisis cuantitativo de CXR, se han propuesto métodos de detección automática de COVID-19 mediante el uso de redes neuronales convolucionales (CNN) de arquitecturas propias o previamente documentadas. Y a su vez, en un intento por mejorar la precisión de la red, estudios previos han implementado técnicas de preprocesamiento a las CXR para mejorar la calidad de las imágenes de los pulmones, la apariencia de opacidades y estructuras no lineales.
METODOLOGÍA
Se estudiaron y aplicaron técnicas de preprocesamiento de imágenes como filtrados espaciales, mejoras de contraste por ecualización de histograma y extracción de características de fase al conjunto de datos original para compararlas y encontrar la que permitiera mejorar los resultados en la CNN. Estos métodos se describen a continuación:
Corrección gamma adaptativa con distribución de pesos (AGCWD)
La corrección gamma es una operación no lineal, pixel a pixel que emplea el parámetro gamma para mejorar el contraste de la imagen aprovechando la relación logarítmica entre la intensidad luminosa y la intensidad resultante. Debido a que se manipularon miles de radiografías de tórax, cada una con diversos rangos de intensidades se empleó un algoritmo de corrección gamma adaptativo evitando la limitación en el mejoramiento por un valor fijo de gamma.
Ecualización de histograma ponderado y separado de forma recursiva (RSWHE)
Es una técnica basada en el mejoramiento de contraste cuyas ventajas atribuidas son la mejora de contraste en la imagen con la preservación del brillo de esta y valores mayores en la relación señal ruido que otras técnicas de contraste. Esta se realiza mediante la segmentación del histograma de la imagen de entrada por media, generando 2r sub histogramas que se ecualizan individualmente.
Filtros espaciales (AMF, NLM, CLAHE)
Este método consta de dos procesos de filtrado espaciales seguidos de una mejora de contraste por medio de una ecualización de histograma adaptativo con contraste limitado (CLAHE).
El primer filtro utilizado es el adaptativo de mediana (AMF), cuya función es reducir el ruido impulsivo. Consiste en un análisis de la vecindad del pixel de interés, para saber si le corresponde el valor de intensidad que tiene, mediante una ventana que varía su tamaño en función a los valores de mediana presentes.
El segundo filtro de media no local (NLM) busca corregir el valor del pixel de análisis mediante una ponderación de zonas de la imagen denominadas “patches” que guardan similitud con la zona tratada de la imagen bajo la premisa de que la intensidad de un pixel puede estar ligada a las intensidades de otros pixeles en la imagen. Reduciendo el ruido aditivo de la imagen. Finalmente la imagen filtrada se ecualiza con el método CLAHE, el cual cuenta con un límite denominado “clipping” establecido para evitar la sobre amplificación de contraste.
Extracción de características de fase (LPA, LPE, ELEA)
Usando un análisis de imagen local basado en fase se extrajeron tres características de fase local diferentes que no son visibles en las radiografías originales y no varían con la intensidad, por lo que los resultados no se ven afectados por las variaciones de intensidad causadas por características físicas del paciente o las condiciones de la toma de la radiografía. Dichas características son: local weighted mean phase angle (LwPA), weighted local phase energy (LPE) y enhanced local energy attenuation (ELEA) (Qi. et al, 2021).
Redes neuronales convolucionales (CNN)
Posterior a la elaboración de las bases de datos con las imágenes preprocesadas, estas se usaron para la evaluación con la CNN. Con esto, se consolidó una base de datos de imágenes de radiografías de tórax con COVID-19 y sin este virus. También, una base de datos con segmentación de pulmones, mediante redes neuronales como U-Net. Además la implementación de los algoritmos de preprocesamiento para mejora de las imágenes y la creación de una CNN nueva para detección de COVID-19.
La CNN nueva tiene un diseño propio, su principio de creación está basado en Inception-ResNetV3 y GBRAS-Net. La CNN recibe imágenes de entrada de tamaño 224x224, extrae características mediante convoluciones, donde tiene bloques residuales que ayudan a evitar el desvanecimiento del gradiente debido a su tamaño, usa la función de activación ReLU, y finaliza con un global max pooling. Al llegar a la etapa final de clasificación, está conformada con 128, 64, 32 y 2 neuronas, donde las últimas 2 entran a un Softmax para las predicciones, mientras las otras neuronas usan la función de activación ELU.
CONCLUSIONES
Los resultados de evaluación de la CNN a imágenes de pacientes con COVID-19 y pacientes sanos mostraron una precisión del 99,71 %. Se desarrollaron algoritmos en Python y MATLAB de preprocesamiento de las imágenes, y se observó una mejoría en la segmentación de los pulmones cuando se emplearon imágenes preprocesadas en comparación con las imágenes originales. En particular, el algoritmo RSWHE con r=1 fue el que presentó los mejores resultados.
Palancares Sosa Martha Patricia, Instituto Politécnico Nacional
Asesor:Dra. Juana Alvarado Ibarra, Universidad de Sonora
ISO 14001: INSTRUMENTO PARA LA SUSTENTABILIDAD DE LAS MYPYMES
ISO 14001: INSTRUMENTO PARA LA SUSTENTABILIDAD DE LAS MYPYMES
Palancares Sosa Martha Patricia, Instituto Politécnico Nacional. Asesor: Dra. Juana Alvarado Ibarra, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Las Micro Pequeñas y Medianas Empresas son una entidad económica importante para el país, con una participación del 52% para el PIB de según la Secretaría de Economía y con el 72% de empleos a nivel nacional según el INEGI, sin embargo, han sido consideradas como un grupo objetivo secundario de las políticas ambientales condicionando su rezago en cumplimiento ambiental y por ende en su desarrollo sustentable.
Aun cuando su impacto ambiental individual pueda ser pequeño, la suma de un total de MyPyMEs localizadas en un lugar pueden traducirse en afectaciones para el ambiente y la población. Aunado a esto se suman los riesgos laborales, que dejan vulnerable al sector laboral que muchas veces trabaja en la informalidad y carece de seguridad social.
La implementación de un Sistema de Gestión Ambiental fundamentado en la mejora continúa podría ser la respuesta para asegurar que las MyPyMEs cumplan en materia ambiental, de seguridad y protección civil, volviendolas seguras, resilientes y sostenibles.
METODOLOGÍA
El estudio fue del tipo cuantitativo y transversal, y para su desarrollo se seleccionó como objeto de estudio la Estética Gemas, microempresa ubicada en Oaxaca de Juárez, Oaxaca, contando con la autorización de la dueña y el de la misma y de las estilistas para proporcionar la información requerida.
Los elementos de la ISO:14001 son cuatro: planear, hacer, actuar y verificar; por la duración de la estancia en este proyecto se aplicaron los dos primeros. Se establecieron los objetivos ambientales, se identificaron los procesos sustantivos de la estética para generar y proporcionar resultados acordes a la política ambiental que se estableció en conjunto con la organización en los aspectos de Seguridad, Protección Civil, Residuos, Energía, Agua y Aire.
Para el desarrollo del proyecto se realizaron entrevistas, diagramas de bloque, inventarios, registros de las condiciones laborales y estructurales del establecimiento, se consultaron las fichas de seguridad de las sustancias químicas, así como evaluar el cumplimiento de la Normatividad Mexicana aplicable.
Exclusivamente para el aspecto de protección civil, al ser un área de especial interés para el aprendizaje durante esta estancia, se tomaron en consideración los Términos de Referencia del Estado de Sonora (TRES) que establecen los lineamientos y especificaciones para la conformación de la Unidad Interna de Protección Civil para lo que se realizaron recorridos a la periferia del establecimiento en donde se conocieron los riesgos externos.
Además, se emplearon métodos para análisis de riesgos como: IPERC, What If?, MOSLER, la determinación del grado de incendio, el mapa cartesiano así como el diagrama de Ishikawa.
Una vez ubicadas las oportunidades de mejora de la Estética, se propusieron recomendaciones bajo las formas verbales debe, debería y puede.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos como prácticos para diseñar un Sistema de Gestión Ambiental (SGA) y también se aprendieron diferentes metodologías para el análisis de riesgos. Al ser un trabajo extenso lo relativo a SGAs, faltaría complementar los elementos verificar y actuar, no obstante, la implementación de los dos pasos trabajados en esta estancia, muestran la potencialidad de aporte a los ODS de las MyPyMEs, particularmente al ODS número 11.
En cuanto a la parte socio cultural la parte que más me impacto fueron los paisajes desérticos del estado de Sonora y su gastronomía, en especial el burro percherón.
Palma Duran Atenea, Universidad Tecnológica de Huejotzingo
Asesor:M.C. María Esther González Miguel, Universidad Tecnológica de Huejotzingo
ELABORACIóN DE VINO DE PERA.
ELABORACIóN DE VINO DE PERA.
Palma Duran Atenea, Universidad Tecnológica de Huejotzingo. Asesor: M.C. María Esther González Miguel, Universidad Tecnológica de Huejotzingo
PLANTEAMIENTO DEL PROBLEMA
Huejotzingo es un municipio producto de diversas frutas como lo es la pera, está fruta de temporada desafortunadamente en muchas ocasiones no se llega a consumir en su máxima totalidad y por ende los productores de esta materia prima llegan a venderla a un precio muy barato, incluso en el peor de los casos, la fruta no es vendida y se descompone, generando así perdidas para los productores. Es por ello que surge la idea y necesidad de crear un producto a base de la pera con el fin de que la fruta que no llegara a ser vendida tenga un proceso y así se pueda generar otra forma de venta.
METODOLOGÍA
Se desarrollo un nuevo producto a base de pera. Lo primero que se realizó fue buscar productores de la región que han tenido problemas en años anteriores con sus ventas y se les propuso este método, con esto ellos pueden probar una nueva forma de ingreso y nosotros así conseguimos la materia prima. Cuando ya se tiene la materia prima se empieza a seleccionar la fruta con las características ideales para el proceso. Seguido de este paso se realiza la extracción de mosto para que en las siguientes semanas lo que se realiza sea monitoreo de la fermentación del vino y cuidado para evitar que se vuelva vinagre. Se monitorea unas semanas y finalmente pasa a ser embotellado.
CONCLUSIONES
El vino parece ser adecuado y aceptado tanto por los productores de pera como para el mercado. En esta estancia de verano me di cuenta de las necesidades que muchos productores de fruta de temporada llegan a tener y aprendí a buscar soluciones que ayuden a la economía local y al mismo tiempo me da la experiencia y el conocimiento de cómo solucionar este tipo de situaciones.
Palomares Barragán Betsaida, Instituto Tecnológico de Lázaro Cárdenas
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO.
CROMATOGRAFíA DE LíQUIDOS Y GASES PARA LA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO.
Palomares Barragán Betsaida, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es una técnica que ha prevalecido y crecido con los años. Es de suma importancia adquirir los conocimientos básicos sobre esta técnica, antes de establecer un método para trabajar. Cumple dos funciones básicas que se complementan: Separar los componentes de la mezcla, para obtenerlos a un alto nivel de pureza y usarlos posteriormente.
Las técnicas cromatografías son muy variadas, pero en todas ellas hay una fase móvil que consiste en el fluido (gas o liquido) que arrastra a la muestra a través de una fase estacionaria usualmente llamada columna, que se trata de un sólido o un líquido fijado en un sólido.
Hay muchas razones por las cuales la cromatografía ha crecido sustancialmente, una de ellas es la automatización de los procesos de manipulación de muestras. Esto ahorra tiempo en investigaciones y permite a los laboratorios producir resultados más precisos y confiables. Existen instrumentos que han sido desarrollados para trabajar junto con equipos de cromatografía que soportan el proceso de separación y purificación de muestras, como espectrómetros de masas, equipos por ultravioleta visible, refractómetros etc.
El propósito de la aplicación de la cromatografía, que se utiliza como método de análisis cuantitativo, además de su separación, es lograr una separación satisfactoria en un intervalo de tiempo adecuado.
Si la fase móvil es líquida, se denomina cromatografía líquida (LC), y si es gas, se denomina cromatografía de gases (GC). La cromatografía de gases se aplica a gases y mezclas de líquidos volátiles y material sólido. La cromatografía líquida se utiliza especialmente para muestras térmicamente inestables y no volátiles.
Los métodos de cromatografía basados en la partición son muy eficaces en la separación e identificación de moléculas pequeñas como aminoácidos, carbohidratos y ácidos grasos. La cromatografía gas-líquido se utiliza en la separación de grupos alcohol, éster, lípidos y amino, y en la observación de interacciones enzimáticas, mientras que la cromatografía en gel de agarosa se utiliza para la purificación de ARN, partículas de ADN y virus
METODOLOGÍA
El estado físico de la fase móvil determina la primera gran división de los métodos cromatográficos; cromatografía de gases y cromatografía de líquidos. De manera general existen diferentes tipos de cromatografía: Cromatografía de columna, Cromatografía de intercambio de iones, Cromatografía de permeación en gel (tamiz molecular), Cromatografía de afinidad, Cromatografía en papel, Cromatografía de capa fina, Cromatografía de gases, Cromatografía de interacción hidrofóbica, Cromatografía de pseudoafinidad, Cromatografía líquida de alta presión (HPLC)
Entre la cromatografía de gases y la cromatografía de líquidos, es importante el concepto de adsorción, refiriéndose a la retención del analito en la zona superficial de la fase estacionaria sin llegar a una interacción molecular profunda.
En general los equipos de cromatografía de gases y de líquidos están conformados de manera similar, cuentan con un inyector de muestras, una columna en donde se da el fenómeno de adsorción de la muestra provocando la elución de los componentes, un detector que puede ser; óptico, eléctrico y molecular o atómico.
Un detector debe arrojar una respuesta proporcional a la concentración del analito, evitar perturbaciones en la señal a causa de ruido, no permitir variaciones en la señal a lo largo del tiempo, tener una sensibilidad mayor y contar con un rango dinámico.
Entre los parámetros importantes para la validación de un método cromatográfico se encuentran: Factor de capacidad, selectividad y eficiencia de la columna
Es importante trabajar con métodos en donde el volumen de inyección de muestra sea mínimo, el flujo sea constante, la temperatura y presión sean acordes a las necesarias para analizar la muestra, y que el equipo permita la facilidad de intercalar entre régimen isocrático o por gradiente.
La polaridad, peso molecular y volatilidad de la muestra son factores importantes al momento de seleccionar la fase móvil y estacionaria de un método cromatográfico y el detector a utilizar.
CONCLUSIONES
Inicialmente, se utilizaron técnicas cromatográficas para separar sustancias en función de su color, como era el caso de los pigmentos a base de hierbas en el experimento se Tswett. Con el tiempo, su área de aplicación se amplió considerablemente. Hoy en día, la cromatografía se acepta como un método de separación extremadamente sensible y eficaz. La técnica de HPLC, que tiene muchas características superiores, incluida especialmente su mayor sensibilidad, velocidad de rotación rápida, su uso como método cuantitativo, puede purificar aminoácidos, proteínas, ácidos nucleicos, hidrocarburos, carbohidratos, fármacos, antibióticos y esteroides, entre otros.
En el caso particular de este trabajo se revisó la bibliografía acerca de la determinación de mercurio y plomo presente en cuerpos de agua por cromatografía de líquidos HPLC, empleando un detector de espectrómetro de masas.
Se adquirieron conocimientos acerca de la historia de la cromatografía, elementos principales de separación cromatográfica, los parámetros determinar para la validación del método cromatográfico. Además, se planteó una metodología para la determinación y cuantificación de los analitos principales, siendo estos; el mercurio y plomo.
Gracias a lo aprendido en la estancia, es posible proponer un método de evaluación de aguas, tomando en cuenta desde el muestreo, polaridad de la muestra, factores como temperatura y presión, longitud de onda adecuada a trabajar para los analitos target, y entre los más importantes dentro de la cromatografía; los tipos de fases a utilizar.
Palomares Marín Juan José, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Alberto Gutièrrez Martìnez, Universidad Michoacana de San Nicolás de Hidalgo
SISTEMAS DE MONITOREO Y RIEGO DE FRUTOS ROJOS
SISTEMAS DE MONITOREO Y RIEGO DE FRUTOS ROJOS
Palomares Marín Juan José, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Alberto Gutièrrez Martìnez, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En el campo, principalmente en los cultivos de fresa en México se requiere de tener un minucioso cuidado para obtener una buena producción y de calidad, esto requiere de una inversión de tiempo y dinero, siendo los principales problemas a la hora del proceso de los cultivos de fresa. A causa de esto en este trabajo se propone un sistema de riego automatizado con un control de temperatura y humedad el cual tiene la capacidad de activar un sistema de calentamiento automáticamente en caso de que la temperatura ambiente sea baja para evitar que la planta se queme por el frio, esto a un bajo costo para ahorrar gastos de personal agrónomo y tiempo. Así mismo el prototipo ofrece un sistema que detecta el movimiento el cual se encarga de ahuyentar los depredadores y algunas plagas por medio de una bocina que se activa automáticamente al detectar el movimiento con el fin de alejarlos de nuestro cultivo y con esto preservar la planta para en un futuro obtener un producto de calidad.
Por lo regular los sistemas de riego automatizados son muy costosos y por lo general son vendidos por empresas extranjeras las cuales tienen precios altos principalmente por los gastos de exportación, instalación, entre otros. Con este prototipo se obtendrá un precio más accesible y de buena calidad para mantener sus cultivos en buen estado y que el cliente quede satisfecho.
Un sistema de riego automatizado es necesario en el campo ya que debido a los cambios climáticos extremos se requiere del prototipo para regar la planta cuando sea necesario y/o modificar la temperatura de la misma para mantenerla en condiciones optimas y seguras para preservar la planta y obtener una buena producción.
METODOLOGÍA
Para este prototipo se utilizo una placa ARDUINO UNO para leer y comunicar la programación con las especificaciones necesarios para cierto tipo de cultivos.
Se conecto al Arduino un sensor que se encargara de leer la humedad presente en la tierra de la planta y en caso de que este por debajo de los límites establecidos se activara automáticamente una bomba de agua que de igual forma se conectó al Arduino y cuando la humedad llegue al límite máximo establecido se apagara automáticamente y no se volverá a encender hasta que la humedad este por debajo del límite establecido.
También se conecto a la placa de Arduino un sensor de temperatura el cual mandara una señal en caso de que la temperatura este por debajo del limite establecido para que active un sistema de calentamiento y se apague automáticamente al llegar a la temperatura adecuada para la planta.
Y por ultimo se agrego un sensor de movimiento el cual en caso de detectar algún movimiento (por ejemplo, de un depredador) mande una señal la cual activara una bocina para ahuyentarlo de los cultivos.
CONCLUSIONES
Este proyecto es de una gran utilidad para los agricultores ya que con una pequeña inversión podrán ahorrar muchos gastos de personal y/o de tiempo porque todo será automático y se podrá obtener una buena cosecha de calidad ya que el producto las mantendrá en las condiciones óptimas para que las plantas se mantengan saludables sin la necesidad de estar tan al pendiente de ellas. Además, el producto será amigable con el ecosistema gracias a su sistema para ahuyentar depredadores en lugar de usar químicos para extinguirlos y generar un cambio negativo en la fauna del lugar.
A diferencia de los demás sistemas de riegos que existen en el mercado este será de un precio mas accesible al ser un producto nacional para que este al alcance de la población en general.
Paniagua Pérez Danna, Instituto Tecnológico de Morelia
Asesor:Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
ESTUDIO DE LAS PROPIEDADES Y RESISTENCIA A LA CORROSIÓN DE LOS ACEROS DP590 Y FB590
ESTUDIO DE LAS PROPIEDADES Y RESISTENCIA A LA CORROSIÓN DE LOS ACEROS DP590 Y FB590
Paniagua Pérez Danna, Instituto Tecnológico de Morelia. Asesor: Dra. Citlalli Gaona Tiburcio, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La constante necesidad de mejores materiales, con propiedades más avanzadas, más livianos, más resistentes, con mayor capacidad de deformación antes de fallo, han orillado al desarrollo y mejora constante de los materiales; prueba de esto han sido los Advanced High-Strength Steel, cumpliendo con la alta demanda de la industria aeronáutica como automotriz, de aceros que tengan alto grado de absorción de impacto antes de la falla.
En este trabajo de investigación se abordarán los aceros DualPhase y Ferrita-Bainita, especificando en los aceros DP590 y FB590.
Se hablará de la corrosión para posteriormente estudiar las propiedades y la resistencia de los aceros anteriormente mencionados contra este fenómeno.
METODOLOGÍA
La familia AHSS, llega a dividir en tres diferentes generaciones, la perimera ganeeración se compone por aceros DualPhase (DP), Complex Phase (CP), Ferríticos-Bainíticos (FB), Transformation-Induced-Plasticity (TRIP); en la segunda generación podemos llegar a encontrar aceros austeníticos con alto contenido de aluminio y manganeso, mientras que en la última generación se ubican los aceros de martensita con austenita estable, entre éstos, destacan los aceros Twinning-Induced-Plasticity (TWIP).
La microestructura del acero DualPhase 590 se compone alrededor del 30-33% de la fase martensítica, con la matriz ferrítica con granos equiaxiales, lo que mejora las propiedades mecánicas del material.
El mecanismo de deformación en el acero DP590, se puede dividir en 3 partes críticas, deformación elástica de matriz ferrítica e islas martensíticas, seguido de una deformación plástica en matriz ferrítica y deformación elástica en islas martensíticas, para finalizar con deformación plástica en matriz ferrítica e islas martensíticas. Al ser la ferrita un material más dúctil, inicia en ésta la deformación plástica, que se ve restringida por la martensita presente, propiciando así una deformación localizada en el material; desembocando en la fractura, consecuencia de la deformación localizada en la ferrita
La microestructura del acero FB590 se compone alrededor del 30-40% de fase bainítica y una fase ferrítica. En cuanto a las propiedades mecánicas del acero FB590 podemos destacar su punto de cedencia entre 470-550 MPa y un esfuerzo de tensión que supera los 590MPa; no obstante, una de las cualidades más destacadas de este acero, es que reporta un porcentaje de elongación superior al 20%, a causa de la refinación de grano.
La corrosión es un fenómeno que se define como el deterioro de un material debido a un ataque electroquímico proporcionado por su entorno, la corrosión es provocada por un flujo masivo generado por las diferenciad químicas entre las piezas
Los ensayos de corrosión son una parte fundamental dentro de la ciencia de los materiales. Las técnicas electroquímicas pueden ser usadas para evaluar el fenómeno de la corrosión y determinar las velocidades de reacción, estas técnicas, ofrecen la posibilidad de realizar investigaciones en campo y en el laboratorio. Estas pruebas nos ofrecen conocer cuantitativamente la cinética de la corrosión.
La extrapolación Tafel es una forma de determinar la velocidad de corrosión y se expresa en unidades de velocidad de penetración o en unidades de velocidad de pérdida de masa.
El ruido electroquímico es un estudio cuantitativo donde la medición de las oscilaciones del potencial de corrosión respecto a un electrodo de las oscilaciones el potencial de corrosión respecto a un electrodo de referencia.
La espectroscopía de impedancia electroquímica es un estudio basado en el uso de una corriente alterna aplicada al metal en corrosión para medir su respuesta a diferentes frecuencias. Se procesan las respuestas potencial-tiempo y corriente-tiempo arrojando los valores de impedancia formando un espectro.
CONCLUSIONES
Durante la estancia de verano se logró adquirir el conocimiento teórico de los materiales evaluados, conociendo la relación entre la microestructura con las propiedades que exhiben ambas aleaciones; de igual manera, se revisó el fenómeno de corrosión y los algunos de los principales ensayos a los que se someten los materiales.
El estudio de este fenómeno es de vital importancia, debido a que resulta una problemática que nos aqueja en el día a día, a causa de este se producen muchos accidentes, además de perdidas monetarias y de personal.
De seguir el hilo de la investigación, se pretende encontrar el material óptimo para la industria automotriz y posteriormente apuntar a la industria aeroespacial, buscando la mejor relación entre, propiedades, trabajo a desempeñar, costo de producción.
Pardo Jiménez Gabriela Esther, Universidad Tecnológica De Bolívar
Asesor:Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
DETERMINACIÓN DE LAS CONDICIONES OPTIMAS DE OPERACION PARA EL SISTEMA DE ATENCIÓN DE UNA CAFETERÍA UBICADA AL INTERIOR DE UN CENTRO COMERCIAL BAJO EL USO DE HERRAMIENTAS DE OPTIMIZACIÓN-SIMULACIÓN
DETERMINACIÓN DE LAS CONDICIONES OPTIMAS DE OPERACION PARA EL SISTEMA DE ATENCIÓN DE UNA CAFETERÍA UBICADA AL INTERIOR DE UN CENTRO COMERCIAL BAJO EL USO DE HERRAMIENTAS DE OPTIMIZACIÓN-SIMULACIÓN
Pardo Jiménez Gabriela Esther, Universidad Tecnológica De Bolívar. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
En este escrito se plantea el problema de encontrar las condiciones óptimas de operación para una cafetería situada en la parte interna de un centro comercial, en la cual se implementa un proceso de bioseguridad en la entrada del establecimiento que tiene como fin proteger la salud y seguridad de los clientes y empleados, así como de asegurar las percepciones de calidad del servicio que tienen los mismos a través de tiempos mínimos de espera. Dada la situación mundial que los seres humanos vivimos a causa de la pandemia del Covid - 19, por la que miles de establecimientos de atención al cliente, prestación de servicios y de venta de bienes de consumo como los restaurantes y cafeterías quienes han tenido que modificar sus procedimientos de atención para poder adaptarse a la nueva normalidad que ha sido impuesta.
De esta manera, la investigación tratada utiliza la RSM y de la simulación de sistemas de colas de forma concurrente aplicadas al modelaje del sistema de operación de una cafetería que garantiza la calidad de atención a los usuarios mediante tiempos de espera justos y la implementación de un procedimiento inicial de desinfección como requisito de entrada. Por tanto, la meta a lograr es la de determinar la cantidad de servidores y el tiempo medio de atención óptimos que minimicen el tiempo promedio que los clientes esperan para ser atendidos en la cafetería al interior del centro comercial, esto con la utilización de la herramienta de optimización-simulación compuesta por la Metodología de Superficies de Respuesta del software MiniTab 19 y la simulación de sistemas de colas del software Arena.
Así pues, la contribución principal de este articulo es la de establecer un procedimiento de atención óptimo para los centros de consumo que priorice la calidad del servicio y también la salud y seguridad de los clientes, usuarios y empleados del lugar, en medio del proceso de reactivación económica que vive el mundo tras la pandemia del Sars-Cov-2 y el peligro de contraer alguna de sus variantes. Por ello, este documento primero aborda una breve revisión de literatura que define y ejemplifica los usos de la Metodología de Superficies de Respuesta (RSM), de la optimización simulación y la teoría de colas. En segundo lugar, el enfoque puntual de estos instrumentos. Y, por último, la descripción de la problemática expuesta y la solución de esta bajo el enfoque de las herramientas mencionadas.
METODOLOGÍA
La utilización simultanea de la RSM y la simulación consiste en llevar a cabo los siguientes pasos:
1. Modelar el problema en el software de simulación Arena
2. Plantear el problema bajo la RSM identificando:
La variable de respuesta (Y) correspondiente al tiempo de espera de los clientes
Las variables de decisión (X1) Cantidad de servidores y (X2) Tiempo de servicio.
3. Elección del diseño experimental con el que se implementara la RSM
Diseño factorial 2k para el modelo de primer orden
Diseño central compuesto para el modelo de segundo orden
4. Explorar la región con los valores iniciales de X1, X2 y Y que se tienen con Arena con un Diseño factorial 2k en Minitab para verificar si el punto actual es óptimo o no, aplicando el criterio de curvatura que consiste en comprobar:
Si Minitab encuentra que hay curvatura el P-Valor que resulta de la tabla Anova es menor que el nivel de significancia del 5%, es decir: PV < α= 0,05.
Si no hay curvatura en Minitab, entonces quiere decir que el P-Valor de la tabla Anova es mayor que el nivel de significancia del 5%, es decir: PV > α= 0,05.
5. En caso de no haber curvatura, el punto actual entre X1 y X2 o valor de Y no es el mínimo, entonces para encontrarlo se debe determinar la dirección y tamaño de los nuevos valores del punto conformado por X1 y X2, mediante el método del escalamiento descendente. Para el cual se varia de 1 en 1 unidad la cantidad de servidores y de 0.5 en 0.5 el tiempo de servicio en cada estación, es decir, los niveles de los factores de X1 y X2.
6. La variación anterior da como resultado un conjunto de experimentos aleatorizados, que se comprueban cada uno en el modelo de simulación de Arena para obtener el valor de la variable de respuesta Y. Luego de ello se aplica el análisis del diseño
7. El análisis del diseño retorna unas tablas que permiten hacer:
Prueba de parámetros para saber la clase de interacción entre los factores, la significancia de estos y la ecuación de primer orden que retorna el modelo 2k
Verificación de curvatura para saber si se debe hacer un nuevo diseño central compuesto que determine la función de segundo orden que brinda el punto óptimo que minimiza el tiempo de espera de los clientes.
Los pasos 5, 6 y 7 se realizan hasta que Minitab encuentre curvatura, es decir hasta que PV < α= 0,05.
8. En caso de haber curvatura se debe realizar el diseño central compuesto en MiniTab para encontrar la ecuación de segundo orden que minimiza el valor de la variable de repuesta y representa la mejora del sistema.
CONCLUSIONES
El problema abordado de ¿Cómo encontrar las condiciones de operación de una cafetería en el interior de un centro comercial que utiliza un procedimiento de bioseguridad? Para ello se ha utilizado el enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) y provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
Durante la estancia virtual de investigación del programa DELFIN XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, se estudió la metodología de optimización - simulación, y se esbozó su aplicación al problema puntual de especificar la cantidad de servidores y el tiempo medio de atención óptimos que minimicen el tiempo promedio que los clientes esperan para ser atendidos en la cafetería al interior del centro comercial, esto brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
Parra Flores Edward Daniel, Universidad Autónoma de Occidente
Asesor:Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
APLICACIÓN DE NANOPARTÍCULAS SEMICONDUCTORAS BIOSINTETIZADAS EN EL MEJORAMIENTO DEL MORTERO DE CEMENTO
APLICACIÓN DE NANOPARTÍCULAS SEMICONDUCTORAS BIOSINTETIZADAS EN EL MEJORAMIENTO DEL MORTERO DE CEMENTO
Parra Flores Edward Daniel, Universidad Autónoma de Occidente. Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
La nanotecnología y la implementación de nanomateriales que mediante la manipulación de las propiedades con las que cuentan los materiales comúnmente empleados, y en combinación con las propiedades de la materia a nano escala se puede conseguir una mejora considerable con respecto a los esfuerzos que a los que se somete, así como a efectos causados por las variaciones del medio en que se encuentra. El incremento de las facultades mecánicas de los concretos modificados con nanomateriales genera importantes ventajas: (I) menores dimensiones de los elementos estructurales, y con ello, disminución de cargas muertas; (II) construcciones más livianas, porque se reducen las cantidades de material estructural; (III) disminución de costos; (IV) reducción del impacto ambiental durante la producción del cemento y el hierro, porque se requieren menores cantidades. Debido a los problemas ambientales se ha buscado implementar rutas de síntesis de nanomateriales por métodos verdes, donde su propósito es sustituir el uso de solventes químicos a partir de extractos naturales de plantas. Plantas como el boldo (Peumus boldus) que gracias a sus propiedades antioxidantes puede ser utilizada para neutralizar especies reactivas de oxígeno. En la investigación desarrollada en el verano científico, se estudió la síntesis verde de nanopartículas de ZnO utilizando Peumus boldus. Además, como propuesta a futuro, las nanopartículas biosintetizadas serán aplicadas en los materiales cementantes, con la finalidad de evaluar las propiedades mecánicas, la durabilidad y su aplicación en la eliminación de contaminantes por medio de la fotocatálisis.
METODOLOGÍA
La presente metodología describe el proceso que siguió el investigador Dr. Manuel Chinchillas, el cual es mi asesor del programa delfín. Esta metodología nos la enseñó por medio de teoría, fotos y videos. Lo cual sirvió para mi preparación en el enfoque de investigación.
Síntesis verde de NPs ZnO
Para la síntesis de Nanopartículas se utilizó hojas secas de Peumus boldus, las cuales se pesaron 2.5 gr y se agregaron a un vaso de precipitado con 50 ml de agua. Posteriormente se agitó durante 2 horas y se dejó reposar. Después se le agregó Nitrato de Zinc a la solución y se agitó durante 1 hora. La solución se colocó en baño maría durante 12 horas y el material que quedó se agregó a un horno a 400 °C durante 1 hora. Finalmente, el material se molió y se empezó la caracterización.
Caracterización de las Nanopartículas
Se empleó Espectroscopia de infrarrojo para analizar si existían especies orgánicas en las Nanopartículas mediante la vibración de los enlaces moleculares. También se aplicó la técnica de Difracción de rayos X, con la cual identificamos la estructura cristalina del material. Por último, para analizar la morfología se aplicó Microscopia Electrónica de Transmisión, para observar la forma, la aglomeración y el tamaño de las nanopartículas.
Aplicación de Nanopartículas en pastas de cemento
Como investigación a futuro, las Nanopartículas de ZnO se dispersarán en una solución acuosa (agua de mezcla) y se mezclarán con la pasta de cemento en el molde deseado. Posteriormente se dejará endurecer durante 24 horas y la pasta de cemento resultante se utilizará para evaluar las propiedades mecánicas y analizar la eliminación de contaminantes en el agua a través de la fotocatálisis.
CONCLUSIONES
En el estudio de DRX se encontraron picos bien definidos a 2θ= 31º, 34º, 36º, 48º, 56º, 63º, 68º y 68º. Que eran debido a las difracciones de los planos (100), (002), (101), (102), (110), (103) y (112) típico de ZnO en la estructura cristalina tipo Wurtzita. Esto confirma que las Nanopartículas tienen una estructura bien definida y no se observan picos de contaminantes o de defectos de las nanopartículas. Mediante la espectroscopia FTIR se identificó la presencia de ZnO se ha confirmado por un pico a 451 cm-1, siendo este el pico más notorio en la banda. Los picos restantes se atribuyen a los componentes fitoquímicos presentes en el extracto utilizado en la biosíntesis de ZnO-NP como la vibración de los enlaces O-H, C-C y C-H. Por otro lado, con ayuda del TEM se observó una distribución homogénea de las nanopartículas, existiendo aglomeración en algunas zonas, al realizar un zoom a la micrografía se observaron diferentes tamaños y formas de las NPs de ZnO. El tamaño de las Nanopartículas osciló entre los 20-40 nm. Por lo tanto se confirma que utilizar Peamus boldus en la biosíntesis produce nanopartículas con forma cuasiesférica.
Gracias al conocimiento e información brindados por parte del asesor Dr. Manuel de Jesús Chinchillas Chinchillas se logró llevar a cabo el proyecto planteado por el mismo, recabando información de distintas fuentes que nos sirvió como apoyo en los distintos usos de la nanotecnología y su aplicación en la industria de la construcción, consiguiendo beneficios considerables en el ámbito ecológico y sus propiedades mecánicas. El siguiente paso de este proyecto es la aplicación de estas nanopartículas en pastas de cemento con el fin de eliminar contaminantes presentes en el agua con ayuda de la fotocatálisis. El verano sirvió para conocer aspectos realmente importantes en el ámbito de la investigación. Es de recalcar que durante el periodo comprendido nuestro asesor investigador siempre estuvo al tanto para disipar dudas y proporcionándonos información de primera mano.
Parra Polo Carlos Alberto, Corporación Politécnico de la Costa Atlántica
Asesor:M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
Cota Mexia Angel Guillermo, Universidad Autónoma de Occidente. Martinez Alvarez Jose Paola, Universidad Autónoma de Occidente. Parra Polo Carlos Alberto, Corporación Politécnico de la Costa Atlántica. Pérez Luna Sophia Alexandra, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
RESUMEN
Durante los últimos años el sector de la mano factura ha experimentado un crecimiento significativo, siendo esta la razón por la que ha logrado sobresalir entre las demás industrias, lo que ha despertado la necesidad de estudiar como los cambios que han experimentado estas empresas en temas de mano de obra, logísticos, operativos y tecnológicos; influyen en el incremento de los índices de accidentalidad y enfermedad laboral dentro de estas organizaciones.
METODOLOGÍA
METODOLOGÍA
JUSTIFICACIÓN
Con el fin de garantizar información sobre cómo mantener un puestos de trabajo seguros, pero sobre todo para que los trabajadores cuenten con las herramientas necesarias que les permita hacer frente a cualquier situación que pueda generar accidentes o enfermedades laborales, permitiéndoles mitigar o eliminar sus consecuencias, por lo tanto; con esta propuesta se pretende dar a conocer algunas técnicas existentes en seguridad y salud en el trabajo sobre prevención de riesgos laborales y enfocarlas al sector manufacturero pero solo en empresas de confecciones en Colombia, con el fin de mejorar la seguridad y salud de los trabajadores de estas, logrando un mayor aprendizaje y empoderamiento de los mismos. Es por ello, que es necesario contar con recursos que permitan implementar cada una de las acciones definidas en el plan de trabajo, por lo que la gerencia en línea debe asignarlos. Los recursos que se requieren para ellos son: Talento humano: recurso fundamental para la administración del Sistema de Gestión y/o Plan de Trabajo definido para intervenir la población objeto de las empresas inmersas dentro del sector de mano factura. El talento humano debe contar concompetencias laborales y técnicas en temas de administración de riesgos y seguridad y salud en el trabajo. Tecnológicos: dada la eventualidad de salud pública que a nivel mundial estamos viviendo, se debe contar además, de los equipos (PC - Internet - Impresora) con los que se cuentan antes de la situación referida, contar con autorizaciones para el uso de plataformas digitales sencilla y versátiles que permitan llegar a cada uno de los trabajadores población objeto cuando las acciones sean del resorte virtual. Para las actividades presenciales, se debe contar adicional con equipos audiovisuales, salón, mesas, herramientas entre otros, para llegar a la población convocada. Financieros: disponer de recurso que permitan realizar compras de elementos de protección personal, adecuación de espacios, moviliario, entre otros elementos necesario para desarrollar de manera segura las actividades propias del trabajo.
CONCLUSIONES
CONCLUSIONES
Dentro de la presente investigación se pudo evidenciar que existen aspectos a mejorar con la finalidad de minimizar la ocurrencia de los accidentes de trabajos. Se identificó que en las operaciones del sector manufacturero, dado a sus actividades máquinas y uso de diferentes herramientas se presentan peligros inherentes al desarrollo de sus procesos, que podrían poner en riesgo la salud y la integridad de los trabajadores; por ende, es fundamental que los trabajadores tengan conocimiento de los riesgos a los que están expuesto en sus lugares de trabajo y cómo prevenir y controlar cada uno de ellos, para realizar la operación de manera segura y proteger su bienestar. Las empresas del sector manufacturero buscan constantemente en mejorar la eficiencia, eficacia y efectividad de sus operaciones, para lo cual es necesario estar apoyado en la seguridad y salud en el trabajo, es por ello que las empresas deben aprovechar el crecimiento en investigaciones y normatividad que les permita tener trabajadores que cuenten con las herramientas y los conocimientos necesarios para realizar su trabajo de manera segura, pero a su vez aportando al crecimiento del sector. Todo trabajador debe ser consciente que realizar actividades peligrosas o actividades que se desvíen de los controles o estándares que se hayan establecido por la organización, puede tener consecuencias que afecten su salud e incluso llegar al punto de perder su vida, y debe entender el impacto que esto podría reflejar a sus familias y círculo social, por lo tanto el autocuidado es la mejor opción para proteger su salud. Es importante que el trabajador no intente reparar daños eléctricos o mecánicos si no está autorizado y no cuenta con las habilidades, conocimientos y capacidades para hacerlo, en estos casos es recomendable que se informe al personal encargado de realizar ese tipo de actividades para no poner en peligro su salud. Es importante que los trabajadores durante la ejecución de todas sus actividades reporten a sus superiores todos aquellos cambios en la salud que puedan experimentar o aquellas anomalías que se puedan presentar al realizar sus actividades, para que de esta manera se puedan analizar las causas y establecer los cambios o los controles que se consideren correspondientes.
RECOMENDACIONES
Implementar un Programa de Mantenimiento Correctivo y Preventivo, para el manejo de máquinas y herramientas de trabajo. Planificación y estandarización de procesos en el área de mantenimiento (Procedimiento, Instructivos, Guías, Protocolos, Formatos etc.) Elaborar un Plan de Inducción y Reindución en donde se refleje las buenas practicas Autocuidado, Manejo de Cargas, Uso de EPP, Matriz de Riesgos laborales entre otros. Garantiza la eficacia de las capacitaciones Análisis y mejora de los flujos de trabajo (operaciones de trabajo y sitios de desarrollo)
BIBLIOGRAFIA
1. https://ipsnoticias.net/2018/04/seguridad-laboral-crece-america-latina-menos-para-lo s-jovenes/#:~:text=Cifras%20parciales%20disponibles%2C%20indican%20que,en% 20el%20sector%20de%20servicios.
2.https://www.uis.edu.co/intranet/calidad/documentos/capacitacion/Indicadores%20de %20gestion.pdf
3. https://www.ilo.org/global/about-theilo/newsroom/news/WCMS_008562/lang--es/index.htm
4. https://www.mayoristaindustrial.com/la-aplicacion-de-la-seguridad-industrial-enempresas-de-manufactura
Pascual Pasaye Jorge Alberto, Instituto Tecnológico Superior Purépecha
Asesor:M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
Garcia Rivas Sergio, Instituto Tecnológico de Tapachula. Pascual Pasaye Jorge Alberto, Instituto Tecnológico Superior Purépecha. Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño. Pedraza Quiroga Astrid Katherine, Universidad Antonio Nariño. Asesor: M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua para consumo humano es un tema de constante preocupación en las personas, debido a los potenciales efectos en la salud. Varios estudios epidemiológicos se han referido a la relación entre la dureza del agua y las enfermedades cardiovasculares e incluso como esta puede ocasionar la formación de piedras en los riñones u otras enfermedades de alto riesgo.
Así mismo, se entiende que la dureza del agua no solo puede generar efectos negativos en la salud del ser humano, pues también puede causar daños en las instalaciones de plomería, e incluso provocar importantes pérdidas de presión en el agua a causa de las incrustaciones de cal, reduciendo el diámetro de la tubería. Los aparatos que transportan este tipo de agua pueden consumir hasta un 60% más de energía calorífica, reduciendo su eficacia en un 12%, generando altos costes en calefacción entre otras consecuencias.
METODOLOGÍA
Para esta investigación cada integrante del equipo seleccionó 5 purificadoras o centros de distribución de agua potable, las cuales se estudiaron por dos semanas obteniendo un total de 25 muestras por purificadora, dichos datos se obtuvieron con un medidor de TDS digital el cual calcula la cantidad de sólidos disueltos por PPM (partes por millón).
Posteriormente, se realizaron los análisis estadísticos para calcular la media y la desviación estándar de cada empresa, seguidamente, se determinó el análisis de la Z (Según valores estandarizados) y con ayuda de la tabla de probabilidad normal, se estableció en qué rango de dureza ofrece cada empresa sus muestras de agua para finalmente realizar una comparacion de los resultados de villavicencio-Meta y Paracho-Michoacán.
CONCLUSIONES
Gracias a los datos obtenidos se logra establecer que, de 10 empresas purificadoras de agua presentes en Villavicencio, 9 ofrecen a sus clientes un agua con Dureza Blanda, identificando asique las empresas cuentan con un proceso muy estandarizado, por lo cual sus 25 muestras de cada empresa no varían significativamente.
Asimismo, la empresa restante de la ciudad de Villavicencio presentó una probabilidad la cual señala que la mayoría de las muestras obtenidas son de nivel de Dureza Dura. Por lo cual este estudio deja abierta la pregunta. ¿ que diferencia se tiene en el proceso de producción de esta empresa en comparación a las demás ubicadas en villavicencio.?
Paralelamente, se encontró que en Paracho la mayoría de las empresas presentan agua semidura y dura. Por lo cual se entiende que los datos no varían significativamente. Sin embargo, al comparar las muestras de esta región con las de Villavicencio si se ve una gran variación, Según lo anterior se genera la duda de que factor es el que determina el nivel de Dureza del agua, mayoritariamente es: el lugar de origen o la forma en que es tratada.
Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño
Asesor:M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
Garcia Rivas Sergio, Instituto Tecnológico de Tapachula. Pascual Pasaye Jorge Alberto, Instituto Tecnológico Superior Purépecha. Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño. Pedraza Quiroga Astrid Katherine, Universidad Antonio Nariño. Asesor: M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua para consumo humano es un tema de constante preocupación en las personas, debido a los potenciales efectos en la salud. Varios estudios epidemiológicos se han referido a la relación entre la dureza del agua y las enfermedades cardiovasculares e incluso como esta puede ocasionar la formación de piedras en los riñones u otras enfermedades de alto riesgo.
Así mismo, se entiende que la dureza del agua no solo puede generar efectos negativos en la salud del ser humano, pues también puede causar daños en las instalaciones de plomería, e incluso provocar importantes pérdidas de presión en el agua a causa de las incrustaciones de cal, reduciendo el diámetro de la tubería. Los aparatos que transportan este tipo de agua pueden consumir hasta un 60% más de energía calorífica, reduciendo su eficacia en un 12%, generando altos costes en calefacción entre otras consecuencias.
METODOLOGÍA
Para esta investigación cada integrante del equipo seleccionó 5 purificadoras o centros de distribución de agua potable, las cuales se estudiaron por dos semanas obteniendo un total de 25 muestras por purificadora, dichos datos se obtuvieron con un medidor de TDS digital el cual calcula la cantidad de sólidos disueltos por PPM (partes por millón).
Posteriormente, se realizaron los análisis estadísticos para calcular la media y la desviación estándar de cada empresa, seguidamente, se determinó el análisis de la Z (Según valores estandarizados) y con ayuda de la tabla de probabilidad normal, se estableció en qué rango de dureza ofrece cada empresa sus muestras de agua para finalmente realizar una comparacion de los resultados de villavicencio-Meta y Paracho-Michoacán.
CONCLUSIONES
Gracias a los datos obtenidos se logra establecer que, de 10 empresas purificadoras de agua presentes en Villavicencio, 9 ofrecen a sus clientes un agua con Dureza Blanda, identificando asique las empresas cuentan con un proceso muy estandarizado, por lo cual sus 25 muestras de cada empresa no varían significativamente.
Asimismo, la empresa restante de la ciudad de Villavicencio presentó una probabilidad la cual señala que la mayoría de las muestras obtenidas son de nivel de Dureza Dura. Por lo cual este estudio deja abierta la pregunta. ¿ que diferencia se tiene en el proceso de producción de esta empresa en comparación a las demás ubicadas en villavicencio.?
Paralelamente, se encontró que en Paracho la mayoría de las empresas presentan agua semidura y dura. Por lo cual se entiende que los datos no varían significativamente. Sin embargo, al comparar las muestras de esta región con las de Villavicencio si se ve una gran variación, Según lo anterior se genera la duda de que factor es el que determina el nivel de Dureza del agua, mayoritariamente es: el lugar de origen o la forma en que es tratada.
Pastrana Morales Angel de Jesús, Instituto Tecnológico de Iztapalapa III
Asesor:Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
CLASIFICACIóN DE IMáGENES POR MEDIO DE DEEP LEARNING
CLASIFICACIóN DE IMáGENES POR MEDIO DE DEEP LEARNING
Pastrana Morales Angel de Jesús, Instituto Tecnológico de Iztapalapa III. Román Reynoso Ofelia, Universidad Mexiquense del Bicentenario. Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Con el avance de la tecnología en los últimos años, se ha detectado un gran aumento en las cantidades de datos generados por algunas ramas como la cartografía, astronomía, diagnósticos médicos, etc; por lo tanto se ha vuelto bastante complicado clasificar toda esta información de manera manual, esto nos lleva a hacer uso de algoritmos de aprendizaje automático, con el objetivo de poder reconocer y clasificar todo este gran banco de información de manera eficiente.
Por ejemplo el problema que se plantea en el presente trabajo, en el que se propone desarrollar un modelo que sea capaz de clasificar distintas imágenes en sus respectivas categorías utilizando el conjunto de datos Caltech 101 que consiste en Imágenes de objetos pertenecientes a 101 categorías. Aproximadamente 40 a 800 imágenes por categoría. La mayoría de las categorías tienen alrededor de 50 imágenes, para llevar a cabo esta tarea de clasificación de imágenes, se hace uso de aprendizaje profundo (Deep Learning en inglés) a través de la utilización de redes neuronales.
METODOLOGÍA
Para la presente investigación se realizaron experimentos de manera cuantitativa, para lograr detectar de mejor manera la eficiencia de un modelo para la clasificación de imágenes, se usaron diferentes librerías basadas en python, como los son keras: que nos permite hacer uso de redes neuronales, logrando crear modelos muy simples con el mínimo de capas, también se utilizó entre otras la librería de tensorflow: que nos permite adaptar de mejor manera la librería de keras facilitando la creación de los modelos con redes neuronales.
Para la elaboración de este modelo se utilizó un ejemplo encontrado en internet y se modificó para que funcionara con el conjunto de datos de CIFAR100, analizando el algoritmo usado para su clasificación, una vez comprendido el modelo se incentivó a la problemática actual de mejorar la clasificación de imágenes en la base de datos Caltech 101 mediante la experimentación con las redes neuronales.
CONCLUSIONES
Después de varios experimentos se utilizó un modelo con una red neuronal de 6 capas, la primera con la instrucción flatten la cual convierte los elementos de la matriz de imágenes de entrada en un array plano, luego se añadieron capas ocultas, la primera capa tendría 1100 neuronas, la segunda 800, la tercera 600 , la cuarta 200 y la última, la capa de salida 100 neuronas.
Una vez teniendo en cuenta las capas y las neuronas a utilizar, se realizó el modelo secuencial correspondiente para calcular los parámetros totales que estarán moviéndose entre las capas de la red neuronal; para la función de activación, tanh fue el encargado de todas las capas ocultas que se crearon y para la capa de salida softmax, obteniendo una cantidad de parámetros resultantes de 75 752 800.
Se realizaron diferentes experimentos variando la cantidad de epochs que se ejecutarán, la primera fue de 10 epochs, obteniendo un resultado de 45.83% de predicción en la clasificación de imágenes, esto lo tomamos en que de todas las imágenes de la base de datos, el modelo está seguro de que acertó en su totalidad el 45.83% de las veces que se ejecutó.
El segundo experimento fue con 20 epochs, obteniendo un resultado de 53.70% de predicción en la clasificación de imágenes, en comparación del experimento anterior se logra notar un ligero aumento en el porcentaje total de predicción, aumentando la eficiencia de la clasificación de imágenes.
El tercer experimento fue con 25 epochs , obteniendo el resultado de 76.99% donde podemos observar claramente el aumento que va obteniendo, ya que usa como valor principal los resultados anteriores.
Como cuarto experimento, se modificó para que trabajara con 30 epochs, obteniendo el resultado de 91.35% de eficacia al predecir la clasificación de una imagen, recordemos que solamente estamos trabajando con 4 capas ocultas sin contar la capa de entrada y la capa de salida.
Se logró apreciar el incremento en la eficiencia del modelo mientras más se iba entrenando, notando la diferencia pasando de un 45.83% a un considerable 91.35% con la ejecución solamente de 4 veces.
Como conclusión final si queremos obtener resultados llegados a la precisión casi exacta se deberá de modificar el modelo para que trabaje con más capas, aumentando el número de parámetros a ejecutarse y así lograr tener una mejor eficiencia en la clasificación de imágenes.
Patiño Ocampo Alejandra, Universidad Católica de Manizales
Asesor:Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla
ECO-CASA Y ECOTECNIAS
ECO-CASA Y ECOTECNIAS
Arias Castellanos Juan Carlos, Universidad de Colima. Patiño Ocampo Alejandra, Universidad Católica de Manizales. Asesor: Dr. Víctor Manuel Martínez López, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En México cada día hay más edificaciones que repercuten en el medio ambiente, siendo el gremio de la construcción uno de los principales factores de impacto en las categorías del suelo, agua y aire, agotando así los recursos naturales y a su vez, reduciendo la calidad de vida de las personas. La propuesta que estipulamos es poder tratar de no dañar el medio ambiente al construir nuestras viviendas, actualmente se tiene un registro por parte del INEGI de 35 219 141 viviendas particulares habitadas en 2020 de las cuales solo 600 000 son consideradas sustentables las cuales han logrado mitigar entre 1-1.5 toneladas de CO2.
METODOLOGÍA
Se hace la investigación de diferentes definiciones de las palabras: bioconstrucción, ecotecnias, permacultura y huertos urbanos, para poder analizar las mejores alternativas para una construcción sustentable.
Como aplicación a estas definiciones se realizan documentos con las ecotecnias: estufa solar, deshidratador solar de alimentos y sistema hidropónico en donde se presentan los instructivos de construcción, ensamble, materiales, costos y gráficos en 3D; esto con el fin de generar recursos para talleres de bioconstrucción en diferentes localidades, dar a conocer y proveer información de diferentes técnicas para el aprovechamiento de recursos humanos por medio de la construcción sustentable, siendo apropiadas para zonas vulnerables y habitantes.
Surge la propuesta de una vivienda sustentable, la cual cuenta con diferentes ecotecnias que permitan realizar un proyecto accesible, económico y flexible. Entre las cuales son, paneles solares, un huerto urbano, sanitario seco, ecoladrillos en la construcción, captación de agua de lluvia y regaderas economizadoras.
Al implementar ecotecnias en la vivienda, esta comienza a tener armonía con el entorno y el medio ambiente, genera beneficios para las personas que la habitan en relación a su calidad de vida y economía, pasa de ser una simple construcción a ser sustentable.
Para llevar a cabo el proyecto que se plantea en la zona de Santa cruz Chica, Xicotepec México, recurrimos a un plan de trabajo y un plan de negocios, con un cronograma de actividades. Las cuales abarcan la descripción general del proyecto, en la cual se recurrió a investigar los problemas o necesidades que se deben afrontar en el proyecto en relación al entorno y a la comunidad, se establecieron los objetivos específicos y establecimos nuestra misión, visión y valores.
Después se continúa con el marco teórico el cual se desarrolló mediante un marco contextual, desde características de la vivienda, problemas ambientales de la urbanización y tendencias de viviendas,
Se involucra en la mercadotecnia del mercado, analizando e identificando el mercado, el consumo, diferentes precios, el comportamiento de los consumidores, por lo que se determina una muestra para poder obtener un pronóstico.
Se desarrolló un estudio técnico, el cual describe aspectos socioeconómicos, institucionales y de infraestructura, el cual se adentra en una macrolocalización y una microlocalización. Se estableció el tamaño y capacidad del proyecto con un programa arquitectónico que pueda responder a las necesidades de habitabilidad e incluso de economía mediante la distribución y diseño de instalaciones, las especificaciones de la obra civil y generales de construcción, para llegar a un costo del terreno donde se plantea el proyecto.
Al tener nocion de el tamaño del proyecto con sus propuestas llegamos a las finanzas del proyecto, realizando presupuestos de obra y del proceso de producción como la materia prima, equipo, instalaciones y proveedores que se necesitarán a lo largo de desarrollar el proyecto de la eco-casa.
CONCLUSIONES
Durante el verano se lograron adquirir nuevos conocimientos y capacidades en relación a los temas de sustentabilidad, nuevas herramientas que se pueden trabajar con comunidades vulnerables para la mejora de su calidad de vida.
La importancia de generar proyectos accesibles para la comunidad, en los que puedan ser partícipes, aprender nuevos oficios, entender cómo funciona una vivienda. El impacto que se tiene en aspectos económicos, que puedan atender sus necesidades y a su vez las del medio ambiente se ven reflejados de una manera positiva en el entorno.
Se debe realizar detalladamente un estudio en el cual se determinen los aspectos del entorno, las ecotecnias, los materiales ( naturales ), el presupuesto, la accesibilidad de los productos en la zona que se desarrollará a cabo el proyecto. Esto con el fin de que pueda darse un adecuado uso de las herramientas, aprovechar al máximo el entorno y tener un acercamiento con el presupuesto de la vivienda
Patiño Vazquez Paula Mariana, Instituto Tecnológico de Piedras Negras
Asesor:Mg. Ernesto Fabio Esmeral Romero, Universidad de la Costa
ESTUDIO DEL IMPACTO DE LAS TIC EN LAS MICROEMPRESAS COLOMBIANAS EN éPOCA DE PANDEMIA
ESTUDIO DEL IMPACTO DE LAS TIC EN LAS MICROEMPRESAS COLOMBIANAS EN éPOCA DE PANDEMIA
Patiño Vazquez Paula Mariana, Instituto Tecnológico de Piedras Negras. Asesor: Mg. Ernesto Fabio Esmeral Romero, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Siendo la tecnología eje fundamental en los procesos de innovación y transformación empresarial, en las Pequeñas y Medianas Empresas (Pymes), es uno de sus principales inhibidores para lograr la innovación es la limitación de la información en relación con ciertos aspectos clave, esenciales para la toma de decisiones y de la cadena de suministros
METODOLOGÍA
Redacción CINTEL 23 de junio 2021- Las empresas colombianas se mantienen estables en su nivel de transformación digital. En el estudio se consideraron 300 empresas en distintos sectores, excluyendo al sector financiero, del ranking de las 5000 empresas más grandes de Colombia según la Revista Dinero. CINTEL desarrolló desde el año 2016 un modelo para medir el nivel de transformación digital de las empresas del sector real, conocido como el Índice de Madurez de Transformación Digital, el cual permite identificar el avance de las compañías en este ámbito, así como sus principales retos, obstáculos y oportunidades para lograr el cambio. El estudio encontró que debido a la coyuntura producto de la pandemia, se aceleró la necesidad de innovar y establecer mecanismos internos y externos que permitieran a las empresas continuar con la operación.
Desde la perspectiva del modelo de medición del nivel de madurez de las empresas en la ruta de la transformación digital de CINTEL, la pandemia impactó en las empresas en Colombia para buscar un avance en la habilitación digital de sus actividades y procesos para lograr una continuidad del negocio, enfocándose en resolver necesidades puntuales y no en ejecutar una visión global y estratégica de transformación digital. La inversión en TI por parte de las empresas se mantuvo estable, con un 7% de empresas que disminuyeron dicha inversión y un 17% que la aumentó. Colombia apuesta por mejorar su productividad a través de la transformación digital para impulsar la recuperación de su economía, que el año pasado se contrajo 6,8% por el impacto de la pandemia, su mayor retroceso desde 1975. «La transformación digital ya no es solo una oportunidad, sino una necesidad», señaló en un seminario web Sebastián Nieto Parra, jefe de la unidad del Centro de Desarrollo de la OCDE para América Latina y el Caribe.
«Hemos visto, también en el caso de Colombia, con un aumento importante en las actividades de comercio electrónico, educación en línea y teletrabajo, que necesitaremos una agenda digital integral», agregó el funcionario de la OCDE en el evento, que estuvo centrado en la recuperación de Colombia a través de medios digitales.
CONCLUSIONES
La investigación de IDC señaló que la gran mayoría de los entrevistados confirmaron que el impacto del coronavirus en el desarrollo empresarial se verá reflejado en los siguientes aspectos: independientemente de la ubicación geográfica, conexiones entre organizaciones, reconfiguración del mercado laboral y mayor flexibilidad en la infraestructura numérica.
Patrón de la Cruz Ledys Daniela, Universidad de la Costa
Asesor:Mg. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios
ANÁLISIS COMPARATIVO DE LA VIVIENDA EN EL MUNICIPIO DE PACHO - CUNDINAMARCA (COLOMBIA) Y TLATLAYA - ESTADO DE MÉXICO (MÉXICO), QUE CONTEMPLE ASPECTOS DE SOSTENIBILIDAD.
ANÁLISIS COMPARATIVO DE LA VIVIENDA EN EL MUNICIPIO DE PACHO - CUNDINAMARCA (COLOMBIA) Y TLATLAYA - ESTADO DE MÉXICO (MÉXICO), QUE CONTEMPLE ASPECTOS DE SOSTENIBILIDAD.
Morales Ramirez Vanessa, Universidad Mexiquense del Bicentenario. Patrón de la Cruz Ledys Daniela, Universidad de la Costa. Asesor: Mg. Constanza Dorey García Puentes, Corporación Universitaria Minuto de Dios
PLANTEAMIENTO DEL PROBLEMA
Según el Censo Nacional de Población y Vivienda 2018, realizado por el Departamento Administrativo Nacional de Estadística (DANE) en Colombia de los 14.060.645 hogares que hay en total, 5.144.445 millones de hogares presentan déficit habitacional o rezago social, estructurales y no estructurales, representando el 36.59% de los hogares colombianos. En México según Instituto Nacional de Estadística y Geografía (INEGI) hay 34.892.977 viviendas de las cuales 8.504.424 tienen déficit habitacional o rezago social, ya sean estructurales o no estructurales lo que significa un 24.4% de las viviendas en ese país. Para el departamento de Cundinamarca el censo de hogares es de 945.601, de los cuales 280.849 deberían mejorar sus condiciones de vivienda, lo que representaría un porcentaje del 29.71% y para el Estado de México con información de INEGI 2020, se conoció que hay 4,481,007 total de viviendas, de las cuales 639.104 deberían mejorar sus condiciones de vivienda representando el 14.3% de viviendas en el estado.
En Pacho-Cundinamarca de 8.856 total de hogares, 44% tienen déficit habitacional o rezago social (DANE, 2018); para Tlatlaya- Estado de México, el total de viviendas particulares habitadas es de 8561 con el cual se estimó el déficit habitacional o rezago social que es igual al 62%. Se observa entonces, que en Tlatlaya- Estado de México las deficiencias en los hogares son mayor que en Pacho-Cundinamarca.
Según investigaciones, existen factores de riesgo que afectan la salud humana en la vivienda, como los materiales inadecuados de construcción, el almacenamiento inadecuado del agua y su consecuente contaminación, entre otros. Hoy en día las zonas rurales se ven cada vez más afectadas por no tener una vivienda digna, desde la falta de seguridad por casas construidas de madera o adobe y lamina que tampoco resistirían algún desastre natural, hasta no tener los servicios necesarios como luz, agua potable y drenaje, de tal manera que los habitantes son más propensos a enfermedades y su calidad de vida se ve afectada por estos factores.
Es por ello la importancia de analizar y comparar el déficit habitacional o rezago social, los sistemas constructivos y criterios de diseños de las viviendas en las comunidades, teniendo en cuenta los principios de sostenibilidad para satisfacer las necesidades actuales y salvaguardar a las generaciones futuras.
METODOLOGÍA
Esta investigación es teórico-descriptiva de tipo documental para lo cual se realizó rastreo, organización, sistematización y análisis de documentos electrónicos sobre la vivienda, déficit habitacional en Colombia y rezago social en México que comprendiera el periodo de tiempo entre 2011 a 2021. Para ello, se realizó el rastreo a través de canales de búsqueda como Google Scholar, Scielo, páginas web DANE, INEGI, CONAVI, CONPES, Redalyc, Gobernación de Cundinamarca, Municipio de Pacho, Municipio de Tlatlaya, Repositorio institucional UAEM. Se logró encontrar documentos importantes como el Censo Nacional de Población y Vivienda en Colombia 2018, rezago social y censo nacional de México 2021, plan de desarrollo Departamental o Estatal y Municipal, artículos en bases de datos especializadas, Política Nacional de Edificaciones sostenibles, tesis de pregrado y posgrado y previas investigaciones que permitieron profundizar más en los temas de interés. La organización consistió en realizar matrices en Excel, en donde se registró la información recopilada, para así hacer el análisis comparativo de la información obtenida de los dos municipios en estudio. Para la sistematización en los criterios de búsqueda se incluyeron las siguientes palabras claves: Vivienda, déficit habitacional o rezago social, sostenible.
CONCLUSIONES
Se espera identificar los aspectos técnicos, sistemas constructivos y materiales de la vivienda de acuerdo con los principios de sostenibilidad, permitiendo establecer u orientar el proceso de diseño y construcción, buscando que la vivienda tenga un menor impacto ambiental asociado y cumpla con las necesidades de la población. En consecuencia, se debe recalcar la importancia los factores culturales y las tradiciones de las familias en la construcción de nuevas viviendas, teniendo en cuenta aspectos sustentables, ya que la finalidad es que los habitantes acepten las transformaciones parciales o totales de sus viviendas.
Finalmente, se hace necesario que las viviendas sean dignas, habitables y seguras, además de que sean sostenibles optimizando así los recursos naturales, así mismo sí estas viviendas cuentan con todo lo necesario, sus habitantes se quedarían en el campo.
Pedraza Quiroga Astrid Katherine, Universidad Antonio Nariño
Asesor:M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DE AGUA POTABLE EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: (VILLAVICENCIO, META – PARACHO, MICHOACáN)
Garcia Rivas Sergio, Instituto Tecnológico de Tapachula. Pascual Pasaye Jorge Alberto, Instituto Tecnológico Superior Purépecha. Pascuales Figueroa Sasha Marcela, Universidad Antonio Nariño. Pedraza Quiroga Astrid Katherine, Universidad Antonio Nariño. Asesor: M.C. José Luis Yión García, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua para consumo humano es un tema de constante preocupación en las personas, debido a los potenciales efectos en la salud. Varios estudios epidemiológicos se han referido a la relación entre la dureza del agua y las enfermedades cardiovasculares e incluso como esta puede ocasionar la formación de piedras en los riñones u otras enfermedades de alto riesgo.
Así mismo, se entiende que la dureza del agua no solo puede generar efectos negativos en la salud del ser humano, pues también puede causar daños en las instalaciones de plomería, e incluso provocar importantes pérdidas de presión en el agua a causa de las incrustaciones de cal, reduciendo el diámetro de la tubería. Los aparatos que transportan este tipo de agua pueden consumir hasta un 60% más de energía calorífica, reduciendo su eficacia en un 12%, generando altos costes en calefacción entre otras consecuencias.
METODOLOGÍA
Para esta investigación cada integrante del equipo seleccionó 5 purificadoras o centros de distribución de agua potable, las cuales se estudiaron por dos semanas obteniendo un total de 25 muestras por purificadora, dichos datos se obtuvieron con un medidor de TDS digital el cual calcula la cantidad de sólidos disueltos por PPM (partes por millón).
Posteriormente, se realizaron los análisis estadísticos para calcular la media y la desviación estándar de cada empresa, seguidamente, se determinó el análisis de la Z (Según valores estandarizados) y con ayuda de la tabla de probabilidad normal, se estableció en qué rango de dureza ofrece cada empresa sus muestras de agua para finalmente realizar una comparacion de los resultados de villavicencio-Meta y Paracho-Michoacán.
CONCLUSIONES
Gracias a los datos obtenidos se logra establecer que, de 10 empresas purificadoras de agua presentes en Villavicencio, 9 ofrecen a sus clientes un agua con Dureza Blanda, identificando asique las empresas cuentan con un proceso muy estandarizado, por lo cual sus 25 muestras de cada empresa no varían significativamente.
Asimismo, la empresa restante de la ciudad de Villavicencio presentó una probabilidad la cual señala que la mayoría de las muestras obtenidas son de nivel de Dureza Dura. Por lo cual este estudio deja abierta la pregunta. ¿ que diferencia se tiene en el proceso de producción de esta empresa en comparación a las demás ubicadas en villavicencio.?
Paralelamente, se encontró que en Paracho la mayoría de las empresas presentan agua semidura y dura. Por lo cual se entiende que los datos no varían significativamente. Sin embargo, al comparar las muestras de esta región con las de Villavicencio si se ve una gran variación, Según lo anterior se genera la duda de que factor es el que determina el nivel de Dureza del agua, mayoritariamente es: el lugar de origen o la forma en que es tratada.
Pedroza Martinez Pedro Rafael, Instituto Tecnológico de Morelia
Asesor:Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
SISTEMA DE DETECCIóN DE OBSTáCULOS PARA UN SISTEMA ROBóTICO DE MANEJO DIFERENCIAL
SISTEMA DE DETECCIóN DE OBSTáCULOS PARA UN SISTEMA ROBóTICO DE MANEJO DIFERENCIAL
Pedroza Martinez Pedro Rafael, Instituto Tecnológico de Morelia. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, existe una gran cantidad de robots capaces de ejecutar diversas tareas con una precisión igual o mejor que el ser humano. Los robots son sistemas capaces de interactuar con cualquier entorno debido a las especificaciones de su diseño y a las capacidades de percibir el ambiente que los rodea. Además, los robots son capaces de procesar grandes cantidades de datos, esto les permite controlar su funcionamiento o realizar una tarea específica.
En el caso de los robots de manejo diferencial (DDR, por sus siglas en inglés) será necesario obtener información de sensado para que el robot pueda desempeñar sus 3 primitivas de movimiento (movimiento en línea recta, rotación en sitio y movimiento en arco de circulo) sin obtener daños ocasionados por colisiones con el entorno.
METODOLOGÍA
Revisión del Estado del Arte y selección del material a utilizar.
En esta etapa se realizó la búsqueda de la literatura relacionada con los sistemas de sensado que se manejan actualmente para la detección de obstáculos en el entorno. Con base en ello, se eligió el material electrónico necesario para construir el sistema de sensado. Para este proyecto se eligió el uso de 5 sensores de medición de distancia con tecnología láser (sensor VL53L0X) y un controlador Arduino XXMODELOXX para la administración de las mediciones.
Instrumentación y Calibración de Sensores de Medición de Distancia. Análisis de la fuente de energía del Robot
En la etapa de instrumentación de los sensores fue necesario trabajar directamente con el protocolo I2C para poder adquirir las señales medidas por los sensores a través del controlador Arduino. Después se realizó la calibración de los sensores para evitar falsas mediciones o mediciones indeseadas, por ejemplo, los sensores laser mandan medición de 0 cm de distancia al no detectar obstáculos en su campo visual, esta medición en el robot implica una colisión, por lo cual, se debe cambiar esta medida de 0 cm a una medida superior del rango de alcance del sensor por software para evitar detectar una falsa colisión.
Para montar este sistema en el robot, fue necesario integrar una serie de baterías LiPo con un circuito regulador de voltaje para proveer 5 VDC a los sensores y al controlador para ejecutar su correcto funcionamiento.
Diseño de una estructura para el montaje del arreglo de sensores para la detección de obstáculos en el entorno.
El conjunto de sensores se montó en una estructura de PVC la cual fue colocada en el robot y así proveer información de distancia con respecto a los obstáculos. Los sensores se colocaron al frente y a los lados para poder detectar las paredes de forma vertical en cualquier momento, estos al tener apertura de 25° podrían cubrir gran parte de la estructura pero al solo integrar 5 sensores los otro dos se tuvieron que colocar a 45° teniendo específicamente puntos ciegos de 12.5° a 32.5° y en 57.5° a 77.5°. Para evitar que las mediciones de los sensores sean afectadas por el movimiento del robot, fue necesario fijar los sensores en la estructura base con tornillos milimétricos M4.
Modelo del Sensado
Se hizo un análisis de como utilizar la información de sensado para evitar colisiones, para ello se definieron zonas de seguridad modeladas como círculos. Existen tres zonas, la primera consiste en un círculo que cubre todas las dimensiones del robot y está centrada en el punto central de la posición de los sensores cuyo radio será llamado Rr. La segunda zona de seguridad consiste en un circulo concéntrico con el circulo de radio Rr pero con un radio mayor a este, el cual llamaremos radio Rs, este circulo de seguridad esta diseñado de manera que se evitará que cualquier obstáculo traspase Rs y así evitar colisiones. Se define una tercera zona de seguridad, concéntrica con los círculos de radios Rr y Rs, con un radio mayor a Rs, el cual llamaremos Rd, este circulo nos define a partir de cuando debemos de ejecutar una estrategia de evasión o de desaceleración con respecto al obstáculo.
Implementar el algoritmo de evasión de obstáculos en el robot de manejo diferencial
Una vez que el modelo de sensado fue definido, se procedió a realizar estrategias de evasión de obstáculos. Esto es, tomar decisiones sobre que primitiva de movimiento se debe de ejecutar cuando el robot se tope con un obstáculo dentro del radio Rd hasta llegar al radio Rs sin traspasarlo. Una estrategia sencilla de implementar es que cuando el robot detecte un obstáculo dentro del radio Rs en su desplazamiento en línea recta, proceder a detenerse, rotar en sitio 135 grados y volver a moverse en línea recta hasta detectar de nuevo un obstáculo y repetir este proceso. También se implementó un control de desaceleración mediante un control proporcional sobre el error en las mediciones obtenidas, de esta manera el robot comienza a desacelerar desde su velocidad actual al detectar un obstáculo dentro del radio Rd hasta detenerse cuando la medición del sensor es menor o igual al radio Rs.
Pruebas de Validación del Sistema.
Se ejecutó una serie de pruebas que para validar la correcta detección de obstáculos y las estrategias de evasión de obstáculos en diversos entornos poligonales. Las pruebas fueron grabadas.
CONCLUSIONES
Se diseño un sistema de 5 sensores con un controlador Arduino para que un robot de manejo diferencial pueda detectar obstáculos en el entorno. Con esta información es posible implementar controles basados en retroalimentación para que el robot sea capaz de interactuar con el entorno.
Se implementó una estrategia de evasión de obstáculos basada en la programación de simples condiciones. También se implementó un control retroalimentado para desacelerar el robot hasta detenerse cuando detecta un obstáculo entre las zonas de seguridad de radio Rd y Rs. Las pruebas realizadas validan el funcionamiento del sistema de sensado.Una manera de evitar los puntos ciegos en el sistema de sensado es integrar una estructura móvil que permita rotar la base de los sensores para poder obtener las mediciones en dichos puntos ciegos.
Peña Durán Sergio, Universidad de Guadalajara
Asesor:Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
DESARROLLO DE UNA HERRAMIENTA PARA EL REGISTRO DE ASISTENTE A EVENTOS
Aranda Gonzalez Gabriel, Universidad de Guadalajara. Nuñez Lopez Jhon Jairo Adrian, Universidad Simón Bolivar. Peña Durán Sergio, Universidad de Guadalajara. Asesor: Dr. Miguel Lizcano Sánchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
A raíz de la pandemia del COVID-19, la gran mayoría de personas tuvo que iniciar un aislamiento voluntario para evitar contagiarse, en consecuencia, la formación y capacitación académica en línea adquiere un importante papel en la vida cotidiana, en respuesta a esta necesidad surgen cursos, tutoriales, boot camps, webinars, conversatorios virtuales, tal fue la respuesta que en cuestión de meses más allá de generar una gran aceptación, los usuarios se encuentran molestos dado la falta de administración y segmentación correcta de estos.
METODOLOGÍA
Mediante la división de labores en dos ejes (técnicos y mercadológicos), se inició el planteamiento para el desarrollo de la aplicación web, mediante el uso de diagramas UML, de maquetó la base de datos junto con los métodos que involucran cada tabla. La base de datos fue optimizada a tercera forma normal para facilitar las consultas. Aunado a esto se elaboraron diagramas de casos de uso y de estados del sistema.
Se realizó una comparativa entre las diferentes alternativas de sistemas administradores de eventos para poder encontrar un diferenciador y conocer las tendencias que siguen este tipo de sistemas.
CONCLUSIONES
Se espera desarrollar una aplicación web con todas las características definidas en la investigación utilizando el MVC (modelo vista controlador) con los frameworks Bootstrap (CSS) y Laravel (PHP y MySQL). Las pruebas de deploy en un servidor de Heroku. Se tiene previsto tener la primera versión funcional antes del fin del año en curso.
Peña Mendoza Oscar Jesus, Instituto Politécnico Nacional
Asesor:Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales
ANáLISIS DE LA CONECTIVIDAD FUNCIONAL EN REGISTROS DE EEG DE PERSONAS REALIZANDO TAREAS MOTORAS E IMAGINARIAS.
ANáLISIS DE LA CONECTIVIDAD FUNCIONAL EN REGISTROS DE EEG DE PERSONAS REALIZANDO TAREAS MOTORAS E IMAGINARIAS.
Peña Mendoza Oscar Jesus, Instituto Politécnico Nacional. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
De acuerdo con el Instituto Nacional de Estadística y Geografía (INEGI), en 2018, 6% de la población mexicana (aproximadamente 7.1 millones de personas) manifestó tener algún tipo de discapacidad [1], Es importante concentrar más esfuerzos en el desarrollo de tecnologías para mejorar la seguridad y la salud. La BrainComputer Interface (BCI) es una oportunidad para las personas que han perdido parcial o completamente su capacidad para interactuar con su entorno debido a un accidente o enfermedad como la Esclerosis Lateral Amiotrófica (ELA). Este tipo de enfermedades afectan la calidad de vida de las personas privándolas de su rendimiento deportivo. Gracias a BCI, quienes dependen de terceros para actividades como moverse por la casa pueden encontrar algo de autonomía, lo que puede mejorar su calidad de vida.
METODOLOGÍA
Se utilizó una base de datos que consta de 1500 registros de 109 voluntarios. Los sujetos realizaron diferentes tareas motoras mientras eran sometidos a estímulos visuales. Cada sujeto realizó 14 carreras experimentales, dos carreras iniciales de un minuto cada una (una con los ojos abiertos y otra con los ojos cerrados, sin actividad física) y tres carreras de cada una de las cuatro tareas siguientes con una duración de dos minutos.
Tarea 1. Aparece un objeto en el lado izquierdo o derecho de la pantalla, el sujeto abre y cierra el puño correspondiente hasta que el objeto desaparece.
Tarea 2. Aparece un objeto en el lado izquierdo o derecho de la pantalla, el sujeto imagina que abre y cierra el puño correspondiente hasta que el objeto desaparece.
Tarea 3. Aparece un objeto en la parte superior o inferior de la pantalla, el sujeto abre y cierra ambos puños si el objeto está en la parte superior o los dos pies si el objeto está en la parte inferior hasta que el objeto desaparece.
Tarea 4. Aparece un objeto en la parte superior o inferior de la pantalla, el sujeto imagina que abre y cierra ambos puños si el objeto está en la parte superior o los dos pies si el objeto está en la parte inferior hasta que el objeto desaparece.
El registro fue realizado mediante sesenta y cuatro electrodos, siguiendo el sistema internacional 10-10 para la distribución de estos.
Preprocesamiento: Se removió el ruido electromagnético aplicando un filtro pasa bandas de 1 a 30 Hz, debido a que ese es el rango de frecuencias que se encuentran en el cerebro, frecuencias fuera de ese rango se considera ruido.
Para remover el ruido ocular se utilizó el análisis de componentes independientes (ICA- por sus siglas en inglés) la cuál es una técnica para estimar señales fuente independiente a partir de un conjunto de grabaciones en las que las señales fuente se mezclaron en proporciones desconocidas.
Posterior al filtrado ocular se separa la señal en bandas de frecuencia aplicando filtros pasa banda, las bandas fueron las siguientes:
Delta (1 a 4Hz)
Theta (4 a 8Hz)
Alfa (8 a 14 Hz)
Beta (14 a 30 Hz)
Una vez separadas las bandas se eligen las bandas que están relacionadas fisiológicamente con la tarea realizada, por lo tanto, se selecciona la banda alfa y beta. Estas bandas se encuentran relacionadas con la tranquilidad y la actividad en estado de vigilia respectivamente.
Antes de realizar el análisis de la conectividad se obtiene una cartografía cerebral de las bandas, obtenidas mediante un ventaneo de treinta segundos de las grabaciones que duran dos minutos.
CONCLUSIONES
Durante la estancia se adquirieron conocimientos teóricos sobre neurociencia, para poder llevar acabo un análisis de la conectividad funcional por el método de correlación con el fin de identificar las áreas del cerebro que se ven involucradas en el proceso motriz e imaginario y determinar si existe relación, sin embargo al ser un trabajo extenso y de presentar problemas en el torno de programación Python donde se llevaba a cabo la parte práctica, no se pueden mostrar los resultados obtenidos. Se espera que las zonas con mayor actividad en las bandas alfa y beta sean el lóbulo prefrontal, la zona del cortex motor, así como la parte occipital encargada del procesamiento de la visión.
Penagos Martinez Paola Alejandra, Instituto Tecnológico de Comitán
Asesor:Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
IMPORTANCIA DE LAS HERRAMIENTAS TECNOLóGICAS EN LA CADENA DE SUMINISTRO DE LAS MIPYMES DE MéXICO
IMPORTANCIA DE LAS HERRAMIENTAS TECNOLóGICAS EN LA CADENA DE SUMINISTRO DE LAS MIPYMES DE MéXICO
Penagos Martinez Paola Alejandra, Instituto Tecnológico de Comitán. Asesor: Mg. Jonathan Adie Villafañe, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
La falta de herramientas tecnológicas tiene un efecto sobre el desempeño de la cadena de suministro y por lo general, a menos tecnología implementada en las Mipymes se generan peores rendimientos. Así mismo, la mala gestión de estas, puede dar lugar a un aumento en la incertidumbre, riesgos y costes innecesarios.
La cadena de suministro al operar en un ambiente globalizado y altamente cambiante, y por la complejidad de los procesos y actividades que implica, necesita de información oportuna y de calidad, la cual obtiene mediante la implementación de las TICs que gracias a su rápido desarrollo y aplicabilidad en los procesos logísticos ayudan al tratamiento y análisis de la información. (Correa Espinal & Gómez Montoya, 2008)
Actualmente es conocida la importancia que tienen las Tecnologías de Información y Comunicación (TICs) y el uso que se hace de ellas en todas las organizaciones, independientemente de que sean estas micro y pequeñas empresas. Esto trasciende en la medida en que las organizaciones, por su tamaño, giro y sector, son capaces de incorporarlas a su estrategia competitiva.
Por tal motivo es necesario realizar una investigación que permita realizar un análisis para conocer que herramientas tecnológicas aplican o pueden aplicar las micro y pequeñas empresas (Mipymes). Para resolver el ¿Por qué es importante el uso de herramientas tecnológicas dentro de las Mipymes?
METODOLOGÍA
Se elaboro la fase de planeación; con el fin de definir la propuesta de investigación seleccionando así, la importancia de las herramientas tecnológicas para las cadenas de suministro de las Mipymes de México. También, se definió el alcance de la investigación en base a la información consultada de fuentes de datos confiables, por lo que el enfoque se determinó hacia la identificación de aquellas herramientas tecnológicas y los beneficios que obtienen las empresas al aplicarlas en su cadena de suministro. De igual forma, se realizó la recolección de datos referente al tema y alcance seleccionado, los cuales fueron estudiados mediante la etapa de análisis de la información.
Referente a la logística de entrada o de aprovisionamiento, las TICs identificadas fueron:
EDI (Electronic Data Interchange)
E-PROCUREMENT
VMI (Vendor Managed Inventory) /CRP (Continuos Replenishment Program)
Referente a logística interna o de fabricación, las TICs identificadas fueron:
WMS (Warehouse Management System)
ERP (Enterprise Resource Planning)
CODIGOS DE BARRAS
RFID (Radio Frequency Identification)
PICK TO LIGHT Y PICK TO VOICE
MRP I y MRP II
Referente a la logística de salida o distribución, las TICs identificadas fueron:
TMS (Transportation Management System)
CRM (Consumer Relationship Management)
ECR (Efficient Consumer Response)
EPC (Electronic Product Code)
GPS (Global Position System)
Debido a la falta de recursos, conocimientos y falta de cultura respecto a la adopción de nuevas herramientas tecnológicas para mejorar los procesos involucrados en las cadenas de suministro y a que las tecnologías que se llegan a desarrollar no son accesibles económicamente para las Mipymes, estas no pueden explotar su potencial y con ello la productividad se convierte en la condición vital para su competitividad.
Aunque como lo señalan (Ríos , Toledi, Campos, & Alejos , 2009),las TICs tal cual no proporcionan ventajas competitivas. Se puede realizar una inversión en las TIC más avanzadas y no aprovecharlas para posicionarse estratégicamente u obtener eficiencia operativa. Es por ello que las Mipymes necesitan emplear sus recursos de forma estratégica acorde a sus objetivos empresariales, para de esta forma integrar aquellas tecnologías que aporten un valor agregado a sus operaciones.
Por último, los resultados del presente consistieron en conocer y analizar aquellas herramientas tecnológicas que están a disposición de las Mipymes de Mexico, conociendo también los beneficios que las empresas obtienen con su implementación en cada control que involucra a la cadena de suministro.
CONCLUSIONES
Se logró obtener conocimientos teóricos a través de la obtención del estado del arte respecto al tema de herramientas tecnológicas que están disponibles para la cadena de suministro de las Mipymes y los beneficios al implementarlas. La integración de herramientas tecnológicas a las cadenas de suministro de las Mipymes es de importancia para ser competitivas como otras empresas en el mercado, llegando aprovechar las oportunidades que grandes empresas tienen gracias a su estructura tecnológica. A pesar de los beneficios que obtienen las empresas que las aplican, antes de implementar cualquier herramienta tecnológica a su alcance, necesita orientar esfuerzos en sus objetivos empresariales para así invertir en aquellas herramientas que generen valor a sus productos o servicios, y que se acomoden a cada etapa de su cadena de suministro y de esta forma contribuir a la reducción de costos, mejora en el flujo de información y sincronización de procesos.
Peralta Minquiz Itzel Adaly, Instituto Tecnológico Superior de Las Choapas
Asesor:Dra. Teresita de Jesus Ariza Ortega, Universidad Politécnica del Valle de México
ANALISIS FITOQUIMICO DE LA CASCARILLA DE CACAO (THEOBROMA CACAO).
ANALISIS FITOQUIMICO DE LA CASCARILLA DE CACAO (THEOBROMA CACAO).
Peralta Minquiz Itzel Adaly, Instituto Tecnológico Superior de Las Choapas. Asesor: Dra. Teresita de Jesus Ariza Ortega, Universidad Politécnica del Valle de México
PLANTEAMIENTO DEL PROBLEMA
En la Industria y la elaboración de productos a base del cacao y sus derivados, después de un proceso de secado, fermentado y tostado de las semillas del fruto, se genera un residuo denominado cascarilla. Los residuos agroindustriales son productos secundarios obtenidos al procesar cereales, frutas y verduras (Nigam & Pandey, 2009), y estos se componen de semillas y piel de frutas, verduras que son desechados por desconocimiento o poca valoración de estos (Ayala-Zavala, Gonzalez-Aguilar, & Siddiqui, 2018). La Industria Alimentaria es uno de los principales sectores que genera desperdicios orgánicos caracterizados por estar disponibles de forma más o menos permanente en el trópico, o bajo costo, uno de los usos generalizados que se les da a estos desechos es el aprovechamiento para fertilizar el suelo también conocido como compostas la cual está compuesta de desechos orgánicos, no obstante el aprovechamiento de subproductos que se obtienen de los desperdicios en la Industria Alimentaria es un potencial de oportunidades con múltiples usos.
METODOLOGÍA
Se recolectaron muestras de cascarilla de Cacao, en una Industria de Chocolates, ubicadas en el estado de Tabasco, estas muestras son el desecho del proceso de el chocolate, la cual tiene dos variantes, la revision taxonomica se realizó en el Insituto Tecnologico Superior de las Choapas, ITSHC.
Despues de la recolección , el desecho se seco a temperatura ambiente.El material se peso y se dejo orear en una zona limpia y en la sombra , para que comenzara a perder humedad, este proceso se realizó a una temperatura entre 30 y 40 °C, con una humedad relativa entre 95 y 90 % y con tiempo de 2 a 3 dias. Continuando con el proceso se realizó la trituración en un molino de cuchillos hasta obtener un polvo fino, al obtenrlo se guardo en una frasco de vidrio para posteriormente realizar el examen fitoquimico.
Reacciones obtenidas
Reaccción de Shinoda: Positivo a aurona y chalconas.
Reacción NaOH : Positivo a Flavonoles
Reacción Feheling: Negativo a azucares reductores
Reacción de Benedict: Positivo a azucares reductores
Saponinas: Positivo a estabilidad espumosa
Reacción de Liberman Bouchard : Positiva a saponinas triterpenoides.
CONCLUSIONES
El presente estudio fitoquímico sirve de base para estudios posteriores que deseen verificar los efectos de la planta en otros tipos de ensayos y para corroborar la toxicidad de este y determinar si esta no presenta efectos citotóxicos que pudieran ser de alto riesgo para quienes lo consumen. El extracto etanolico de la planta presentaba resistencia a la evaporación, pues a comparación de otros extractos expuestos a las mismas condiciones de temperatura y cantidad de extracto, esta tardaba el doble de tiempo en secarse, para realizar el examen fitoquímico.
Referencias Bibliograficas
Ibarra, E. E., Pacheco S. M., García M. S., San Miguel C. R., Ramírez V.G.y Soto H.M, (2009) Actividad antimicótica in vitro de erisovina. Revista fitotecnia mexicana, vol.32, no.4, p.327-330.
Ibarra, E. E., Pacheco S. M., García M. S., San Miguel C. R., Ramírez V.G.y Soto H.M, (2018) Actividad antioxidante de alcaloides
Pérez Alejandre Maximiliano, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla
PATRIMONIO CULTURAL MEXICANO: IMPACTO Y DAñOS POR SISMOS
PATRIMONIO CULTURAL MEXICANO: IMPACTO Y DAñOS POR SISMOS
Pérez Alejandre Maximiliano, Universidad Michoacana de San Nicolás de Hidalgo. Zepeda Jiménez Cynthia Elizabeth, Universidad de Guadalajara. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Se define como Patrimonio Cultural al conjunto de bienes que constituyen la identidad de un espacio, una cultura y una época por medio de un elemento edificado, esto quiere decir que todo edificio arquitectónico que pueda contar una historia por medio de sus componentes internos y externos que nos hacen ubican en un espacio y tiempo lo llamamos Patrimonio Cultural.
La cantidad de edificaciones Patrimoniales que existen actualmente en el país son incontables, ya que podemos encontrar aún las que datan de la época antes de la conquista (patrimonio arqueológico), hasta lo más actual perteneciente al siglo XX (patrimonio artístico), podemos destacar que cada una de las edificaciones fue construida de una manera distinta. Por ello destacamos que mientras pasaba el tiempo, surgieron actualizaciones respecto las construcciones y lo que las caracterizaban, no obstante eventos naturales y desastres ambientales han obligado al entorno a tomar medidas drásticas en la forma de construir.
Nuestro país se encuentra rodeado de una gran cantidad de placas tectónicas, esto quiere decir que estamos expuestas a cualquier movimiento agresivo que pudiera surgir de ellas y ocasionar sismos de gran magnitud como lo fue el sismo del 15 de junio de 1999 en Tehuacán, Puebla y el sismo del 16 de septiembre del 2018 en la Costa de Oaxaca que causaron pérdidas de vidas humanas y gran cantidad de pérdidas patrimoniales. Es importante conocer los daños que causan los sismos dentro de una edificación patrimonial, ya que específicamente son edificaciones que cuentan con muchos años de pie, por lo que son más delicadas y tienen un trato especial respecto a las demás, muchas de ellas a causa de estos eventos sufres daños severos, por lo que son estudiadas y finalmente procede a su derribo y otras tantas logran ser estudiadas y logran dar un resultados positivos para su reconstrucción, no obstante no es el único motivo por el que las distintas edificaciones patrimoniales pueden sufrir daños, muchas otras veces con el tiempo suelen enfermar y dañar su estructura interna.
METODOLOGÍA
Para llevar a cabo el proceso de investigación propuesta, se plantea la siguiente metodología:
Recolección y recapitulación de fuentes bibliográficas en línea (de ser posible si permite la situación sanitaria, colectar literatura física) respecto a los sismos ocurridos durante el 2017 en las distintas regiones del país, estructuras dañadas, patologías, pruebas para la detección de daños, entre otros.
Prospección y primer acercamiento de los tópicos tratados, revisión de los edificios, daños, evaluaciones y pruebas ejercidas ante ellos.
Contraste, complementación de la información recabada.
Capturar - condensar los datos obtenidos bajo la revisión de la bibliografía, elaboración de síntesis y catálogos de daños.
Elaboración de conclusiones por medio de la reflexión generada a partir de los temas observados.
CONCLUSIONES
Bajo los trabajos anteriormente descritos, se pretende la obtención de los siguientes puntos:
Dimensionar el grado de potencia de los distintos sismos ocurridos en la última década, a nivel nacional, respecto al patrimonio histórico cultural.
Generar comparativas de los distintos daños encontrados en templos, para establecer sus relaciones en los tipos de fallas, materialidad y sistemas constructivos.
Comprender los mecanismos de laboratorio para determinar las patologías presentes en el patrimonio cultural edificado, valorar su pertinencia dependiendo del grado de destrucción que puedan ocasionar.
Relacionar los trabajos de intervención estructural con los distintos ejemplos de daños, para garantizar la estabilidad de edificaciones con valor patrimonial.
Plantear un acercamiento a la metodología de intervención, contemplando un esquema general de prospección, investigación, consolidación y posterior restauración con un ejemplo teórico.
Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT DE 2GDL MEDIANTE LA IMPLEMENTACIóN DEL OBSERVADOR DE NICOSIA Y CONTROL ADAPTATIVO
SIMULACIóN DEL COMPORTAMIENTO DE UN ROBOT DE 2GDL MEDIANTE LA IMPLEMENTACIóN DEL OBSERVADOR DE NICOSIA Y CONTROL ADAPTATIVO
Flores Islas Daniela Ingrid, Benemérita Universidad Autónoma de Puebla. Pérez Blanco Vazni, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Sanchez Sanchez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Actualmente ha aumentado el número de aplicaciones que se le pueden dar a los robots manipuladores y muchas de ellas no solo se usan en el área industrial, sino que también se han empleado en el ámbito académico e incluso en el médico. Una de las grandes desventajas de estos dispositivos es el precio, ya que mientras más características tenga, se pueden volver menos accesibles para muchos sectores como el de los estudiantes.
Por esta razón es que el presente trabajo busca analizar y desarrollar la simulación de un robot manipulador que funcione de manera eficiente, que sea reproducible y de bajo costo, lo cual se pretende lograr mediante la aplicación de un modelo Dinámico el cual está basado en la teoría de estabilidad de Lyapunov.
Al estudiar a fondo el diseño y modelo de la edición del 2020 de este programa de investigación se logró detectar que no había tanta precisión en el resultado, esto debido a problemas en las ganancias del derivador e integrador, por lo que se buscó un método que no tuviera tales limitaciones.
En el presente trabajo se implementará el Observador de Nicosia en el sistema de Control-Planta (Robot 2GDL) mediante la simulación correspondiente en MATLAB/SIMULINK, y finalmente se aplicará Control Adaptativo al nuevo sistema generado.
METODOLOGÍA
Para la implementación del Observador de Nicosia y el Control Adaptativo se siguieron los siguientes pasos:
1. Modelado del sistema de referencia garantizando que siga la trayectoria deseada.
2. A través del Control Adaptable la Planta debe seguir al modelo.
MODELO DINÁMICO DEL SISTEMA
Para este ejercicio se consideró la estructura y sistema de un robot cartesiano de 2GDL, el cual está propuesto en el Apéndice B del libro Control de movimiento de robots manipuladores, del Dr. R. Kelly y del Dr. V. Santibáñez.
Para poder generar el comportamiento del brazo robot se implementaron los parámetros establecidos y la representación matricial como funciones para entablar comunicación con MATLAB/SIMULINK, donde se consideraron los siguientes elementos:
• Vector de coordenadas generalizadas articulares,
• Matriz de inercia, la cual es simétrica y positiva,
• Vector de Coriolis y fuerza centrípeta,
• Par gravitacional,
• Vector de pares que actúan en las articulaciones.
Para el bloque de CONTROL se empleó un Control PD con compensación de gravedad, en el cual se usaron los siguientes componentes:
• Error de posición,
• Posición deseada, la cual es suave y acotada,
• Ganancia proporcional,
• Ganancia derivativa.
Se crearon dos bloques más: la TRAYECTORIA, el cual describe la trayectoria deseada, la cual en este caso es un cardioide y la PLANTA, el cual contiene la descripción de un diseño sencillo de la estructura de un robot manipulador de 2 Grados de Libertad.
OBSERVADOR DE NICOSIA
Una vez que se comprobó el correcto funcionamiento del sistema, se procedió a implementar el Observador de Nicosia, el cual fue desarrollado con la variable de estado que corresponde a la aceleración.
Para describir el modelo del observador se emplearon los siguientes componentes:
• Coordenadas generalizadas de la posición y la velocidad,
• Ganancias del observador (proporcional y derivativa),
• Constante positiva Épsilon,
• Posición articular.
Después se procedió a corroborar el correcto funcionamiento del observador en conjunto con el modelo del robot, mediante la observación del error, pues este debe ser cero, ya que este valor se traduce en que las trayectorias del modelo y de la planta son iguales.
Es importante destacar que si existe algún retraso en la señal se deben modificar las ganancias hasta que esta siga correctamente a la señal de posición y velocidad, lo cual se puede corroborar visualizando el comportamiento del transitorio, y no rebasando los límites del par aplicado, así como asegurar que la señal observable/diferenciable sea idéntica a la salida, que en este caso corresponde a la posición.
CONTROL ADAPTATIVO
A partir de la Dinámica del Error se procede a usar la función de Lyapunov con el fin de cumplir con los criterios de estabilidad de Lyapunov.
Después de cumplir con las condiciones ya mencionadas, se obtiene una estructura de Control Adaptable de la forma Cr + Dx, en donde Cr es la señal de referencia que proviene de la estructura de control PD que alimenta al modelo, y el termino Dx es la lectura de la posición real o estado en todo momento.
Esta estructura de control adaptable obtenida es simple o ideal por lo que no tiene ganancias, sin embargo, sí compensa el sistema como se requiere.
Se procede a realizar las conexiones del sistema, por lo que se enlaza el bloque de Control con la Planta y el Control del modelo, con lo que se logra que la Planta siga al Modelo y se reafirma que el modelo sigue a la posición deseada.
Es fundamental tener en cuenta que el Control Adaptativo es capaz de forzar el funcionamiento de la Planta del sistema, incluso aun cuando se sobrepasan los valores establecidos, por lo tanto, se enfatiza la importancia de revisar el valor del error, así como tener pleno conocimiento de las limitaciones del modelo físico.
CONCLUSIONES
Los resultados de las simulaciones del mecanismo con los métodos ya descritos arrojaron respuestas satisfactorias, ya que la trayectoria está dentro de los parámetros establecidos, con lo que se observa que se logró el objetivo de implementar un Observador de Nicosia y Control Adaptativo a un modelo ya propuesto de un Robot Manipulador de 2 GDL, con el cual se visualizó y mejoró su funcionamiento.
Teniendo en consideración lo anterior, se visualizó que gracias al observador que se implementó se puede seguir al sistema, obteniendo no solo la trayectoria deseada, sino que también se generó una mejor estructura de control.
Perez Cruz Nicolas, Universidad de Ibagué
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
ROBóTICA EDUCATIVA: BASTóN INTELIGENTE Y UN ENFOQUE EDUCATIVO DE LA ROBóTICA.
ROBóTICA EDUCATIVA: BASTóN INTELIGENTE Y UN ENFOQUE EDUCATIVO DE LA ROBóTICA.
Perez Cruz Nicolas, Universidad de Ibagué. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Titulo:
Robótica Educativa: Bastón inteligente Y un enfoque educativo de la robótica.
Asesores: Mc. Juan Carlos Ojeda Alarcón Universidad Autónoma de Occidente de México.
Estudiante: Nicolás Orlando Pérez Cruz, Universidad de Ibagué de Colombia
PLANTEAMIENTO DEL PROBLEMA
Durante mi correspondiente estancia académica se pudo desarrollar competencias por medio de diversos proyectos donde los ingenieros Juan Ojeda Alarcón y Ángel González Navarrete nos brindaron las herramientas necesarias, y cursos externos como lo que fue el manejo de tinkercad, durante todo el proceso se desarrolló de dos sesiones por semana, además del grupo de WhatsApp para poder solventar las diversas necesidades y preguntas que surjan, además de que se desarrollaron diversos prototipos con el fin de desarrollar todas las habilidades necesarias para la elaboración del proyecto final.
Ahora como joven que se preocupa por el mejoramiento constante de las vidas de los cuídanos planteo como problemática ¿Cómo hacer que la vida de las personas ciegas obtenga mayor independencia para poder transitar por las calles de la ciudad, al desarrollar un sistema inteligente dentro de un bastón, para contribuir a las necesidades que una persona ciega enfrenta en su vida cotidiana? Por lo tanto debido a esto se pueden presentar la creación de un modelo funcional de un bastón inteligente, que sea adecuado para la movilización y orientación de forma autónoma. Esto con el fin de mejorar la calidad de vida de las personas con discapacidad visual y de tal manera generar un factor de cambio que pueda beneficiar a las diversas personas, ya como parte personal se quiere implementar para que la gran mayoría de las personas puedan acceder al prototipo ya que los proyectos más avanzados de una manera más costosa por lo que no es fácilmente de contar con él, por consiguiente se desea que cualquier persona pueda utilizarlo y sea de manera pública para lo antes mencionado.
Además de eso se desarrollo un modulo educativo para enseñar a los jóvenes a programar por medio de robots donde se trata de mostrar a los diversos jóvenes estudiantes de colegio como de semestres avanzados con carreras afines a la informática, lo que se busca es mostrar a los chicos que el código y los programas que están haciendo se pueden observar el funcionamiento de lo que están haciendo, además de aplicar los principios de física y cálculos planteados en el colegio previamente ya que actualmente se ha mostrado que no existe un gran avance en los sistemas educativos por lo que es una crisis a nivel mundial, ya que hoy en día el pensamiento creativo es una necesidad por lo que se busca el constante mejoramiento de las cosas por lo que se debe generar el cambio antes mencionado.
METODOLOGÍA
Se dasorrolo los dos modulos como se mostrara a continuaciòn:
Bastón inteligente
Para la elaboración del bastón se necesita los siguientes materiales:
Arduino uno
Buzzer
Sensor de distancia (HC - SR04)
Leds
Resistencias
Cables
Madera refinada
Tapones de caucho
Con esto se puede proceder a realizar el correspondiente montaje del prototipo, para esto se tuvo que realizar un model en la madera para construir el cuerpo del bastón, buscando un factor de comodidad y utilidad para los usuarios, una vez terminado se procede a colocar un tapón de caucho en la parte inferior para que a la hora de realizar el movimiento sea mucho más cómodo. Ahora se procede hacer un hueco en la parte intermedia del cuerpo para poder colocar el circuito.
Para hacer el montaje del circuito se guía por medio de la herramienta tinkercad para poder hacer las pruebas necesarias del funcionamiento y generar un modelo mucho más preciso que hacer las pruebas manualmente
Una vez finalizado el montaje del prototipo anterior se procede a introducir las siguientes líneas de código en el Arduino para el funcionamiento de los sensores.
Con el correspondiente código que se maneja en arduino se permite detectar si un objeto está a menos de 20 cm para evitar que cualquier obstáculo que pueda existir durante el transcurso del camino que recorra el usuario, una vez finalizado se procede a juntar las partes electrónicas y el molde de madera para finalizar el bastón.
Modulo educativo
Se desea que durante el transcurso del modulo se le pueda enseñar a los diversos estudiantes las siguientes temáticas:
Análisis de problemáticas mediante la comprensión lectora
Diferencia entre clase y objeto
Instrucciones condicionales simples
Estructuras contenedoras tamaño fijo y variable
Instrucciones iterativas
Elaboración de un robot
Todos los temas estarán estrechamente enlazados con la robótica ya que se utilizarán para implementar los conocimientos, y análisis donde se busca entender las necesidades que surjan durante el desarrollo de un proyecto donde se tienen que especificar toda la información que se tenga y además poder generar las competencias para detallar las características que tendrá la solución usando algún lenguaje (planos, dibujos, ecuaciones, diagramas, texto, …) para poder implementar un programa que permita mover el robot en nuestro caso.
Además de que, mediante un prototipo de robot, se le dirá a los estudiantes que tendrán que sacar diversas características que tiene el robot y que funciones puede realizar, como también con diversos tipos de vehículos y demás proyectos, por lo tanto se le implementaran los enlaces de la física y matemática básica para mostrar cómo se diseñara un movimiento y recolección de la información para que el robot puede moverse en los diferentes ejes, por lo que es más fácil de juntar estos dos mecanismo.
CONCLUSIONES
Durante la estancia del verano pude comprender muchas temáticas diferentes con el fin de mejorar los conocimientos, no obstante, todo lo comprendido fue muy bueno, y me gusto como se manejó la metodología del curso, además que con los presentes conocimientos se me permitió generar un prototipo con el fin de ayudar a las demás personas, mostrando lo valioso que es implementar todas las temáticas con un fin social y colectivo.
Perez Davila Jose Francisco, Universidad Veracruzana
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
INTEGRACIóN DE UN ESTUDIO DE CONTROL DENTRO DE LA CUENCA LA ANTIGUA
INTEGRACIóN DE UN ESTUDIO DE CONTROL DENTRO DE LA CUENCA LA ANTIGUA
Perez Davila Jose Francisco, Universidad Veracruzana. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
A lo largo de los años se ha recopilado información sustancialmente importante de las cuencas de toda la República Mexicana, relacionada a cambios de temperatura, evaporación y precipitación solo por mencionar algunas variables. Muchas veces dicha información solo es recolectada y almacenada, pero no analizada ni interpretada.
La cuenca La Antigua juega un papel importante para el estado de Veracruz, ya que es fuente principal de actividades económicas como la agricultura y la ganadería, actividades estrictamente relacionadas con el aprovechamiento de los recursos hídricos de la cuenca.
Por ello, entre los objetivos principales se tienen: la recolección de información oficial histórica de una de las cuencas de México, para la determinación de regiones homogéneas y generación de gráficas de las variables climatológicas históricas, así como el análisis de los efectos provocados por una tormenta seleccionada en dicha cuenca.
METODOLOGÍA
Se usó el software Google Earth Pro (7.33) y las cuencas de la base de datos del Servicio Meteorológico Nacional (SMN) y la Comisión Nacional del Agua (CONAGUA) para la delimitación de la cuenca La Antigua, así como la localización de cada una de las estaciones dentro de la misma.
La Antigua se localiza en los estados de Veracruz y Puebla. Es del tipo exorreica y cuenta con un área de drenado de aproximadamente 2,200 km2. Está localizada en la Región No. 28 conocida como Papaloapan.
Posteriormente se eligió una tormenta que haya causado efectos tras su paso en el área de estudio. La tormenta elegida fue el Huracán Karl, cuya fecha de ocurrencia fue del 14 al 18 de septiembre del año 2010, afectando directamente estados como Quintana Roo, Campeche, Veracruz y Puebla.
Para el análisis de la precipitación media durante el huracán Karl se obtuvo la información climatológica diaria registrada por cada estación previamente localizada. Con estos datos se calculó la precipitación media registrada en La Antigua haciendo uso de tres métodos distintos, los cuales fueron: método aritmético, polígonos de Thiessen (Voronoi) y el método de las isoyetas. Esto se logró con el uso del software QGIS (3.16.1) y Excel. Más tarde estos resultados fueron comparados, presentando muy poca variación entre estos, y haciendo notando la misma tendencia en todos.
Para la determinación de regiones pluviométricas homogéneas, se recolectó la información relacionada a la precipitación máxima acumulada en un periodo de 24 horas para cada estación dentro de la cuenca. De las 15 estaciones, 14 presentaron registros históricos precipitación acumulada. Luego estos datos fueron organizados con respecto al tiempo y vaciando la información de cada estación. Se aplicó la prueba F de Fisher, la cual es un método estadístico para probar si dos muestras provienen de poblaciones con varianzas iguales. A las estaciones se les manejó como variables para más tarde calcular la media, la desviación y el coeficiente de variación de estas.
Se calculó la tabla de estadísticos F para todas las combinaciones entre estaciones, al igual como la tabla de valores F de la distribución de Fisher. Para ello se tomó como alfa igual a 0.95, y se hizo la igualdad de años de registro de cada estación como grados de libertad de las variables. Los valores de la distribución que no se pudieron hallar directamente, fueron determinados por interpolación lineal.
De lo anterior se obtuvieron 5 regiones pluviométricas homogéneas, las cuales pueden servir de ayuda posterior a estudios para la optimización de los recursos hídricos principales de La Antigua, o bien para la preservación de los ecosistemas que yacen en ella.
Para la creación de una base de datos de La Antigua, se consultó de igual forma la información climatológica diaria de cada estación desde los sitios oficiales del SMN y la CONAGUA. Estos datos fueron manejados en Excel de manera que, con ayuda del asesor investigador, quien proporcionó el código principal para la generación de una base de datos, fuera posible la creación del código para el almacenamiento de variables meteorológicas históricas, tales como precipitación, evaporación y temperaturas máximas y mínimas registradas por las estaciones en la cuenca antes mencionada.
Al final, con ayuda de código y el software RStudio, fue posible la visualización de estos datos mediante la generación de gráficas.
CONCLUSIONES
Gracias a esta estancia de investigación se pudieron conocer técnicas nuevas para la consulta de información climatológica, así como poder profundizar más en conocimientos adquiridos anteriormente.
Además cabe destacar la importancia de la visualización de la información climatológica en las cuencas en México y en todo el mundo, ya que muchas veces se cuenta con los datos necesarios, pero hace falta el análisis de esta con el fin de brindar una interpretación al usuario.
Por otra parte, la determinación de regiones homogéneas puede ser de gran ayuda para futuros estudios, tal como el óptimo aprovechamiento de los recursos hídricos.
Pérez Guerrero Christian, Instituto Tecnológico de La Piedad
Asesor:Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
DESARROLLO DEL CONTROL DE UN MOTOR A PASOS PARA CONTROLAR EL POSICIONAMIENTO DE UNA MESA ROTATIVA
DESARROLLO DEL CONTROL DE UN MOTOR A PASOS PARA CONTROLAR EL POSICIONAMIENTO DE UNA MESA ROTATIVA
Pérez Guerrero Christian, Instituto Tecnológico de La Piedad. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Actualmente en estos tiempos vivimos en una sociedad en la que la presencia de la tecnología, y los avances de la misma, están a todo nuestro alrededor. Esto no es sólo refiriéndose a las máquinas, dispositivos electrónicos o a elementos que funcionen con electricidad sino, a cualquier dispositivo que facilite la realización de alguna acción al ser humano.
El objetivo de este dispositivo a desarrollar es, colocar un sustrato en diferentes soluciones mediante el uso de una mesa rotativa. La problemática se presenta al controlar el movimiento de la mesa rotatoria por medio de un personal de manera indirecta, esto es que no tenga contacto físico con la mesa rotatoria y/o el sustrato a desplazar, así como las soluciones dichas anteriormente.
METODOLOGÍA
Para el control de la mesa rotatoria se utilizó un motor a pasos, este se eligió debido a que presenta una mayor precisión, el modelo del motor a pasos es un NEMA 17 caracterizado por un alto torque y así disminuir las fallas por sobrecargas al motor. Para controlar el motor a pasos, se hizo por medio de un microcontrolador tipo PIC, en este caso se hizo uso del PIC16F877A ya que es uno de los más comerciales y accesibles al público.
Antes de elegir los demás componentes, se procedió con la parte teórica del proyecto realizando un diagrama GRAFCET de primer nivel utilizando el funcionamiento que se tenía planeado para la mesa rotatoria, esto es los momentos en el que se tiene que mover, que detener, cantidad de posiciones de la mesa, entre otros aspectos básicos para luego pasar al GRACFET de segundo nivel, en el que no se usan descripciones para el funcionamiento de la mesa sino variables que definan el paso en el que se encuentran en el diagrama.
Por último (en cuestión de parte teórica), se hizo el diagrama GRAFCET de tercer nivel en el que definen las entradas y salidas que tendrá el microcontrolador para su funcionamiento, luego con esta información se pasa a la realización de la GUÍA GEMMA y así definir las etapas a utilizar, así como las paradas a realizar, parada de emergencia, arranque, paro, etcétera. Con esto ya fue posible tener la lista de los componentes a utilizar.
Para tener el control de las posiciones de la mesa rotatoria se utilizó un encoder de tres bits, esto mediante tres sensores reflectores en el que se usaron 7 de las 8 posiciones posibles, 6 de ellas como posiciones de la mesa rotatoria, 1 como posición Home para el inicio de la secuencia y 1 posición sin utilizar, como fase de potencia para el motor se usó el integrado L298D, para las entradas de las 6 posiciones se usó el integrado 74ls148 que codifica de 8 a 3 segmentos, switch de cambio de estado Manual-Automático, switch de giro CW (horario) y CCW (antihorario), switch de control manual Con orden y Sin orden (aplica sólo en estado Manual activo), botón de Stop, Marcha y Next step (aplica sólo en control manual con orden) y pulsador con enclavamiento NA (normalmente abierto) para Parada de Emergencia.
Para cada pulsador se realizó la conexión de configuración en PullDown y a cada botón se le asignó una resistencia de 10k ohms, también se utilizó una fuente de 14V dc para alimentar la fase de potencia del motor y debido a que el integrado L298D tiene una salida de 5V entonces nos es posible alimentar el circuito de esa salida de voltaje.
La programación se llevó a cabo con el software de MPLAB IDE con el lenguaje de programación C++ y la simulación de dicho proyecto se realizó en PROTEUS, a la mesa se le agregó un LCD para llevar mejor el control de las posiciones y estado del motor. Las conexiones de los integrados se realizaron de acuerdo a los datasheet de los fabricantes para así obtener el mejor resultado.
CONCLUSIONES
La realización de un sistema automatizado es un proceso que lleva tiempo, esfuerzo y dedicación, además, debido a la situación mundial no se pudieron obtener pruebas físicas de lo que es la mesa rotatoria. El resultado en las simulaciones es bueno, pero no garantiza el correcto funcionamiento al implementarlo de manera física ya que hay escenarios que no se pueden simular como por ejemplo climas, sobrecargas, el desbocado del motor entre otras más, que afecta el resultado final. No sólo situaciones que vemos afectan el resultado, también efectos como por ejemplo las capacitancias parásitas, pulsos magnéticos no deseados, etcétera. Teniendo así resultados parciales en el funcionamiento de la mesa rotatoria.
En un futuro, ya tendiendo el circuito implementado, se espera que la mesa rotatoria cumpla satisfactoriamente su función y al mismo tiempo sea seguro para el encargado de tener el control de la mesa rotatoria.
Pérez Gutiérrez Juan, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
SEGURIDAD PERIMETRAL (FIREWALL DE SOFTWARE LIBRE)
Juárez López Maria Yaneli, Instituto Tecnológico Superior de Guanajuato. Lopez Galindo María de los Angeles, Tecnológico de Estudios Superiores de San Felipe del Progreso. Pérez Gutiérrez Juan, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La ciberseguridad es un tema cada vez más relevante en la vida de las personas y de los negocios. De hecho, con la paralización mundial debido a la pandemia por el COVID-19 el teletrabajo se extendió mundialmente y así su aplicación inmediata. La ciberseguridad trata de mitigar los riesgos que todo negocio en la red pueda tener. No es otra cosa que proteger toda la información de los equipos almacenada en cualquier dispositivo o incluso en la nube.
Por otro lado, la demanda de conectividad es irrefutablemente alta y es cada vez más difícil mantener una estabilidad entre la cantidad de clientes y la seguridad de los mismos. Por esto, es cada vez más sencillo acceder a la información que debería de ser privada; existe también un alto grado de desinformación por parte de los clientes, entre lo que es seguro hacer y lo que no. Enfatizando en este aspecto es importante que a los usuarios se les administre reglas sobre un grado de ciberseguridad, para mantenerse a salvo de los ciber ataques y así prevenir las violaciones de datos y de información.
METODOLOGÍA
El presente proyecto se desarrolla bajo las siguientes fases de funciones de Cybersecurity Framework (CSF), estableciendo cinco etapas, las cuales son: Identificar, proteger, detectar, responder y recuperar.
Identificar: En esta etapa se tiene como objetivo implementar un sistema de Seguridad perimetral (Firewall de software libre) que mantenga la información protegida y de esta forma evitar la pérdida de datos o información que pueda causar un daño grave a la empresa o institución. En esta etapa se identificaron riesgos para servidores (Windows y Linux), en servicios administrativos de correo electrónico, transferencia de archivos, conexión remota, servicio web, desde la solicitud y demanda de los clientes. Enfatizando en lo anterior, también se establecen políticas para disminuir amenazas internas y externas.
Proteger: Establecer reglas dentro del firewall que permitan el manejo adecuado de la información a través de la utilización del servidor PFSENSE con el fin de administrar la seguridad de dicha red de forma accesible y que ésta pueda ser tomada como base para la implementación en una empresa o institución en general. Aplicación de reglas en el firewall, las cuales son:
Reglas para el servicio de correo electrónico.
Reglas para el servicio de transferencia de archivos.
Reglas para el servicio web.
Reglas para el servicio de conexión remota.
Para lo cual se asignaron IP de acuerdo a los clientes que se tienen en el sistema con esto se administra un control de acceso a los servicios del sistema y de acceso a la red, así manteniendo la seguridad y navegación para evitar vulnerabilidades.
Detectar: Es esencial comenzar el proceso de evaluación sobre las protecciones que tiene tu organización. Estos deben incluir elementos como protección antivirus, políticas de seguridad, como contraseñas, detección de amenazas y agilidad de respuesta, entre otros. El propósito de esta revisión exhaustiva no es necesariamente aumentar la confianza en lo que has logrado. Este monitoreo de seguridad será indispensable realizarlo de manera continua para evitar eventos no deseados en el sistema. Mediante técnicas de escaneo de vulnerabilidades donde a partir del sistema propuesto y las herramientas Nmap y Wireshark se realizó la búsqueda de vulnerabilidades en la red del sistema, donde se identifica puertos que se encuentran abiertos, estos representan un problema ya que a partir de aquí pueden ingresar al sistema para causar anomalías.
Responder: Se analiza y se hace conocer las medidas y documentación de mitigación frente a un ataque cibernético, las acciones estipuladas y oportunas para evitar cierta filtración de seguridad. Se lleva a cabo actividades de análisis de la información basada en los eventos y planes de recuperación de la información, estipulados cibernéticamente.
Detección de notificaciones de alerta: Mediante comandos y ejecución del software del IDS, se estipula el origen de las vulnerabilidades detectadas.
Impacto del incidente: Se estipula mediante registros e historiales documentales elaborados, el impacto del evento en caso se haber sido ejecutado o infiltrado en la red.
Análisis forenses: Se realiza mediante diferentes herramientas de software y hardware, análisis forense a todos los dispositivos de red y su infraestructura en general.
Plan de acción desde fuentes externas e internas: Siendo las vulnerabilidades informadas mediante dientes medios y fuentes, se establece la normativa de recepción de información de incidentes
Una vez hecho este análisis se configuran las reglas de accesos y alertas de firewall en cada zona donde se hayan detectado puertos abiertos o vulnerados, esto hará que se generaren filtros de afección al ataque.
Recuperar: Técnicamente se deben cumplir todos los procesos que ayuden a prevenir la filtración de personas terceras, software o programas malintencionados en la red, para esto se cuenta con los controles físicos en las puertas de acceso, reglas de acceso de red mediante el filtro de firewall, router e IDS, aplicando los filtros de las fases de protección y respuesta, se estipula implementar mejoras de seguridad basadas en las lecciones aprendidas de ataques de red. Se considera un guion actualizable de todas las mejoras dependiendo la zona de red o activo.
CONCLUSIONES
Cada vez se presentan más retos en el ámbito de la seguridad de las empresas, el número de amenazas en los últimos años se ha disparado y el concepto de seguridad perimetral se ha convertido en una necesidad básica para cualquier organismo con acceso a Internet. Teniendo esto en cuenta, se desarrolló un entorno de pruebas con el fin de evaluar las vulnerabilidades dentro de la red, y comprender la función del firewall, diseñando políticas de seguridad, mismas que fueron las encargadas de administrar la red y de controlar el tráfico y el acceso de los usuarios para fijar el marco de actuación necesario, y de esta manera proteger el sistema de amenazas o en su caso reducir o mitigar el impacto que presentan los ciberataques.
Pérez Hernández Alan, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango
COMUNICACIóN PUNTO APUNTO ENTRE DISPOSITIVOS
COMUNICACIóN PUNTO APUNTO ENTRE DISPOSITIVOS
Pérez Hernández Alan, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Manuel Cruz Luna, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia la humanidad ha sido de diversos desastres ante los cuales nunca ha estado preparada para enfrentarlos tales como: terremotos incendios, inundaciones, etc...
La gravedad de un desastre se mide en pérdidas de vidas, pérdidas económicas, y la capacidad de la población para la reconstrucción. Los eventos que se producen en zonas despobladas no se consideran desastres.
Así, una inundación en una isla desierta no contaría como un desastre, pero a una inundación en una zona poblada se le llama desastre natural.
Para este preciso caso se trata de dar solución a un problema en específico, el cual es; el rescate de personas ante un siniestro con dispositivos móviles de manera local, debido a la falta de infraestructura de comunicaciones utilizando una red en malla y un dispositivo desencadenador el cual mandara una señal a través de la red mencionada para conocer cuáles son los dispositivos que se encuentran en peligro y por ende serán a los que hay que rescatar.
METODOLOGÍA
Los sockets son básicamente formas en las que podemos interconectar 2 (o mas) programas mediante el uso de la internet. En java se utilizan para poder crear conexiones utilizando básicamente una IP/hostname y un puerto para establecer la conexión. Para aprender podemos utilizarla para conectar 2 programas por medio de Internet.
La arquitectura utilizada en los sockets es la de Cliente/Servidor. Con el uso de sockets en Java se pueden desarrollar muchos sistemas, como por ejemplos chats, videos juegos online y multijugador o incluso una simple página web.
Comunicación entre aplicaciones.
En Java toda la comunicación vista en primer curso de DAM consiste en dos cosas
Entrada/salida por consola: con las clases System.in o System.out.
Lectura/escritura en ficheros: con las clases File y similares.
Se puede avanzar un paso más utilizando Java para enviar datos a través de Internet a otro programa Java remoto, que es lo que haremos en este capítulo.
Roles cliente y servidor
Cuando se hacen programas Java que se comuniquen lo habitual es que uno o varios actúen de cliente y uno o varios actúen de servidores.
Servidor: espera peticiones, recibe datos de entrada y devuelve respuestas.
Cliente: genera peticiones, las envía a un servidor y espera respuestas.
Objetivo
Este proyecto pretende desarrollar un programa que permita la comunicación y el intercambio de información entre dos procesos mediante el uso de sockets utilizando Java como lenguaje de programación.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las redes en malla, como utilizarlas para conectar dispositivos móviles, el diseño de interfaz que sea intuitiva, fácil de comprender para el usuario y este responda de manera inmediata. Aunque está en fase de desarrollo ya se implementó la configuración de un punto de acceso con una Raspberry y el dispositivo desencadenador con una Tablet aún falta la programación de las funciones de la aplicación. Se espera la creación del robot para la búsqueda en lugares poco accesibles para el ser humano y así facilitar el rescate además de reducir el riesgo de aumento de percances tanto para los rescatistas como para las víctimas.
Perez Hernández Gabriela Jazmín, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
IMPACTO DEL USO DE BCI COMO TRATAMIENTO MEDICO EN LOS PACIENTES CON ACV Y ELA
IMPACTO DEL USO DE BCI COMO TRATAMIENTO MEDICO EN LOS PACIENTES CON ACV Y ELA
Perez Hernández Gabriela Jazmín, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO
La esclerosis lateral amiotrófica o enfermedad de Lou Gehrig es la forma más frecuente de afección progresiva degenerativa que altera a las neuronas motoras, afectando a neuronas motoras centrales y periféricas a la vez, considerándose la forma más devastadora de todos los trastornos neurodegenerativos, por otro lado, el accidente cerebrovascular es un problema de salud global común, grave e incapacitante, y la rehabilitación es una parte importante de la atención al paciente.
Al tratar con enfermedades neurodegenerativas que afectan a una gran parte de la población mexicana teniendo una incidencia notable en la quinta década de la vida ha surgido la necesidad de un trabajo multidisciplinario para desarrollar un tratamiento alternativo que mejore la calidad de vida de los pacientes con ELA y ACV teniendo como resultado el uso de BCI en la rehabilitación.
Al reunir varias disciplinas como son la ingeniería, medicina y psicología en un solo trabajo se pretende estudiar en este verano el beneficio que tiene al hacer uso de las BCI en la rehabilitación del paciente.
METODOLOGÍA
Metodología.
Se hizo una revisión de un total de 45 artículos de divulgación científica utilizando fuentes como pubmed, The New England Journal of Medicine, The Lancet, Nature, Gaceta Medica de México, así como las Guías de Practica Clínica, 3 tesis y diferentes videos sobre la relación Interfaz cerebro-computadora con la práctica médica, ponencias virtuales las cuales dio el investigador en curso.
CONCLUSIONES
Conclusiones y Resultados
Durante este verano de investigación siendo parte de un trabajo multidisciplinario fue mi tarea investigar y comprender la fisiología de ambas enfermedades, su epidemiologia, su incidencia, factores de riesgo, diagnostico y como última parte el tratamiento implementando sistemas de BCI.
En los pacientes con ACV y Esclerosis Lateral Amiotrófica que utilizaron en su rehabilitación un sistema BCI se vio aumentado significativamente la recuperación de la función neuronal, también se habla de una recuperación motora, hablando de neuroplasticidad se refiere al proceso mediante el cual el cerebro aprende nuevos comportamientos, se va adaptando al entorno y hasta puede modificar o cambiar las sinapsis existentes.
Los sistemas BCI se utilizan para reemplazar funciones neurológicas faltantes, el usuario puede llegar a reestablecer la capacidad para comunicarse y controlar su entorno, pudiéndose incorporar las tareas en computadora (procesamiento de palabras, búsqueda en internet, el empleo de sillas eléctricas)
Al inducir una plasticidad cerebral dependiente de la actividad, el BCI se puede utilizar en combinación con la terapia de recuperación para ayudar a restaurar la función normal del sistema nervioso central, teniendo como objetivo también la restauración de la función motora y la sensación táctil aunque estos últimos aun no se han logrado, se sigue investigando y construyendo en equipo un mejor funcionamiento de los sistemas BCI en la aplicación de enfermedades neurodegenerativas.
.
Pérez Izazaga María Elena, Instituto Tecnológico Superior de Tacámbaro
Asesor:M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
DESARROLLO E IMPLEMENTACIóN DE UN PLAN COMERCIAL PARA LA CAMPAñA DE POSICIONAMIENTO Y PUBLICIDAD DE LA INGENIERíA EN ADMINISTRACIóN DEL ITST
DESARROLLO E IMPLEMENTACIóN DE UN PLAN COMERCIAL PARA LA CAMPAñA DE POSICIONAMIENTO Y PUBLICIDAD DE LA INGENIERíA EN ADMINISTRACIóN DEL ITST
Pérez Izazaga María Elena, Instituto Tecnológico Superior de Tacámbaro. Asesor: M.C. Mario Alberto Sánchez Camarena, Instituto Tecnológico Superior de Tacámbaro
PLANTEAMIENTO DEL PROBLEMA
El 80% de las empresas no cuenta con un plan comercial, razón por la cual llegan a fracasar y cerrar sus puertas. La Ingeniería en Administración del ITST no cuenta con dicho plan, esto ha generado que la matricula cada vez vaya disminuyendo más, pues no se tiene claro que ofrece ni para quien.
METODOLOGÍA
Se aplicó un test a los alumnos de los diferentes semestres de la Ingeniería en Administración del Instituto Tecnológico Superior de Tacámbaro con el objetivo de conocer su personalidad y así segmentar a nuestro cliente potencial.
Se enfocó en el resultado de los alumnos de segundo semestre puesto que, nuestra personalidad va cambiando conforme vamos avanzando y son ellos quien se acercan más a la personalidad de nuestros clientes potenciales.
Se consideraron 4 tipos de personalidad: sensible. dominante, introvertida y sociable.
De los test que se realizaron los resultados obtenidos son los siguientes:
14.28% personalidad sensible
42.85% personalidad dominante
28.57% personalidad introvertida
14.28% personalidad sociable
Al obtener estos resultados se concluyó que nuestro cliente potencial se acerca más a una personalidad dominante.
Personalidad dominante: tiene madera de líder por su capacidad de organización, sentido práctico, rapidez mental, energía y capacidad de emprendimiento. Pero a veces peca de exigente y perfeccionista o le cuesta ver más puntos de vista que el suyo, y se puede mostrar insensible o inflexible con los demás.
Por ello, se llega a ellos de manera digital, con nuestras redes sociales como Facebook, con contenido de valor como videos e imágenes que demuestren liderazgo, personalidad, carácter, confianza y seguridad.
Una vez definido el cliente, se identificó qué se les ofrece.
Misión
Ofrecer servicios de educación superior tecnológica de calidad, con cobertura nacional, pertinente y equitativa, que coadyuve a la conformación de una sociedad justa y humana, con una perspectiva de sustentabilidad.
Visión
Ser uno de los pilares fundamentales del desarrollo sostenido, sustentable y equitativo de la nación.
La ingeniería en administración del ITST es una carrera acreditada, lo que demuestra, en base a distintos criterios, que tenemos un nivel educativo competitivo.
Tiene un amplio campo laboral
Puede desempeñarse en diferentes rubros del sector privado ya sea comercial o industrial.
Emprende brindando de forma independiente tus servicios profesionales.
Participa en procesos administrativos en entidades gubernamentales en todos sus niveles.
Incorpórate a instituciones educativas o áreas de investigación como docente.
Conforme alumnos de preparatoria se vayan interesando en la carrera, se creará una base de datos con sus datos para posteriormente brindarles más información concreta de la carrera.
CONCLUSIONES
En base a los videos e imágenes que se publicaron, se observó interés en posibles clientes, por lo que se considera un proyecto viable, además se espera tener aún más interés de los alumnos de preparatoria por esta carrera. Cabe mencionar que, por ser un trabajo extenso, falta la implementación más a detalle de dicho plan.
Perez Lozoya Miguel Angel, Instituto Tecnológico de Ciudad Juárez
Asesor:Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL CON PRE-ENTRENAMIENTO.
EVALUACIóN DE CLASIFICADORES CON PROCESAMIENTO DENDRAL CON PRE-ENTRENAMIENTO.
Perez Lozoya Miguel Angel, Instituto Tecnológico de Ciudad Juárez. Asesor: Dr. Juan Humberto Sossa Azuela, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Asesor: Rodrigo Roman, Instituto Politecnico Nacional
Existen diversos problemas a la hora de clasificar información, dado que algunas veces se pueden compartir ciertas características entre clases, una de sus soluciones fue el uso de redes neuronales artificiales, así como su entrenamiento para poder llegar a un modelo de distintas capas el cual fuera capaz de separar con la mayor exactitud posible cada una de las clases deseadas. Sin embargo, aún existen problemas de clasificación que requieren el uso de bastantes recursos, es por esto por lo que se planteó hacer uso de lo que son las dendríticas, estas son neuronas que se basan en modelos matemáticos que representan una frontera de decisión distinta a los modelos de neuronas como el perceptrón, ya que esta usa funciones que determinan fronteras de decisión cerradas, tales como hipercajas, hipercirculos e hiperelipses. Estas neuronas permiten poder llevar a cabo clasificación de datos que en ciertos problemas puede resultar mas practico utilizarlos, es por esto por lo que se requiere una evaluación de los modelos dendríticos respecto a los modelos típicos con perceptrón.
METODOLOGÍA
Se realizo el uso de Python y tensorflow para poder realizar los modelos de redes neuronales haciendo uso de las funciones de neuronas dendríticas y perceptrón, al igual que una red pre-entrenada convolucional.
Para poder llevar a cabo la evaluación es necesario primero saber que datos serán los que se utilizaran para poder realizar los entrenamientos y la evaluación de cada modelo, en este caso se utilizo lo que viene a ser cifar10, la cual es una base de datos conformado por 60,000 imágenes, esta se encuentra conformada por imágenes de 32x32 pixeles a color de aviones, automóviles, aves, gatos, ciervos, perros, sapos, caballos, barcos y camiones.
Una vez que se tiene la base de datos que se necesita, es necesario realizar la estructura de nuestra red neuronal, la cual constara de un modelo pre-entrenado para poder generar múltiples características de cada una de las clases, para después con el uso de alguna neurona poder clasificar las imágenes en la cantidad de clases deseada.
El modelo pre-entrenado que se utilizo fue VGG19, el cual es una red que consta de 19 capas distintas ya cargadas con parámetros de entrenamiento, lo cual hace que se pueda estar seguro de que la exactitud de esta pueda ser la mas alta deseada y que nos entregara una serie de características que podrán ser utilizadas al cargar estas a las neuronas de la capa final, la cual será o un perceptrón o una neurona dendrítica.
Seguido del modelo pre-entrenado se utilizó una capa que consta de 10 neuronas, en el primer caso, un perceptrón, en el segundo se usa el primer tipo de neurona dendrítica, este se conforma de hipercajas, las cuales generan fronteras de decisión en forma de cajas, esto permite que se inicialice el entrenamiento con esta forma y poco a poco se vaya ajustando los parámetros hasta tener el modelo mas exacto y que las clases queden dentro de las cajas para su clasificación, el segundo tipo consta de hipercirculos, en esta se usan parámetros como el radio y el centro para poder modificarlos y llegar a un modelo optimo, la última será con hiperelipses, la cual genera fronteras de decisión cerrada en forma de elipses, haciendo uso de parámetros como radio mayor, radio menor y centro, los cuales durante el entrenamiento se van ajustando hasta llegar a un modelo óptimo de clasificación.
Al tener ya definido como conformaran los modelos a entrenar se procedió a llevar la etapa de entrenamiento. En el entrenamiento se someten a las diversas capas de neuronas matrices de 32x32x3, las cuales representan a cada una de las imágenes a color, antes de iniciar el entrenamiento se modifican hiperparametros, los cuales permiten controlar la tasa de aprendizaje de nuestra red, el número de épocas al que será sometida y la cantidad de datos que se iteraran en cada uno de los entrenamientos. En este caso se establecieron los hiperparametros de la siguiente manera:
Learning Rate: 0.001
Epochs: 30
Batch Size: 125
Una vez que se determinaron los hiperparametros se obtuvieron los siguientes resultados:
VGG19 + DENlayer(Hipercirculos):
Exactitud: 57.33%
VGG19 + MDlayer(Hipercajas):
Exactitud: 54.29%
VGG19 + DSNlayer(Hiperelipses):
Exactitud: 52.45%
VGG19 + Perceptron:
Exactitud: 57.33%
CONCLUSIONES
Con los resultados obtenidos se puede observar que se llega a tener una precisión de las redes casi similar, lo cual es un buen indicio de que estas pueden resolver de igual manera los problemas de clasificación, siendo que en todos los casos se puede llegar al resultado optimo deseado, sin embargo, al hacer uso de las neuronas dendríticas es posible reducir en algunos casos, como lo son problemas en los que un perceptrón no podría como lo son algunos que van más allá de una frontera de decisión lineal, los recursos necesarios para poder llevar a cabo la generación de la frontera de decisión. Se estará trabajando a futuro el uso de funciones para pre-procesar antes los datos, pudiendo así aumentar la precisión en los modelos con neuronas dendríticas. Concluyo así que, aunque las redes neuronales son un campo que ya se ha estado desarrollando en los últimos años, aun queda mucho que descubrir e intentar, todo para poder hacer herramientas que lleven a poder hacer las tareas de clasificación, identificación y segmentación más sencillas.
Pérez Luna Sophia Alexandra, Universidad Autónoma de Occidente
Asesor:M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
PLAN DE HIGIENE Y SEGURIDAD INDUSTRIAL EN EMPRESA DE MANOFACTURA
Cota Mexia Angel Guillermo, Universidad Autónoma de Occidente. Martinez Alvarez Jose Paola, Universidad Autónoma de Occidente. Parra Polo Carlos Alberto, Corporación Politécnico de la Costa Atlántica. Pérez Luna Sophia Alexandra, Universidad Autónoma de Occidente. Asesor: M.C. Carlos Eduardo Moo Borquez, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
RESUMEN
Durante los últimos años el sector de la mano factura ha experimentado un crecimiento significativo, siendo esta la razón por la que ha logrado sobresalir entre las demás industrias, lo que ha despertado la necesidad de estudiar como los cambios que han experimentado estas empresas en temas de mano de obra, logísticos, operativos y tecnológicos; influyen en el incremento de los índices de accidentalidad y enfermedad laboral dentro de estas organizaciones.
METODOLOGÍA
METODOLOGÍA
JUSTIFICACIÓN
Con el fin de garantizar información sobre cómo mantener un puestos de trabajo seguros, pero sobre todo para que los trabajadores cuenten con las herramientas necesarias que les permita hacer frente a cualquier situación que pueda generar accidentes o enfermedades laborales, permitiéndoles mitigar o eliminar sus consecuencias, por lo tanto; con esta propuesta se pretende dar a conocer algunas técnicas existentes en seguridad y salud en el trabajo sobre prevención de riesgos laborales y enfocarlas al sector manufacturero pero solo en empresas de confecciones en Colombia, con el fin de mejorar la seguridad y salud de los trabajadores de estas, logrando un mayor aprendizaje y empoderamiento de los mismos. Es por ello, que es necesario contar con recursos que permitan implementar cada una de las acciones definidas en el plan de trabajo, por lo que la gerencia en línea debe asignarlos. Los recursos que se requieren para ellos son: Talento humano: recurso fundamental para la administración del Sistema de Gestión y/o Plan de Trabajo definido para intervenir la población objeto de las empresas inmersas dentro del sector de mano factura. El talento humano debe contar concompetencias laborales y técnicas en temas de administración de riesgos y seguridad y salud en el trabajo. Tecnológicos: dada la eventualidad de salud pública que a nivel mundial estamos viviendo, se debe contar además, de los equipos (PC - Internet - Impresora) con los que se cuentan antes de la situación referida, contar con autorizaciones para el uso de plataformas digitales sencilla y versátiles que permitan llegar a cada uno de los trabajadores población objeto cuando las acciones sean del resorte virtual. Para las actividades presenciales, se debe contar adicional con equipos audiovisuales, salón, mesas, herramientas entre otros, para llegar a la población convocada. Financieros: disponer de recurso que permitan realizar compras de elementos de protección personal, adecuación de espacios, moviliario, entre otros elementos necesario para desarrollar de manera segura las actividades propias del trabajo.
CONCLUSIONES
CONCLUSIONES
Dentro de la presente investigación se pudo evidenciar que existen aspectos a mejorar con la finalidad de minimizar la ocurrencia de los accidentes de trabajos. Se identificó que en las operaciones del sector manufacturero, dado a sus actividades máquinas y uso de diferentes herramientas se presentan peligros inherentes al desarrollo de sus procesos, que podrían poner en riesgo la salud y la integridad de los trabajadores; por ende, es fundamental que los trabajadores tengan conocimiento de los riesgos a los que están expuesto en sus lugares de trabajo y cómo prevenir y controlar cada uno de ellos, para realizar la operación de manera segura y proteger su bienestar. Las empresas del sector manufacturero buscan constantemente en mejorar la eficiencia, eficacia y efectividad de sus operaciones, para lo cual es necesario estar apoyado en la seguridad y salud en el trabajo, es por ello que las empresas deben aprovechar el crecimiento en investigaciones y normatividad que les permita tener trabajadores que cuenten con las herramientas y los conocimientos necesarios para realizar su trabajo de manera segura, pero a su vez aportando al crecimiento del sector. Todo trabajador debe ser consciente que realizar actividades peligrosas o actividades que se desvíen de los controles o estándares que se hayan establecido por la organización, puede tener consecuencias que afecten su salud e incluso llegar al punto de perder su vida, y debe entender el impacto que esto podría reflejar a sus familias y círculo social, por lo tanto el autocuidado es la mejor opción para proteger su salud. Es importante que el trabajador no intente reparar daños eléctricos o mecánicos si no está autorizado y no cuenta con las habilidades, conocimientos y capacidades para hacerlo, en estos casos es recomendable que se informe al personal encargado de realizar ese tipo de actividades para no poner en peligro su salud. Es importante que los trabajadores durante la ejecución de todas sus actividades reporten a sus superiores todos aquellos cambios en la salud que puedan experimentar o aquellas anomalías que se puedan presentar al realizar sus actividades, para que de esta manera se puedan analizar las causas y establecer los cambios o los controles que se consideren correspondientes.
RECOMENDACIONES
Implementar un Programa de Mantenimiento Correctivo y Preventivo, para el manejo de máquinas y herramientas de trabajo. Planificación y estandarización de procesos en el área de mantenimiento (Procedimiento, Instructivos, Guías, Protocolos, Formatos etc.) Elaborar un Plan de Inducción y Reindución en donde se refleje las buenas practicas Autocuidado, Manejo de Cargas, Uso de EPP, Matriz de Riesgos laborales entre otros. Garantiza la eficacia de las capacitaciones Análisis y mejora de los flujos de trabajo (operaciones de trabajo y sitios de desarrollo)
BIBLIOGRAFIA
1. https://ipsnoticias.net/2018/04/seguridad-laboral-crece-america-latina-menos-para-lo s-jovenes/#:~:text=Cifras%20parciales%20disponibles%2C%20indican%20que,en% 20el%20sector%20de%20servicios.
2.https://www.uis.edu.co/intranet/calidad/documentos/capacitacion/Indicadores%20de %20gestion.pdf
3. https://www.ilo.org/global/about-theilo/newsroom/news/WCMS_008562/lang--es/index.htm
4. https://www.mayoristaindustrial.com/la-aplicacion-de-la-seguridad-industrial-enempresas-de-manufactura
Pérez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramirez Alanis Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las Pymes representan una pieza fundamental para la economía de un país, por ser generadoras de riqueza y son de vital importancia en el impulso al progreso de una sociedad, debido a que inciden en varios sectores económicos.
Este proyecto nace por la imperiosa necesidad de desarrollar plataformas que apoyen la creatividad e innovación en proyectos que
impacten en el ámbito tecnológico y/o social.
InnovaCamping TM es un proyecto que busca nuevas formas de enseñanza en las aulas universitarias, para sensibilizar el área de emprendedores y formulación de proyectos emanados en algunos casos de las aulas y/o de las academias y dirigíos por jóvenes entusiastas, líderes y creativos.
METODOLOGÍA
InnovaCamping TM es un Campamento que consta de una Metodología para generar ideas Tecnológicas y/o Empresariales, en el que durante día y medio alrededor de 50 jóvenes alumnos acampados tienen la oportunidad de adquirir destrezas y aptitudes que a corto y medio plazo les serán de gran utilidad cara a su incorporación al mundo laboral.
Durante el Paso 1, el participante identificará sus principales características que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
En el Paso 2, el participante determinará su nivel de creatividad e innovación para el emprendimiento.
Durante el Paso 3, el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar se premiará a los 2 primeros lugares de acuerdo a lo siguiente:
Primer Lugar: Idea de Proyecto más Innovadora (Diploma y Trofeo a la Innovación)
Segundo Lugar: Equipo Talentoso (Cantidad Mayor en Bonos) (Diploma y Trofeo del Trabajo en Equipo)
CONCLUSIONES
InnovaCamping es una metodología que pretende lograr los siguientes resultados:
Formación de líderes
Formación de mentalidad emprendedora
Generación de ideas de proyectos de impacto tecnológico y social
Durante el verano de investigación del Programa Delfín 2021, se lograron obtener grandes resultados, dado que el conocimiento impatido por el docente Juan José González, nos brindó la oportunidad de ser coach de su modelo de innovación apoyando a más jóvenes a formar ideas de innovación y creatividad.
Aunado a ello, se presentó la oportunidad de participar en un proyecto de la metodología Lean Six Sigma y en un proyecto de Estaciones de trabajo con principios de Antropometría, los cuales son de gran importancia en nuestro programa de aprendizaje.
Pérez Monje Juan Pablo, Instituto Politécnico Nacional
Asesor:M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
MONITOR DE SIGNOS VITALES PEDIáTRICO
MONITOR DE SIGNOS VITALES PEDIáTRICO
Pérez Monje Juan Pablo, Instituto Politécnico Nacional. Asesor: M.C. Yessika Solis Cruz, Universidad Tecnológica del Valle de Toluca
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, el campo de la monitorización de signos vitales ha resultado ser de gran interés no sólo para el seguimiento de pacientes en estados críticos de salud, sino que el diagnóstico médico y las revisiones de rutina emplean este método para conocer el estado general del paciente a pesar de que el mismo no se encuentre bajo cuidados clínicos especializados. Gracias a estas revisiones rutinarias, en los últimos años se ha buscado la independencia paciente/médico en las distintas etapas de censado de los signos vitales. Mediante tecnologías no sólo médicas, sino también comerciales, se han producido una cantidad inmensa de dispositivos capaces de medir la frecuencia cardíaca, el nivel de oxígeno en sangre, la temperatura corporal, etc. La inmovilización de un infante para la toma de SV no es un método viable, pues esto representa un daño en la voluntad e integridad del paciente, es por esto último por lo que en este trabajo se pretende diseñar una propuesta para la creación de un monitor de signos vitales pediátrico, el cual cumpla con los requerimientos para la medición de cinco parámetros vitales a través de un sistema de censado por fotopletismografía, a fin de ser un dispositivo adecuado y eficaz para la monitorización no invasiva.
METODOLOGÍA
Como lo indican los objetivos acordados para el presente trabajo de investigación, se realizará una propuesta de diseño para el análisis de los signos vitales (SV) esenciales en la monitorización de pacientes pediátricos. Se obtuvieron un total de 5 SV con los cuales se pretende supervisar el estado clínico general de un infante. Para fines prácticos de este proyecto, se optó por el método de fotopletismografía, el cual permitirá obtener la mayoría de los signos vitales a través de un único sensor óptico, calculando posteriormente cada parámetro mediante un procesamiento digital de la señal obtenida. Para el envío de datos mediante Bluetooth por parte del dispositivo, se optó por elegir a Arduino Nano 33 BLE como placa electrónica de software libre.
Pulso cardíaco
Se deberá instalar la librería de Arduino correspondiente al uso del módulo de frecuencia cardíaca MAX30102, la cual es llamada SparkFun Max301x. Esta librería será instalada desde el apartado de Administrar bibliotecas, con ello, se cargará el código correspondiente a la obtención de la frecuencia cardíaca, propio del sensor utilizado para la obtención del pulso cardíaco.
Presión sanguínea
El sistema de estimación de la presión arterial se basará en el uso del sensor óptico incorporado en el módulo MAX32664. Con ello se leen los cambios en el volumen de sangre de las venas y así se puede estimar la presión sanguínea. El sistema consta de un LED de luz roja con una longitud aproximada de 660 nm, con la cual se realizará la adquisición del parámetro volumétrico antes mencionado. Posteriormente, se programará un circuito digital de amplificación de la señal obtenida que, en conjunto con una etapa de preprocesamiento de la señal aislará los datos de interés de cada lectura. Por último, el módulo descrito utilizará un amplificador digital programable en un rango de 60 a 80 dB.
Temperatura
Se utilizará de igual manera el circuito base, aprovechando el diodo infrarrojo del módulo MAX30102, con el que se pretende utilizar la librería especializada para la toma de temperatura, la cual es llamada mediante el comando particleSensor.readTemperature(). Se debe recordar que el sensor de temperatura infrarrojo ya contiene una linealización aceptable para la medición de los valores de temperatura, con lo cual entregará a su salida un valor relacionado con los grados Celsius medidos
Saturación de oxígeno en sangre
Para determinar el grado de oxigenación se realizarán mediciones con los diodos rojo e infrarrojo (dos longitudes de onda específicas). La saturación de oxígeno será calculada tras obtener el valor de la frecuencia cardíaca, mediante los picos de la componente pulsátil y comparándola con una componente constante del fotopletismograma (EDC) para cada diodo. Una vez hecho esto, se calculará el nivel de oxígeno en sangre siendo este de comportamiento proporcional a los cocientes de los picos pulsátiles entre la EDC.
Saturación de glucosa en sangre
Mediante la espectroscopía de absorción del infrarrojo cercano (Near InfraRed, NIR) se correlaciona de la señal fotopletismográfica con la saturación de glucosa en sangre. Para capturar los datos necesarios en la aproximación del nivel de glucosa en sangre se utilizará de nueva cuenta un diodo emisor de luz infrarroja. De acuerdo con la bibliografía consultada, se recomienda que el espectro de luz emitida se encuentre cercano a 940 nm, ya que esta región del espectro de luz permitirá una gran absorción óptica por la glucosa e ignora la mayoría de las moléculas existentes en la sangre de la vía arterial, tal como lo es el agua.
CONCLUSIONES
El monitor de signos vitales diseñado corresponde a un dispositivo portátil de fácil manejo, con el cual se pretenden realizar mediciones a partir de cinco parámetros vitales principalmente en niños. No obstante, el diseño del circuito permite su adaptación a modelos más adecuados incluso para el monitoreo de signos vitales en pacientes adultos. El dispositivo diseñado pretende monitorizar los principales signos vitales de un paciente infante, sin necesidad de recurrir a los métodos invasivos tradicionales para la obtención de parámetros como la glucosa, o complicadas conexiones físicas como en el caso de la colocación de electrodos para el pulso cardíaco. De igual manera se manifiesta el interés por compactar los más posible el diseño propuesto, colocándolo finalmente en una pulsera inalámbrica, la cual enviará las señales obtenidas por medio de comunicación Bluetooth a un dispositivo externo que permita su monitoreo y visualización.
Pérez Pérez Jesús Erick, Universidad Autónoma de Chiapas
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
HOMOGENIZACIóN Y SIMILITUD DE CUENCAS HIDROGRáFICAS POR PARáMETROS ESTADíSTICOS
HOMOGENIZACIóN Y SIMILITUD DE CUENCAS HIDROGRáFICAS POR PARáMETROS ESTADíSTICOS
Pérez Pérez Jesús Erick, Universidad Autónoma de Chiapas. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
La falta de información y la perdida de datos en los registros de climatológicos en México se es tan frecuente que limita las capacidades de operación para el diseño de nuevas estructures u obras hidráulicas, como también la falta de actualización de los registros plantea un problema a resolverse. Así como también la creciente aleatoriedad de eventos climatólogicos sumado a la falta de registros nos presenta un reto a superar, ya que estos dificultan la creación de modelos probabilísticos para la predicción de futuros eventos climatológicos. Por esto es necesario relacionar los registros de tal manera de obtener un homogenización de estos.
De acuerdo con los Organismo de Cuencas y Direcciones Locales de la CONAGUA en México actualmente se encuentran alrededor de 5500 estaciones climatológicas operando en la que se estima que hay aproximadamente 55 millones de datos en precipitación y temperaturas. Esto nos implica una gran base de datos que nos será de utilidad, pero cuenta con poco procesamiento, por lo que requiere de un amplio barrido de estos datos para obtener un estudio completo de las condiciones climatológicas de México.
METODOLOGÍA
Existen diferentes maneras para saber que cierta estación es homogénea respecto a otra, de acuerdo al método que se desee emplear podemos que tan relacionados y homogéneos son entre ellos.
Primeramente se usó la región hidrológica de Coatzacoalcos para su análisis. La región cuenta un extensión territorial de 21,151.12 km² de acuerdo al INEGI. Esta cuenca se delimito geográficamente mediante un software computacional de Google Earth, dentro del cual también se adjuntó la base de datos de SMN de la CONAGUA, con el fin de establecer las estaciones hidrométricas dentro de la región higrológica.
De esta manera se encontraron 11 estaciones dentro de la Región Hidrométrica de acuerdo a los datos del SMN de la CONAGUA, de las cuales 9 estaciones contaban con la información necesaria para realizar los análisis correspondientes a los datos de cada estación, concentrándonos principalmente en las precipitaciones máximas en 24 horas, ya que con estos datos podemos determinar a partir de ciertos criterios la homogenización de los datos entre estaciones.
Un primer análisis de los datos obtenidos por la estaciones, fue extraer los datos que se dan durante las tormentas, esto con el fin de analizar los datos recolectados durante estos fenómenos, se llegan analizar las características de estas tormentas y sobre todo la cantidad de precipitación presente durante la afectación de este.
De las 9 anteriores estaciones disponibles dentro de la región hidrométrica, se extraen los datos históricos relacionados con la precipitación de cada una, con el objetivo de comenzar con las operaciones necesarias para realizar la homogenización de los datos.
Existen diversas maneras de saber la homogeneidad entre dos o más colectas de datos, la Prueba F de Fisher se emplea con el fin de determinar dichas zonas homogéneas. Por lo que es necesario calcular la media, desviación y posteriormente el coeficiente de covarianza. Posterior a esto se emplea la fórmula de Fisher en el cual se toman dos datos obtenidos de los coeficientes de correlación los cuales elevamos al cuadrado ambas correlaciones y las dividimos, con la condición de que el numerador se encuentre la correlación mayor y en el denominador la correlación menor., de tal manera de obtener una tabla que se relacione entre todas estaciones anteriormente localizadas.
Ya con todos los datos aplicados a la prueba F de Fisher se comparan los datos obtenidos con los datos de la Tabla F de Fisher, con el fin de determinar si las estaciones analizadas son homogéneas y similares entre sí.
CONCLUSIONES
El uso de conocimientos en probabilidad y estadística son una herramienta de gran utilidad para alcanzar los objetivos planteados. Las bases de datos recabados de las dependencias gubernamentales y de acceso al público en general nos proporcionan una gran cantidad de información necesaria para llevar acabo las aplicaciones de estadística para determinar la homogeneidad de los datos entre estaciones, el cual nos permite tener una relación de información que falte entre los registros. El estudio, aprendizaje y entendimiento de los proceso de homogenización es de importancia puesto que el campo encargado del estudio del área de hidrología se encuentre rezagado dado a la baja relevancia que se le ha dado, por lo que es importante ampliar el área de estudio. Por lo que se espera que el uso de las ecuaciones para la homogenización nos sean de utilidad en un futuro para el mejoramiento de los registros que se encuentran incompletos.
Pérez Pérez Nancy Elizabeth, Universidad Autónoma Benito Juárez de Oaxaca
Asesor:Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales
EL APARATO FENOMENOLÓGICO, Y SU REPRESENTACIÓN CINEMATOGRÁFICA, ARQUITECTURA URBANISMO COLOMBIANO Y MEXICANO
EL APARATO FENOMENOLÓGICO, Y SU REPRESENTACIÓN CINEMATOGRÁFICA, ARQUITECTURA URBANISMO COLOMBIANO Y MEXICANO
Cortes Pinacho Yvette Paola, Universidad Autónoma Benito Juárez de Oaxaca. Pérez Pérez Nancy Elizabeth, Universidad Autónoma Benito Juárez de Oaxaca. Asesor: Mg. Ángela María Jiménez Gallego, Universidad Católica de Manizales
PLANTEAMIENTO DEL PROBLEMA
El cine ha sido una herramienta muy eficaz para poder desarrollar diferentes escenarios, que ayuden a captar la atención del espectador, desenvolviéndose desde los diferentes puntos como el espacio, la óptica el sonido, etc., además de ser un método de entretenimiento, este puede ayudar a la persona crear una cierta ideología acerca de diferentes contextos como son los espacios de cierto lugar, donde juega un papel muy importante la arquitectura para ambientar los lugares donde se desarrolle el largometraje sin embargo se pueden mostrar su manera de representar las realidades que se viven en ese lugar como en el caso de esta investigación que son los países de Colombia y México.
METODOLOGÍA
En este proyecto se apoyó a través de fichas de lectura del libro Fenomenología de los ambientes externos, donde se visualiza como influyen los espacios externos en la vida del individuo, al igual como se puede explotar para tener un mejor desarrollo en el aprendizaje y poder trabajar en un lugar adecuado tanto individual como en colaboración con otros individuos, después se elaboró fichas de seis películas que fueron el material base de esta investigación, tres de las cuales son desarrolladas en el país de Colombia y las otras tres de México, analizando arquitectónicamente el espacio de cada escenografía, como se llega representar la urbanización, sus texturas, colores, etc., por último se desarrollan láminas de presentación donde se visualicen gráficamente los puntos de análisis de las películas
CONCLUSIONES
Sin duda alguna el cine nos ayuda mucho para entender las realidades que hay en estos países, la cultura y las semejanzas que tenemos en estas, sin embargo también podemos ver las carencias que se afrontan en cada país, la línea marcada que hay de las clases sociales y como la arquitectura cambia muy radicalmente, esto nos pone a reflexionar que aún estamos muy lejanos de un país desarrollado y sustentable, debido a que se necesita inversiones pero es ahí donde se estancan todos los proyectos, el estado no ofrece el apoyo que realmente se necesita, entonces una manera de manifestar las situaciones de nuestros países es a través del cine, se debe fomentar el apoyo para no dejar en un simple formato nuestras futuras investigaciones
Pérez Ponce Anahí, Universidad Politécnica de Tecámac
Asesor:M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
DISPOSITIVOS DE CONTROL PARA UNA MáQUINA DE ENVEJECIMIENTO ACELERADO DE MATERIALES METáLICOS BASADO EN LA INDUSTRIAL 4.0.
Alvarez Esperon Neri Alejandro, Universidad Politécnica de Tecámac. Godínez Márquez Daniela Noemí, Universidad Politécnica de Tecámac. Pérez Ponce Anahí, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
La máquina de envejecimiento acelerado tiene como finalidad controlar la temperatura, humedad, luz ultravioleta y el tiempo en el que se activa una bomba de agua para inyectar agua salada al material a envejecer, es decir; simula el rocío y la lluvia con humedad condensada y/o spray de agua. El equipo de intemperismo acelerado de la máquina de envejecimiento es el equipo de intemperie más simple y fiable, pero hasta ahora, esta máquina es controlada manualmente, por lo que provoca un lapso más largo al momento de su uso, así como atraso en diversas actividades.
Hoy en día la automatización de los procesos es fundamental para poder aumentar la productividad, dado que simplifica las operaciones, permitiendo que el equipo de trabajo pueda enfocar más tiempo y esfuerzo en otras actividades más estratégicas, que le reportarán mayores beneficios.
Todo proceso está conformado por tareas y/o actividades; las mismas que pueden simplificarse automatizando las actividades repetitivas y operativas. Así que, volviendo al tema de la máquina de envejecimiento acelerado, se creará un circuito integrado con sensores, esto reducirá el tiempo de ejecución del proceso y así como los errores que se puedan presentar al trabajar de forma manual, facilitando las actividades de control. Para ello se establecerá una comunicación máquina a máquina, esto se logrará con ayuda del protocolo MQTT y el internet de las cosas; así, la actividad industrial será más rentable y tendrá una mayor capacidad para adaptarse a los cambios que puedan producirse.
METODOLOGÍA
El tema principal es la implementación de la industria 4.0 y el internet de las cosas en la máquina de envejecimiento acelerado. Siendo objetivo principal la automatización de procesos en la máquina. Por ello, la metodología implementada se basa en la prototipada, que, consiste en un proceso iterativo enfocado en diseñar, implementar, medir y ajustar un plan. Este modelo se utiliza para dar al usuario una vista preliminar de parte del software.
Se utilizaron 4 principal software pare el desarrollo del proyecto los cuales se incluyen Balsamiq, Fritzing, Visual Studio y Arduino. Los cuales sirvieron para el modelado y el desarrollo del prototipo.
Las etapas para diseñar e implementar la metodología prototipada son:
Recolección y refinamiento de requisitos: Se recabo la información de la maquina como su funcionamiento, Requerimientos funcionales y no funcionales para la aplicación móvil. Una vez Recabada la información se realizaron los diagramas de bloques y flujo del sistema para una mejor compresión.
Modelado, diseño rápido: Se realizo un modelado de la aplicación móvil con la herramienta de Balsamiq y para la parte del circuito se utilizó Fritzing, este paso nos brindó información para el desarrollo de un primer prototipo.
Construcción del Prototipo: A través del programa Visual Studio, se comenzó la creación del prototipo de Balsamiq, además se implemento el protocolo MQTT y las herramientas NuGet de HTTPupt y Microcharts para la visualización de los datos.
Desarrollo, evaluación del prototipo por el cliente: Al término del desarrollo de cada prototipo, el investigador y los alumnos evaluaban el diseño y funcionamiento de la aplicación móvil y el circuito elaborado.
Refinamiento del prototipo: Se propusieron ideas para el mejoramiento de la aplicación, según el desempeño del prototipo.
Implementación: Se actualiza el prototipo y se implementan las propuestas planteadas en la anterior etapa por los alumnos y el investigador.
CONCLUSIONES
En conclusión, el Internet de las cosas está tomando un gran nivel en la tecnología ya que permite la automatización de procesos ejecutados por diversos objetivos, tanto en sectores empresariales como en espacios domésticos.
La industria 4.0 persigue un nivel de cambio radical, haciendo referencia a la incorporación de las nuevas tecnologías de la información a los procesos de producción
El proyecto que se desarrolló para ayudar a obtener y visualizar la información que envían los sensores de la máquina de envejecimiento acelerado de materiales metálicos, esto con el fin de facilitar los procesos y control de la máquina.
Se abordaron diferentes etapas basadas en la metodología de prototipado, en las cuales se mencionan:
Recolección y refinamiento de requisitos
Modelado, diseño rápido
Construcción del Prototipo
Evaluación del prototipo por el cliente
Refinamiento del prototipo
Producto de Ingeniería
Dicha metodología se utilizó ya que no modifica el flujo del ciclo de vida del sistema, además de que reduce el riesgo de construir productos que no satisfagan las necesidades de los usuarios.
Pérez Toledo Jesús Raymundo, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dr. Germán Eduardo Dévora Isiordia, Instituto Tecnológico de Sonora
MANEJO DE PLANTA DESALINIZADORA DE ÓSMOSIS INVERSA Y ANÁLISIS DE VARIABLES INHERENTES
MANEJO DE PLANTA DESALINIZADORA DE ÓSMOSIS INVERSA Y ANÁLISIS DE VARIABLES INHERENTES
Pérez Toledo Jesús Raymundo, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Germán Eduardo Dévora Isiordia, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
En el mundo el 97.5% del agua en la Tierra se encuentra en los océanos y mares de agua salada, únicamente el restante 2.5% es agua dulce. Del total de agua dulce en el mundo, 69% se encuentra en los polos y en las cumbres de las montañas más altas y se encuentra en un estado sólido. El suministro de agua potable es uno de los principales problemas a nivel mundial y México no es la excepción. En la zona noroeste del país donde presentan escases del recurso debido a las irregularidades de la precipitación (CONGUA,2011). Rodríguez, 2018 menciona que los habitantes de la entidad de Sonora cuentan con 35.18% menos agua que el promedio nacional. Por si fuera poco, la intrusión salina que afecta a los acuíferos del estado provoca el abandono de pozos agrícolas. En la actualidad existen diferentes y eficaces procesos de desalinización, entre ellos osmosis inversa (OI).
METODOLOGÍA
En esta investigación se evaluó la eficiencia del proceso de OI a una concentración de 7,500 mg/L (agua salobre) a una conversión del 50% y con una duración de 15 minutos (agregando la cantidad adecuada de antiescalante), tomando pruebas a 4 tiempos determinados de agua producto (permeado) y rechazo (salmuera), midiendo la concentracion de sal a travéz de la conductividad y su temperatura para analizar las variantes inherentes (FLUX, densidad, viscosidad, presión transmembrana, entre otras) observando el comportamiento y funcionamiento más esclarecido de una planta desalinizadora a través de graficas en el software Excel.
CONCLUSIONES
Es necesario llevar un análisis de las variantes inherentes de la planta desaladora por OI para conocer como podemos alcanzar una mayor eficiencia en cuanto a la potabilización de agua. Primero debe filtrase para sacar las partículas y elementos que podrían estropear las membranas, suministrar la cantidad adecuada de anti Escalante para mantener un tiempo más prolongado de vida a la membrana, después de la ósmosis, el agua tiene un pH bajo y también tiene carencia de minerales, por eso se debe añadir dióxido de carbono y calcio para ajustar la ldureza y la acidez.
Perez Valencia Martha Galilea, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
DISEñO DE UN PROGRAMA PARA PROMOVER LA INNOVACIóN Y EL EMPRENDIMIENTO EN LOS CAMPUS DEL TECNM
DISEñO DE UN PROGRAMA PARA PROMOVER LA INNOVACIóN Y EL EMPRENDIMIENTO EN LOS CAMPUS DEL TECNM
Perez Valencia Martha Galilea, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
El problema que se busca resolver es poder aumentar el interes y las herramientas y informacion que se les brinda a los jóvenes universitarios, actualmente en las instituciones los jóvenes pierden ese interés en poder llegar a crear su idea de negocio, hay muchos factores que posiblemente no permitan que aumente su interés, entre ellos que los jóvenes solo se enfoquen en sus asignaturas, y sabemos que es importante que sea así por que todo ese aprendizaje es necesario para desarrollarse como profesionales, otro factor es que los jóvenes no cuentan con mas apoyo ya sea económico, de asesoramiento o capacitación, destacar que todas las instituciones brindan información sobre cursos, convocatorias , talleres y platicas sobre la innovación y emprendimiento, muchos son los jóvenes que buscan contar con más herramientas y lo que se busca primordialmente es que se amplíen el interés de todos los jóvenes con poder promover más el emprendimiento y la innovación en sus instituciones.
METODOLOGÍA
Para poder realizar todo el desarrollo del proyecto se plantearon varias herramientas y técnicas para recolectar datos, se realizaron encuestas a todos los jóvenes con un enfoque en el interés, conocimiento y en sus inspiraciones, muchos de los jóvenes para poder lograr cumplir metas se inspiran en personas importantes que han logrado volverse exitosos, se realizó consecuentemente la observación con la cual se pudo hacer el análisis de algunos institutos para poder verificar que realizan actividades de emprendimiento e innovación y que se brinda información a los jóvenes, también se realizaron notas de campo de diferentes proyectos y artículos que permitieron obtener las estrategias y las posibles acciones que se podrían hacer para aumentar el interés de los jóvenes, en base a todo esto se llego al diseño del programa que constara de varios objetivos que serán fundamentales y de diferentes aspectos que permitirán que pueda utilizarse o aplicarse. Se realizará en base a un modelo, procesos, realización de una pagina web, revista digital, revisión, su evaluación y difusión de los resultados.
CONCLUSIONES
Los resultados que se esperan obtener al desarrollar este proyecto, son en función de la estructuración del desarrollo del programa, en base a cada uno de los aspectos que se necesitan para darle funcionalidad, las diferentes técnicas para recopilar información sirvieron para poder realizar el modelo que fue en base a las estrategias y acciones posibles que pueden repercutir de forma positiva, se busca que los jóvenes amplíen ese interés y que cuenten con información que les permita poder dar mas aporte a sus ideas de negocios, se colocaron los procesos que permitirán llevar a cabo todo el proceso que conforma el modelo, se va a realizar una pagina web en la que incluyan todo tipo de información referente al emprendimiento y la innovación con temas actualizados, se realizara una revista digital que permitirá a los jóvenes conocer mejor a los emprendedores mas exitosos, información actual del emprendimiento y la innovación en el país, tips , test, evaluaciones o actividades que pueden realizar para desarrollar su espíritu y competencias como emprendedores, la revista se actualizara constantemente y la portada será personalizada con emprendedores e institutos para destacar a los jóvenes que han logrado desarrollar sus ideas de negocio a partir de su universidad, se harán revisiones para verificar que el programa este funcionando de la mejor manera y que no haya errores, se harán evaluaciones para poder identificar si el programa está siendo de interés para los jóvenes y si esta promoviendo la información que los jóvenes necesitan para poder desarrollarse como emprendedores por último se realizara difusión de los resultados para que los alumnos, docentes, administrativos y directores puedan observar ese cambio que se esta llevando en la institución, este programa tiene el fin de poder promover y brindar las herramientas adecuadas para que los jóvenes universitarios puedan ser unos exitosos emprendedores y puedan desarrollar todo ese proceso de creación de su idea de negocio y sobre todo ampliar ese interés por el emprendimiento por parte de todos los jóvenes de las diferentes universidades.
Pérez Velázquez Jasive Ximena, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA FLORA DE LA COMUNIDAD LA CUADRILLA Y SUS APLICACIONES NANOTECNOLóGICAS Y DE BIORREMEDIACIóN EN AGUAS RESIDUALES
ANáLISIS DE LA FLORA DE LA COMUNIDAD LA CUADRILLA Y SUS APLICACIONES NANOTECNOLóGICAS Y DE BIORREMEDIACIóN EN AGUAS RESIDUALES
Pérez Velázquez Jasive Ximena, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La contaminación del agua y la escasez de agua dulce se han convertido en un problema grave en todo el mundo, que preocupa tanto a la salud pública como al medio ambiente. Para reducir estos desafíos, se han adoptado varias tecnologías de tratamiento. Sin embargo, la reutilización de aguas residuales tratadas inadecuadamente puede provocar problemas de salud crónicos. La eliminación de metales pesados de las aguas residuales contribuye a la seguridad ambiental.
La nanotecnología puede ser aplicada como una herramienta para combatir la contaminación del agua, puede ser aprovecharse en la eliminación de patógenos y otros contaminantes como tintes y metales.
METODOLOGÍA
Durante la semana uno y dos de la Estancia virtual se presentaron diferentes ideas por parte de la investigadora con la finalidad de desarrollar un protocolo de investigación aplicado a la comunidad de procedencia de los estudiantes. Se mantuvo comunicación y como vía de información la plataforma Microsoft Teams para las reuniones, para la asignación de actividades y para compartir material de apoyo se utilizó Google Classroom. De igual forma, en la semana uno se delimito el tema de la investigación.
A lo largo de la semana tres, se presentaron dos ponencias relacionadas a la biorremediación en el marco legal y experiencia de otros investigadores en el campo de la biorremediación.
En la semana cuatro se presentaron avances del protocolo, en el protocolo a desarrollar se había trabajado con los objetivos, introducción y parte del marco conceptual en el que también se mostró una visita de campo de la comunidad, donde se reportaron especies como: Crataegus mexicana, Equisetum hyemal, Fraxinus uhdei, Salix babylonica L., Pinus devoniana Lindl, Prunus salicifolia y Eucalyptus camaldulensis.
Para la semana 5, se plantearon dudas para el desarrollo del protocolo, de igual forma, dar continuidad con el plan de trabajo de investigación y se asignó material a la plataforma y se dio seguimiento al plan modular
Lo que correspondía a la semana 6, según el cronograma establecido el inicio de la estancia, fue complementar el marco conceptual, donde se revisaría material bibliográfico y reportar estudios en los que se demostraba algún tipo de información sobre aplicaciones antibactericidas de las platas a analizar. De esta manera se descubrió que especies como: Crataegus mexicana, en la que se reporta como una fuente importante de flavonoides y ácidos orgánicos, principalmente, epicatequina, vitexina, ácido ascórbico y ácido clorogénico. Los compuestos fenólicos como los flavonoides y las procianidinas tienen propiedades antioxidantes, secuestradoras de radicales libres, anti-inflamatorias, vaso-relajantes e hipolipidémicas, además de poseer propiedades antimicrobianas, ésta última propiedad es la que interesa en la investigación. La especie Equisetum hyemale muestra propiedades como hiperlipidémica, antimicrobiana, hepatoprotectora, antioxidante y actividades antiinflamatorias. Y la especie Eucalyptus camaldulensis, se encontró que en la síntesis extracelular de AgNP mediada por extracto de hoja de E. camaldulensis tenía una actividad bactericida eficaz contra algunas especies bacterianas. Se examinó el principio de la técnica Green Synthesis o síntesis verde, como un método el que se utilizan reactivos inocuos no tóxicos que son ecológicos y bioseguros. Se encontró también, que para la síntesis de nanopartículas de óxido metálico se han estudiado diversos recursos naturales disponibles en la naturaleza, como extractos de plantas, lo cual resultó apropiado para el desarrollo del proyecto.
Finalmente, en la semana siete se abordaron dudas acerca de actividades entregables, posibles resultados, continuidad del proyecto y se llevó a cabo la presentación del trabajo en el grupo.
CONCLUSIONES
Entre los resultados más atrayentes, es que se logró demostrar teóricamente que existe un potencial en la vegetación que compone la comunidad de La Cuadrilla, como es el caso de Crataegus mexicana, Equisetum hyemale, y Eucalyptus camaldulensis con propiedades antibactericidas y como candidatos en la síntesis verde de nanopartículas de óxido metálico u otro tipo de nanopartículas que eliminen patógenos, tintes y otros contaminantes. Este protocolo queda como un antecedente para desarrollar trabajos futuros en el que se lleven a cabo análisis del agua y se demuestre los resultados de emplear estas nanopartículas.
Pesillo Montilla Angie Vanessa, Universidad Antonio Nariño
Asesor:Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DEL AGUA EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: JAMUNDí, VALLE DEL CAUCA, COLOMBIA
IMPLEMENTACIóN DE MéTODOS DE MUESTREOS PARA EL ANáLISIS DE LA CALIDAD DEL AGUA EN COLOMBIA Y MéXICO, CASO DE ESTUDIO: JAMUNDí, VALLE DEL CAUCA, COLOMBIA
Pesillo Montilla Angie Vanessa, Universidad Antonio Nariño. Asesor: Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
En Cali, la capital del departamento del Valle del Cauca cuya empresa que presta el servicio de agua, acueducto, alcantarillado y relacionados EMCALI a la ciudad y alrededores establece que la dureza del agua suministrada a la población del municipio de Jamundí ubicada al sur de la ciudad de Cali es la siguiente:
Análisis efectuados
Expresados como
Jamundí
Dureza total
mg CaCO3/L
48,1
METODOLOGÍA
Para corroborar esta información se realizó una toma de muestras con un TDS que mide las sales y los minerales en el agua que consume esta población, en primera instancia se escogieron 5 lugares diferentes para la toma de estas muestras. Se tomaron 25 muestras durante 12,5 días y se analizaron estadísticamente usando fórmulas de distribución normal y estándar, sacando la media con el objetivo de averiguar cuál es la probabilidad de que dicha empresa brinde a la población el agua con diferentes tipos de dureza y de igual forma analizar y corroborar que EMCALI cumple y está dentro de los estándares establecidos por el ministerio de ambiente.
CONCLUSIONES
Al finalizar la toma de muestras y realizar los análisis estadísticos se pudo determinar que EMCALI cumple con los estándares y las normas establecidas y que no tiene posibilidad de que brinde agua muy blanda, muy dura o semidura, la calidad de dureza del agua se encuentra en semiblanda entre 16 y 75 ppm de CaCO3 la cual es de consumo normal para la población de Jamundí.
Piedrahita Molina Salomé, Institución Universitaria Colegio Mayor de Antioquia
Asesor:M.C. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas
APROVECHAMIENTO DEL EFLUENTE DE UN TRATAMIENTO DE AGUA RESIDUAL DOMéSTICA EN UNA BIOJARDINERA APLICANDO LOS PRINCIPIOS DE PERMACULTURA
APROVECHAMIENTO DEL EFLUENTE DE UN TRATAMIENTO DE AGUA RESIDUAL DOMéSTICA EN UNA BIOJARDINERA APLICANDO LOS PRINCIPIOS DE PERMACULTURA
Piedrahita Molina Salomé, Institución Universitaria Colegio Mayor de Antioquia. Asesor: M.C. Carlos Alberto Ligarda Samanez , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales causas de la contaminación del recurso hídrico es la inadecuada disposición y la deficiencia en los sistemas de tratamiento, proporcionando el incremento en las concentraciones de DBO, DQO, COT, nutrientes y coliformes. En la zona rural de la Vereda la Lomita, corregimiento San Pablo, Santa Rosa de Osos, el alcance a un sistema de tratamiento secundario de aguas residuales domésticas es menos asequible que en las zonas urbanas. Teniendo en cuenta las necesidades de las comunidades rurales, se establece como alternativa la implementación de la permacultura, una de sus finalidades es alcanzar un sistema que lleve a un ciclo cerrado. Por lo cual se diseñó y construyó una biojardinera que beneficia a las comunidades, brindando seguridad alimentaria por medio de cultivos agrícolas y a su vez generando un tratamiento secundario del efluente de un pozo séptico. En los primeros análisis de la biojardinera se logró una eficiencia en DQO y sólidos suspendidos de 63% y 55% respectivamente, se espera que una vez estabilizado el humedal la concentración final de DQO en el efluente sea de aproximadamente 25 mg/l, para posteriormente aprovecharla mediante un sistema de riego a huertas, determinando su efecto sobre el crecimiento y producción de las plantas. Hasta el momento no se cuentan con más resultados debido a condiciones climáticas que han generado deslizamientos en la zona impidiendo el ingreso, sin embargo, dichas problemáticas están siendo mitigadas al día de hoy por los profesionales correspondientes y se espera que para el mes de agosto del 2021, se ejecute el siguiente muestreo.
METODOLOGÍA
El lugar de estudio se encuentra ubicado en La Vereda la Lomita, corregimiento San Pablo, Santa Rosa de Osos, donde se realizó una visita al terreno en el que se evaluaron las condiciones ambientales (temperatura, precipitación, pendiente) y factores sociales (disposición por parte de las personas para acoger el proyecto).
Una vez evaluado el terreno se ejecutó la intervención de la tubería proveniente del pozo séptico que recibe las aguas residuales de una vivienda con 4 personas permanentes, mediante accesorios hidráulicos (codos, válvulas y extensiones de tubería). Después de la ejecución de la biojardinera se intervino la tubería del pozo séptico con el fin de prevenir condiciones adversas que pudieran interferir con la construcción del humedal; saturación del suelo, desprendimiento de masas, pérdida de las características físicas, entre otros. Posterior a la construcción y puesta en marcha del humedal se procedió a la plantación de heliconias y papiros que ayudarán con la remoción de los contaminantes.
Para la prueba de infiltración se perforó el suelo y luego se midió la profundidad y el ancho por medio de un flexómetro, posteriormente se realizaron los cálculos mediante el coeficiente de permeabilidad, además, se hizo determinación de textura y drenaje en suelo con método de Bouyoucos y ecuación de PORCHET respectivamente.
Se diseñó, construyó y estabilizó la biojardinera a partir de los lineamientos de la EPA y la ecuación de Darcy para el modelo del flujo del agua en los humedales. La estabilización se realizó durante 3 meses. Las plantas empleadas para la remoción fueron heliconias y papiros (Carvajal Arias et al., 2018). Junto con lo anterior, se colocó una polisombra con el fin de disminuir la radiación solar directa y que esta no perturbara las condiciones óptimas para el crecimiento de las plantas.
Se realizaron las mediciones físico-químicas y microbiológicas del afluente y el efluente de la biojardinera en donde se consideraron los parámetros de DQO, pH, coliformes totales, coliformes fecales, SST (cuyos métodos se presentan en el formato Excel: anexo 1 protocolos), por tres campañas en la entrada y salida de la biojardinera (cada variable se analizará por duplicado), adicionalmente se realizó un análisis de agua de riego de la biojardinera, mediante la realización de dos campañas con el método definido por el ICA para agua de riego→ Métodos internos LANIA, en donde se evaluó salinidad, cationes, aniones, índices, nutrientes, micronutrientes, microbios (Se especifican las variables que componen cada grupo en el anexo 1).
Posteriormente se adecuó el terreno de la huerta mediante compactación y arado, para después realizar la siembra de plantas que no son de consumo directo; maíz (Zea mays) y frijol (Phaseolus vulgaris). Finalmente, para su evaluación se realizaron tres campañas en las cuales se midió altura de la planta, diámetro del tallo, aumento de volumen (cuantificación de hojas), área foliar y peso del fruto, con frecuencia de cada mes.
Finalmente, el análisis estadístico se realizó mediante la herramienta de análisis de datos Statgraphics centurión
CONCLUSIONES
El humedal fue satisfactoriamente diseñado y construido bajo los lineamientos de la EPA y de acuerdo con las características fisicoquímicas y microbiológicas de un pozo séptico en comunidades rurales, evitando sobrepasar las concentraciones máximas de DQO de 60 mg/L, SST 30 mg/L, nitrógeno total 10 mg/L y fósforo total 3 mg/L como lo establece la EPA, garantizando el tratamiento de aguas residuales mediante diferentes mecanismos que se presentan en los humedales subsuperficiales.
Después de 2 meses y medio de operación del humedal, se realizó un muestreo de afluente y efluente considerando propiedades fisicoquímicas y microbiológicas, a pesar de las condiciones climáticas adversas se obtuvieron resultados positivos con una remoción del 55% de SST y 63% DQO.
Aún no se cuentan con más aspectos relevantes en la investigación
Pineda Castañeda Maria Isabel, Instituto Tecnológico Superior de Uruapan
Asesor:Mtro. Efrain Castañeda Hernández, Instituto Tecnológico Superior de Ciudad Serdán
ELABORACIóN DE VINO TINTO A BASE DE UVAS SILVESTRES
ELABORACIóN DE VINO TINTO A BASE DE UVAS SILVESTRES
Pahuamba Barajas Alondra, Instituto Tecnológico Superior de Uruapan. Pineda Castañeda Maria Isabel, Instituto Tecnológico Superior de Uruapan. Asesor: Mtro. Efrain Castañeda Hernández, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, hay un incremento en el consumo de vino y las técnicas empleadas para la elaboración de vinos, están encaminadas a la obtención de vinos de calidad. Para conseguir tales productos, el proceso de elaboración debe tener en cuenta la aplicación de técnicas dirigidas a obtener un máximo de aromas y demás características gustativas en los vinos. Y eso consigue desde el comienzo, poniendo el máximo esmero, eligiendo el proceso adecuado de elaboración, cuidando por último la conservación y embotellado de los vinos. Para ello se utilizó la siguiente metodología
METODOLOGÍA
Pesado: El pesado se realiza en el laboratorio, antes de ser estrujada la uva, con el propósito de determinar la cantidad de uva que se utilizará en cada tanque de fermentación a usar.
Despalillado y estrujado: Esta operación se realiza totalmente a mano, donde se hace la eliminación parcial o total del raspón, pasando las uvas a una tina receptora, donde posteriormente serán estrujadas con rodillos de madera reventando las bayas de la uva para permitir la salida del jugo que esta contenidas en las pequeñas vacuolas, favoreciendo los fenómenos de difusión y disolución de los pigmentos que caracterizan al vino tinto.
Encubado: Esta operación consiste en introducir la uva ya molida junto con el mosto en los recipientes de fermentación en donde se lleva a cabo el proceso de fermentación y el batido.
Fermentación con maceración: Es el conjunto de diversas reacciones metabólicas que contribuyen de manera importante en la adquisición de sus características sensoriales, en virtud de esta fermentación los azúcares que contiene el mosto se convierte el alcohol (etanol), con gran desprendimiento de dióxido de carbono (CO2), también se consumen algunos ácidos orgánicos como el málico y se hidrolizan las sustancias pépticas y las proteínas durante la maceración, las partes solidas de la uva silvestre (hollejos, semillas y borras de la pulpa), ceden parcialmente al mosto sus contribuyentes, es un proceso que requiere atención ya que las sustancias útiles como antocianinas, taninos y compuestos aromáticos aportan al vino tinto sus cuatro características primordiales: color, taninos, componentes del extracto y aroma, el espíritu del vino o etanol es el producto que le da el carácter al vino, el cual se obtiene a través de esta fermentación.
Prensado: Las uvas son prensadas después del proceso de fermentación, el cual se lleva a cabo durante seis días, para extraer el mosto, el cual será depositado en barriles de roble blanco, previamente lavados esterilizados. La madera de roble permite suavizar la textura del vino y estabilizarlo. Además, hace que los taninos se polimericen dando una sensación más agradable y redonda en la boca en este caso se utilizó ollas de acero inoxidable ya que era lo que teníamos al alcance.
Fermentación lenta o secundaria: Después de haber depositado el mosto en el recipiente, estos se llenan casi hasta el borde dejándose un pequeño espacio para evitar el derramamiento del vino por efecto de la dilatación del líquido, en esta etapa se deja reposar el vino por algunos días más, hasta que se agotan los azúcares residuales hasta dejar el vino seco, si así se desea, para posteriormente someterlo al otro proceso.
Trasiego: El trasiego se realiza después de haber dejado reposar el mosto en el recipiente, este procedimiento consiste en cambiar el mosto de un recipiente a otro previamente lavado y esterilizado en donde se adiciona el grado alcohólico y el vino se endulzará ligeramente para dejarlo reposar. (Verificar el grado alcohólico con un alcoholímetro Gay Lusacc (GL) así como el grado brix que nos indica la concentración de azucares en el mosto para clasificarlo como vino tinto seco y tipo oporto). Los vinos van de 5 a 14° GL, teniendo un máximo de 14.5° GL.
Maduración: Las características sensoriales del vino tinto se mejoran considerablemente, si este se madura durante varios meses (6-8) en barricas de roble blanco, durante la maduración, los compuestos provenientes de la uva silvestre adquieren el equilibrio aromático que favorece su composición dándole a este vino su buquet y sabor característico.
Envasado y etiquetado: El envasado se realiza en botellas de vídrio de color ámbar de 750 ml, con tapa de corcho y la etiqueta debe presentar el nombre del producto, capacidad, grados de alcohol y lugar de elaboración.
CONCLUSIONES
La elaboración de vino es un proceso milenario que con los años ha llegado a alcanzar un nivel de complejidad y unos estándares de calidad verdaderamente sobresalientes. Toda gira en torno a la fermentación de la uva y el proceso que se dé su elaboración, debemos tener en cuenta que cada etapa del proceso de elaboración es muy importante ya que de ello depende obtener un buen vino.
Pineda Franco Diana Carolina, Universidad Antonio Nariño
Asesor:Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez
ANáLISIS DEL FMEA APLICADO AL áREA DE CORTE DE LA EMPRESA TEXTILES Y CREACIONES EL UNIVERSO
ANáLISIS DEL FMEA APLICADO AL áREA DE CORTE DE LA EMPRESA TEXTILES Y CREACIONES EL UNIVERSO
Pineda Franco Diana Carolina, Universidad Antonio Nariño. Asesor: Dr. Luis Pérez Domínguez Pérez Domínguez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
En las empresas las herramientas enfocadas a identificar problemas se han convertido parte fundamental para mantener la eficiencia en las plantas de producción, gracias a la aplicación de estas se evita pérdida de tiempo durante los procesos.
El presente proyecto abordo la problemática en la empresa Grupo Octus S.A.S, se espera que con esta aplicación se encuentren las mejores soluciones para bajar significativamente el porcentaje de no calidad existente el cual es en general del 15% en todos los procesos.
METODOLOGÍA
Se utilizo la herramienta de calidad Análisis de Modos de Fallas y Efectos (FMEA), la cual se aplica en 8 pasos.
APLICACIÓN DEL FMEA
Para disminuir la probabilidad de ocurrencia de fallas en proyectos de nuevos productos o procesos;
Para disminuir la probabilidad de fallas potenciales (que aún no hayan ocurrido) en productos o procesos en operación;
Para aumentar la confiabilidad de productos o procesos en operación a través del análisis de las fallas que ya ocurrieron;
Para disminuir los riesgos de errores y aumentar la calidad en los procedimientos administrativos
ETAPAS DE LA CONCEPCIÓN DEL FMEA
Definir el proceso que será analizado.
Definir el equipo, priorizando los aspectos multidisciplinarios.
Definir la no conformidad (modo de falla).
Identificar sus efectos.
Identificar su causa principal y otras causas.
Priorizar las fallas a través del nivel de riesgo.
Actuar a través de acciones preventivas (detección).
Definir el plazo y el responsable de la acción preventiva. (MEIRE, 2004).
Una vez aplicado los pasos para identificar fallas mediante el FMEA creamos una plantilla tomando como ejemplo la publicada en la página antes citada, en donde evaluamos el proceso de corte en la empresa Grupo Octus S.A.S, identificamos los pasos claves del proceso, cual es el impacto de las variables de los pasos clave cuando hay un fallo, una vez se identificaron las fallas y sus causas recomendamos unas acciones las cuales se aplicarán para evaluarlas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y de aplicación del método FMEA para identificar, intervenir y solucionar problemas presentados en el área de producción de la empresa Grupo Octus S.A.S, se alcanzo ha aplicar y evaluar las acciones recomendadas en el área de Ploter donde se mejoró la calidad en 7%, se espera que para las otras áreas de corte el porcentaje sea igual o superior.
Pineda López Cecilia, Instituto Politécnico Nacional
Asesor:Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales
ANáLISIS DE CONECTIVIDAD FUNCIONAL EN REGISTROS DE EEG DURANTE EL DESEMPEñO DE TAREAS ARITMéTICAS MENTALES
ANáLISIS DE CONECTIVIDAD FUNCIONAL EN REGISTROS DE EEG DURANTE EL DESEMPEñO DE TAREAS ARITMéTICAS MENTALES
Pineda López Cecilia, Instituto Politécnico Nacional. Asesor: Mg. Isabel Cristina Echeverri Ocampo, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La electroencefalografía (EEG) es un método de registro de datos electrofisiológicos no invasivo, fácil de realizar, repetible y sin ninguna contraindicación médica. Medir las variaciones de actividad eléctrica de ensambles neuronales puede ayudar a explorar el mecanismo de participación y cooperación entre las diferentes áreas del cerebro, y establecer una relación funcional a través de la estimación de medidas dinámicas de conectividad funcional.
Por otro lado, las enfermedades cerebrales adquiridas, representan un problema de salud pública de alto costo, por lo que existe un gran interés en la búsqueda de evidencias que describen las variaciones de la conectividad funcional entre diferentes regiones del cerebro, al realizar tareas específicas.
El estudio de registros de EEG durante la ejecución de tareas aritméticas mentales, es un gran ejemplo para estimar la conectividad funcional, pues aunque el sentido numérico se asocia al lóbulo parietal inferior del cerebro, la resolución de cualquier tarea aritmética, no supone la activación de una única área cerebral, sino la participación de distintas áreas.
Esta relación entre diferentes regiones del cerebro, se puede estimar mediante la aplicación de técnicas de procesamiento de señales aplicados a registros de electroencefalograma
METODOLOGÍA
Adquisición y descripción de la base de datos: Se trabajó con una base de datos de libre acceso, con registros de EEG de 36 sujetos sanos, antes y durante la realización de tareas aritméticas mentales.
Los registros de EEG fueron grabados utilizando un Sistema de EEG monopolar de 23 canales Neurocom, con una frecuencia de muestreo de 500 Hz y de acuerdo con el esquema internacional 10/20.
Durante la grabación, los participantes se sentaron en una cámara oscura insonorizada, reclinados en un sillón. Las tareas aritméticas en este estudio involucraron la resta serial de dos números, los cuales, fueron comunicados oralmente, y se les pidió a los participantes que contaran mentalmente, sin hablar o usar movimientos con los dedos.
Con base en el número de operaciones aritméticas realizadas por minuto, la muestra fue dividida en dos grupos: B, para quienes la tarea propuesta se consideró difícil; y G, quienes la realizaron sin ninguna dificultad.
Preprocesamiento: Implementando el lenguaje de programación Python, se removieron los artefactos de EEG, como el ruido electromagnético y el ruido ocular. El primero, utilizando un filtro pasa bandas de 1 a 30 Hz; mientras que el ruido ocular, fue removido mediante un Análisis de Componentes Independientes (ICA, por sus siglas en inglés).
Posteriormente, se separó la señal en bandas de frecuencia, aplicando filtros pasa banda con las siguientes frecuencias:
Delta (1 a 4Hz)
Theta (4 a 8Hz)
Alfa (8 a 14 Hz)
Beta (14 a 30 Hz)
A continuación, se eligieron las bandas relacionadas con la actividad cerebral que implica la resolución de tareas aritméticas, las cuales fueron alpha y beta.
Estimación de la conectividad funcional: Se crearon épocas de 30 segundos, y mostraron los topogramas correspondientes a la actividad en las 4 bandas de frecuencia.
Utilizando la librería mne, se estima la conectividad de las bandas seleccionadas mediante dos medidas de conectividad (coh-corr).
CONCLUSIONES
De manera general, en todas las bandas se muestra mayor actividad durante la ejecución de las operaciones aritméticas mentales, y esto es más evidente en las bandas alpha y beta.
Antes de realizar la tarea asignada, en la banda alpha se observa mayor actividad en los canales parietal (p4) y occipital (O2) durante los últimos minutos de la grabación, sin embargo, en el registro correspondiente a la ejecución de las operaciones aritméticas mentales, es evidente un incremento de la actividad en el canal frontal anterior (Fp1 y Fp2) desde los primeros segundos.
Por otro lado, en la banda beta, las diferencias son más notorias, pues se observa mayor actividad en los canales frontales (Fp1, Fp2, F3, F4, F7) durante la ejecución de la actividad, desde los primeros segundos y permanece constante hasta el término de la grabación.
Se espera que, al estimar la conectividad funcional, se puedan identificar las regiones cerebrales relacionadas con la resolución de tareas aritméticas mentales: el lóbulo parietal y el lóbulo frontal.
Pineda Mears Carolina, Universidad Autónoma del Estado de México
Asesor:Dr. Adalberto Jose Ospino Castro, Universidad de la Costa
ESTUDIO DE PREFACTIBILIDAD DE ENERGÍA EÓLICA OFFSHORE EN LA REGIÓN CARIBE COLOMBIA
ESTUDIO DE PREFACTIBILIDAD DE ENERGÍA EÓLICA OFFSHORE EN LA REGIÓN CARIBE COLOMBIA
Pineda Mears Carolina, Universidad Autónoma del Estado de México. Asesor: Dr. Adalberto Jose Ospino Castro, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Con el paso de los años las energías renovables se han vuelto una clave fundamental para la lucha contra el cambio climático y como la puerta principal a la llamada descarbonización, la cual tiene como objetivo alcanzar un sistema energético con cero emisiones de CO2 netos para el 2050; para ello, las energías renovables toman el papel protagonista.
La energía eólica ha destacado en las últimas décadas, gracias a su acelerado desarrollo tecnológico y su incremento de producción e instalación a nivel mundial, que por consecuencia ha reflejado un declive de costos de producción; estos factores de la mano con el creciente compromiso global para combatir el cambio climático han puesto a esta fuente energía en la mira de las grandes potencias apostando fervientemente en su producción.
Dentro de este tipo de energía se cuentan con dos vertientes: la producción Onshore y Offshore, con la diferencia que su instalación es en tierra y en alta mar. Actualmente el desarrollo tecnológico como su capacidad instalada a nivel mundial de la energía Onshore es considerablemente alto a comparación en la Offshore. Es por ello por lo que surge la necesidad de estudios de prefactibilidad para el desarrollo de esta tecnología a lo largo de todo el mundo.
Colombia cuenta con un gran potencial de recurso eólico tanto onshore como offshore, no obstante, de este último los estudios son escasos; por lo que, este trabajo busca obtener las zonas disponibles para el posible desarrollo de parque eólicos tipo offshore en la zona Caribe de Colombia.
METODOLOGÍA
Para realizar este estudio se siguió la metodología a continuación:
Con base a la literatura se seleccionaron las variables aplicables para el desarrollo de parque eólicos tipo offshore en la región del Caribe colombiano.Las varibales consideradas en el estudio fueron: recurso eólico, atimetría, áreas naturales protegidas, especies amenazadas, ruta de huracanes, puertos y rutas marítimas.
Con base al recurso eólico, la zona a estudiar abarcó toda la zona costero-marina de los Departamenos de Bolívar, Atlántico, Magdalena y la Guajira; la cual se seccionó en 9 partes con la finalidad de obtener resultados más detallados.
Por medio de las plataformas como: Global Wind Atlas, INEVAR y NOAA, se obtuvieron imágenes de mapas de las variables obtenidas de la zona a estudiar.
Se realizó la superposición de imágenes de los mapas por medio del programa QGIS y posteriormente se eliminaron las zonas no disponibles para el desarrollo de parques eólicos tipo offshore.
CONCLUSIONES
Con base a los mapas obtenidos y a los criterios en la literatura, se puede concluir que las ZCM con mayor área disponible para el desarrollo de parques eólicos tipo offshore son las del Departamento de la Guajira junto con las del Departamento de Atlántico.
Dicho lo anterior, es importante resaltar que pese a la posibilidad de un desarrollo en las áreas obtenidas, es fundamental estudios a profundidad de otro tipo de variables, por ejemplo: Los impactos ambientales en la zona a construir, ya que se deben considerar variables principalmente como: rutas migratorias de la fauna marina y de aves, impactos a la fauna de ruido y vibraciones; también , como se mencionó anteriormente, el estudio de las variables geográficas es fundamental para la instalación de los aerogeneradores, ya que las condiciones del lecho marino determinan el tipo de instalación y la logística de construcción; por último, la instalación eléctrica, el cableado y conexión a la red también pueden alterar los ecosistemas que se encuentren en la costa de la zona a construir.
Notablemente Colombia cuenta con un gran recurso eólico offshore el cual debe considerarse y aprovecharse para cumplir con sus objetivos de transición energética para el 2050.
Pino Arango Juan Pablo, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
COMPARACIóN DE LA EFICIENCIA DE REMOCIóN DE CONTAMINANTES DE LA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES DE HUMEDALES ARTIFICIALES DE LA DACBIOL Y LA HUERTA
COMPARACIóN DE LA EFICIENCIA DE REMOCIóN DE CONTAMINANTES DE LA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES DE HUMEDALES ARTIFICIALES DE LA DACBIOL Y LA HUERTA
Pino Arango Juan Pablo, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
El agua residual utilizada para uso doméstico o industrial puede llegar a ser un recurso inestimable para satisfacer la creciente demanda de agua dulce y diversas materias primas (ONU,2017). En los últimos años la extracción intensiva ha favorecido procesos como: instrucción de agua de mar y propagación de contaminantes de fuentes puntuales. (Martínez Austria et al., 2019). De acuerdo con esta problemática se han buscado diferentes alternativas para tratar tanto aguas industriales como domésticas. La gran mayoría de tratamientos demandan un alto consumo energético y altos costos (osmosis inversa, destilación, coagulación, lodos terciarios). (Buitrago et al. 2018). Por lo que se ha optado por otro tipo de sistemas más ecológicos como lagunas de oxidación y humedales artificiales, presentando grandes ventajas como bajos costos de operación y altas eficiencias de remoción de contaminantes y microorganismos patógenos. (Mena-Sanz, 2008)
METODOLOGÍA
Se elaboró una búsqueda de artículos en bases de datos tales como: Google académico, SciELO, SciencieDirect, revista iberoamericana de ciencias Biológicas y Agropecuarias y en publicaciones hechas por catálogos científicos por parte de la Universidad Juárez Autónoma de Tabasco (UJAT).
El proceso en la planta de tratamiento de la DacBiol inicia en un cárcamo recolector, este almacena y distribuye el agua hacia cada uno de los trenes que componen el humedal, las dimensiones de esta unidad son de: 25 metros de largo, 2.5 metros de ancho, 1.10 metros de altura, dividida cada sección en 8.33 metros con un margen de 10cm para el paso del agua entre las canaletas. El primer reactor usa un tirante de 0.5 m en el humedal de flujo subsuperficial del tren 2 (HAFS1-T2), para las dos siguientes secciones el tirante es de 0.3m para el humedal de flujo libre de la segunda sección del tren 2(HAFL2-T2) y de 0.30m de tirante el humedal de flujo libre de la sección 3 del tren 2(HAFL3-T2). Respecto a las plantas utilizadas en la cada una de las secciones, el primer reactor cuenta con una vegetación de Pontederia cordata (Tule), el segundo reactor con una vegetación de Thalia geniculara (popal) y el último con Sagitaria lancifolia (cola de pato).
La planta de tratamiento de aguas residuales del Fraccionamiento la Huerta inicia en el cárcamo, el cual mediante sus rejillas elimina los sólidos más gruesos, luego el agua se transporta mediante bombeo hacia los reactores anaerobios que eliminan los sólidos suspendidos, previo a su llegada el agua es depositada a un sistema de cribas finas donde se eliminan partículas de menor tamaño (Diámetro= 0.5 cm). El sistema transcurre en dos humedales artificiales de flujo libre (HAFL) en serie, con un tirante operativo de 0.6m, por último, finaliza en un serpentín de algas (SA).
Durante la estancia en la planta de tratamiento de la DacBiol se llevó un proceso continuo de limpieza de canaletas, materia orgánica y solidos externos, además, se hizo una caracterización en el tamaño de la vegetación en cada uno de los reactores. Se llevo el control de 5 vegetaciones en cada uno de los reactores donde se analizó rasgos como: Pseudotallo, altura, numero de hoja, diámetro de vegetación, diámetro de tallo, largo de hoja y ancho de hoja.
Los parámetros de control que se establecieron al momento de realizar los procedimientos analíticos están señalados en la normatividad oficial mexicana y en los métodos estandarizados por la EPA. Para lograr reducir errores al momento de la experimentación, las pruebas se efectúan por triplicado. Para evaluar la eficiencia en cada una de las secciones del humedal se aplica la siguiente metodología, para cualquier sustancia dada se puede aplicar el cálculo de la eficiencia requerida y la eficiencia de proceso de remoción mediante la ecuación: ᵑp= ((C1-C2) /C1) * 100 (Metcalft y Eddy 1996)
CONCLUSIONES
Frente a la caracterización de la vegetación, no se logró llevar a cabo el seguimiento esperado,debido a las altas temperaturas que hubo en esta temporada y la disminución de nutrientes por la falta de agua residual, lo que ocasiono que gran parte de la vegetación se secara, muriera o quebrara.
En la planta de tratamiento de aguas residuales vía humedales de la DacBiol, para los reactores 2 y 3 a causa de la vegetación que se encontraba en el flujo del humedal, algunos valores de los parámetros de calidad de agua como: pH, temperatura, conductividad, SDT, color, turbiedad y ORP se tornan más altos a lo habitual. Con valores de eficiencia en el reactor 2 del 3%, -9.2%, -2.1%, -17.4%, -9.1%, -4.8% y 104.8%, para el reactor 3 valores respectivos del -1.1%, -0.2%, 8.8%, 18.66%, 27.56%, 9.3% y -493.33%.
Para la planta de tratamiento de agua residual del Fraccionamiento la Huerta, se realizó el primer muestreo el 17 de junio del año presente. De acuerdo con los resultados que se dan a partir de los parámetros de calidad de agua, se manifiesta con urgencia un mantenimiento provisorio y enmendador en los HAFL, puesto que los valores de los parámetros de pH, temperatura, conductividad, SDT, color, turbiedad y ORP arrojan algunos porcentajes de remoción negativos, los para el HAFL fueron del 1%,1.2%, -128.5%, -124.1%, -65%, -217.4% y -115.6%, para el SA del -16%, -1.2%, 27. 3%, 27.4%, 4.2%, 76.1% y 57.4%.En el 24 junio se realizaron los segundos análisis sobre la calidad del agua. En este caso se presenta la misma deficiencia en los (HAFL). Por otra parte, la sección de cloración con base en algas tuvo una menor eficiencia en la remoción de los contaminantes en comparación con los análisis hechos anteriormente, presentando porcentajes de eficiencia para el HAFL del 2.6%,3.5%, -154.4%, -154.5%, -36.5%, -242.45% y -472.12%, para el SA del -10.64%, -1.9%,4.5%,4.4%, -51.6%,47.11% y 75.29%.
Los humedales artificiales son una buena iniciativa enfocada al tratamiento de aguas residuales industriales y domésticas, pero para lograr obtener altas eficiencias en la remoción de contaminantes se debe tener seguimiento continuo en la vegetación y limpieza del humedal.
Plascencia Barajas Evelin Teresa, Instituto Tecnológico Superior de Los Reyes
Asesor:Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
DISEñO DE PLANTA DE JUGOS DE BERRIES ALIMENTADA CON PANELES SOLARES
DISEñO DE PLANTA DE JUGOS DE BERRIES ALIMENTADA CON PANELES SOLARES
Plascencia Barajas Evelin Teresa, Instituto Tecnológico Superior de Los Reyes. Asesor: Mtro. Juan Angel Ramos Ixta, Instituto Tecnológico Superior de Los Reyes
PLANTEAMIENTO DEL PROBLEMA
La contaminación ambiental es un problema que afecta gravemente en el siglo XXI, siendo el causante de diversas enfermedades y desapariciones de diferentes especies. La mayor cantidad de contaminación generada en el planeta es emergente de fábricas industriales, las cuales tienen grandes repercusiones en el ecosistema.
En base a la economía nacional se tiene que la alimentación de una fábrica llega a ser uno de los gastos más grandes que tienen que solventar, al plantear que sean alimentados por paneles solares no sólo ayudamos a eliminar emisiones dañinas al ambiente, sino que resulta ser una inversión muy redituable a mediano plazo.
Actualmente la energía sustentable brinda una alternativa para dejar de contribuir con estos efectos causados por las contaminación, por lo que durante en este verano de investigación se realizó el estudio de un diseño de planta elaboradora de jugos de frambuesa totalmente alimentada por paneles solares, emigran todas las actividades hacer alimentadas por este sistema.
Los paneles solares o paneles fotovoltaico son utilizados para generar energía eléctrica, aprovechando la radiación solar para la captación de energía usada en distintos dispositivos, es una de las soluciones a la alimentación de energías sustentables.
METODOLOGÍA
Se utilizó diversas herramientas de gestión de la calidad para obtener un planteamiento general y de ahí partir a objetivos específicos. Se utilizó diagramas de flujo para representar la operación y poder determinar cada uno de los pasos que se necesitaba para la elaboración del jugo de frambuesa. Seguido de la investigación de cada una de las máquinas y equipos necesarios para poder generar la operación satisfactoriamente, todas estas máquinas tienen que trabajar con energía eléctrica, que a su vez serán alimentados por paneles solares. Posterior a ello se utilizó diagramas de proceso para determinar el tiempo y movimientos de operación necesario para la elaboración de cada una de estas operaciones, seguido de un manual de operaciones el cual nos indica objetivos, alcances, frecuencias, responsables y un procedimiento descrito de cómo es que se debe de utilizar cada una de estas máquinas y como se debe de realizar cada una de estas operaciones, detallando lo mejor posible para que cada uno de los operarios pueda recurrir a este manual en caso de dudas.
Una vez determinada las máquinas y espacios necesarios según la producción, se realiza una distribución de planta la cual nos permitirá agilizar la operación evitando cuellos de botella.
Por último se realizó los cálculos necesarios para determinar el consumo de energía eléctrica necesario para el óptimo funcionamiento de la planta.
Los paneles solares están conformados por numerosas celdas que convierten la luz solar en energía eléctrica.
La cantidad de energía eléctrica que pueden producir estos paneles solares depende principalmente del brillo solar y la eficiencia de estas celdas.
CONCLUSIONES
Durante la estancia de investigación se logró adquirir conocimientos teóricos de los procesos necesarios para elaboración de jugo de frambuesa, Los equipos utilizados para su óptimo funcionamiento, el tiempo necesario para poder realizar la producción requerida, al mismo tiempo la cantidad de operarios, espacios previos para agilizar el flujo de las operaciones y la cantidad de paneles solares para su funcionamiento.
Gracias a esto se espera que la planta funcione y en óptimas condiciones al igual que sea 100% sustentable.
Plata de Jesús Yocelin, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico
MóDULO PARA LA ADQUISICIóN DE DATOS ALOJADOS EN SERVIDORES FTP Y SERVIDORES DE CORREO.
MóDULO PARA LA ADQUISICIóN DE DATOS ALOJADOS EN SERVIDORES FTP Y SERVIDORES DE CORREO.
Plata de Jesús Yocelin, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
El presente proyecto de investigación consiste en, la creación de un módulo para la adquisición de datos alojada en un servidor FTP y servidores de correo. Este módulo permite el envío de correos mediante el servidor FTP conectados a Python Django, también se pretende descargar y subir archivos enviados por el adquisidor de datos. Para ello, los valores deben estar ubicados en una base de datos, organizados por la hora y fecha, esta base de datos será utilizada para poder realizar consultas de los datos que se almacenarán, así una vez encontrado el archivo, el software extraerá los archivos que se encuentran dentro. El diseño del software es bastante amigable e intuitivo y para entrar en él, solo se podrá la dirección IP del servidor FTP. Una vez dentro, es necesario asignar un usuario con contraseña para poder acceder a la información. Se optó por este modo para resguardar la información y restringir la entrada a personas ajenas al proyecto, así mismo se enviaría con facilidad un correo electrónico sin la necesidad de entrar al correo de Gmail, Outlook, entre otros. El software será administrado solo por una persona la cuál decidirá si la persona que se registra estará habilitada para acceder a la visualización de los datos.
METODOLOGÍA
La implementación de la propuesta de solución está dividida en cuatro fases y se detallan a continuación:
Fase 1: Requerimientos.
A continuación, se describen las actividades que se llevarán a cabo para el desarrollo del proyecto de investigación, durante la primera fase
Identificar los requerimientos que el desarrollador requiere para el software.
Indagar los requerimientos que el productor requiera para el software.
Aplicar los elementos de Investigación.
Implementar los elementos de investigación.
Fase 2: Selección de las tecnologías
En esta fase, se pretende identificar la selección del equipo de trabajo adecuado para el software.
Fase 3: Instalación y configuración
Una vez seleccionado el hardware y software a utilizar se procede a la instalación y configuración del equipo de trabajo y softwares.
Fase 4: Pruebas
En esta última fase, se realizan las pruebas de la funcionalidad del proyecto, por ejemplo, las pruebas de asignación de direccionamiento IP, pruebas con el navegador para acceder al sitio Web, las políticas de seguridad de acceso a Internet, entre otras.
CONCLUSIONES
El presente proyecto se llevó a cabo implementando un servidor FTP en donde se trabajó en una máquina virtual con el sistema operativo Linux Ubuntu, esto con la finalidad de tener una menor inversión en los Hardware, y una mayor optimización de estas herramientas utilizadas a fin que se tenga una estrategia de innovación del proceso de protección de la información en las organizaciones.
El servidor FTP desde su llegada a revolucionado mucho en la forma de transferir archivos entre hosts. Para establecer una buena conexión mediante el modelo cliente/servidor se deben llevar a cabo una serie de pasos: como crear sockets, y deben ser nombrados el en el servidor, y el cliente debe solicitar la conexión, así se establece una conexión con el servidor, y el cliente como el servidor pueden enviar y recibir datos y archivos y por último finalizar la comunicación.
Python tiene una serie de características que lo hacen muy particular y que, sin duda, le aportan muchas ventajas y están en la raíz de su uso tan extendido y este puede combinar propiedades de diferentes paradigmas de programación. El desafío está en acortar los tiempos de desarrollo, mejorando la mantenibilidad y calidad del código. Python pone foco en esto, facilitando la vida a los desarrolladores.
Plata Vega Gerardo, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN EL ESTADO DE MéXICO.
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN LA INDUSTRIA 4.0 EN EL ESTADO DE MéXICO.
Plata Vega Gerardo, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
En México solo el 5% de la industria entienden y hacen uso de la industria 4.0. Lo que nos hace pensar ¿Qué nivel se requiere para poder estar calificados ante la industria 4,0?, ¿Cómo es la enseñanza en las universidades de México?, ¿Qué método de enseñanza se ocupan en las universidades? Y ¿Cómo se puede mejorar la preparación y enseñanza en cuestión de la industria 4,0?
METODOLOGÍA
Se formulo una herramienta de medición digital, debido al resguardo sanitario por el SARS-COV-2, se aplicó de manera digital con los cuestionarios en línea de Google/Gmail, dicho cuestionario fue enviado a profesionistas que pudieran o no estar ligados a la industria 4.0 en el Estado de México en el cual se podrá medir la opinión y conocimiento acerca de la forma y nivel de enseñanza y acercamiento a la industria 4.0, el impacto social de la industria 4.0, la huella ambiental, el factor motivacional. Teniendo un total de 28 participantes en dicho estudio. La participación fue de 5 profesores, 12 profesionistas, 5 Directivos industriales y 6 de publico en general, los cuales 23 de sexo masculino y 5 de sexo femenino. El nivel educativo de los participantes fue 5 Técnicos, 12 Con licenciatura, 8 con Posgrado y 3 con Doctorado. Los participantes tienen un promedio de 2 a 5 años de participación y/o ejercer su profesión en el campo de la industria 4.0, el 52 % de los participantes se enfocan en automatización, inteligencia artificial y ciberseguridad áreas de mayor peso en la industria 4.0.
Se considera a un 86% que los planes de estudio de las carreras relacionadas a la industria 4.0 están completos y competentes para ejercer en el campo y poder innovar en sus procesos. El 35% comenta que los planes de estudios deberían ser actualizados ya que se pueden potencializar más, un 34% considera intermedia la actualización de los planes de estudio. El 43% considera que los planes de estudio actuales influyen para la digitalización de los procesos. El 46% considera que los planes de estudio contemplan la cantidad suficiente de horas practicas en las universidades para el aprendizaje en campo real acerca de la innovación industrial.
En la cuestión de la infraestructura se considera un 53% que no se cuentan con los equipos necesarios y/o correctos pata poder aprender sobre la industria 4.0 en las instituciones educativas del Estado de México, por lo que se llega a dificultar el llevar los conocimientos teóricos a la práctica, y los pocos equipo y laboratorios con lo que cuentan las instituciones educativas el 51% no son de calidad o se encuentran en reparación o descompuestos, por lo no es posible ocuparlos. Un 50% considera que no se cuenta con la red suficiente de internet en sus zonas por lo que se vuelve una limitante tanto para la indagación como para la comunicación. El 43% considera que las bibliotecas de las instituciones educativas no cuentan con suficiente y/o adecuado material de indagación para poder aprender más acerca de la industria 4.0. El 92% considera que no se asignan los recursos económicos y humanos para la actualización y mantenimiento de laboratorios y bibliotecas en las instituciones educativas que puedan ejercer las carreras relacionadas con la industria 4.0
Ante el actual mercado laboral el 67% considera que no se tienen candidatos competitivos ante la demanda considerable por vacantes ofertadas ante el campo de estudio de la industria 4.0, ya que no cuentan con los conocimientos necesarios para desempeñar un cargo de valor ante la industria 4.0. El 94% considera que se deben de ofertar más cursos de capacitación y talleres de entrenamiento ante la industria 4.0 y su exigencia de personal calificado. El 50% considera que los puestos inmersos a la industria 4.0 cuentan con buenos salarios. El 82% considera que si se tienen oportunidades de crecimiento para todo aquel profesionista que se desempeñe en la industria 4.0. El 64% declara que no conoce de la promotoría y anuncio sobre capacitaciones en la industria 4.0. El 25% comenta que si tiene conocimiento de la agenda académica para la promoción a capacitaciones en la industria 4.0 y el 39% tiene comentario neutro. El 75% considera que ante la agenda pública, política y empresarial si se tienen conceptos y promotoría para la introducción de nuevo personal a la industria 4.0. El 33% considera que no hay participación por parte de las figuras políticas de la zona para el entrenamiento,
capacitación e inclusión de mas y mejores profesionistas en la industria 4.0.
El 65% considera que si se cuentan con becas para el apoyo de los estudiantes que quieran integrarse como profesionistas de calidad en la industria 4.0, aunque se considera que la mayoría de estas becas se las otorgan a las carreras mas trilladas, tal es el caso de ingeniería industrial. El 75% considera que la industria 4.0 si tiene un impacto notable en la huella ambiental, ya que se busca migrar al uso de las energías renovables, sustituyendo a los combustibles fósiles. El 82% considera que al adoptar el pensamiento y acciones de industria 4.0 favorecen a la seguridad e higiene del ser humano.
CONCLUSIONES
Ante la actual indagación acerca de los métodos y planes de estudio para la preparación de profesionistas, por parte de las instituciones educativas del estado de México a nivel superior, se pudo observar que tanto como los profesionistas, docentes y estudiantes afirman que la actual oferta de carreras y materias son las adecuadas y están dentro de los parámetros para poder aprender lo básico en las áreas de ingeniería aplicadas en la industria 4.0, pero hay una deficiencia enorme en cuestión a la infraestructura de las mismas, dichos defectos fueron mas notorios gracias al aislamiento social derivado de la pandemia por el SARS-COV-2 (Covid 19). Las universidades deben de estar en constante actualización y proyectar programas de mantenimiento en sus laboratorios y adquisición de material relevante a la industria 4.0 en sus bibliotecas. La industria 4.0 al implementar medidas estrictas de uso de insumos y materias se puede dejar una huella ecológica positiva ya que se disminuirían los contaminares, por lo que los índices de retrabajos y sobre trabajos por lógica deberían de bajar. Aumento la velocidad y calidad de producción en sus procesos, con las herramientas precisas como lo son los Iass, Saas, Pass, VR, IoT & AI, las actividades productivas se fortalecen generando mayore productos de calidad, con los procesos productivos controlados.
Polo Ahumada Daniel, Corporación Politécnico de la Costa Atlántica
Asesor:Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan
ESTUDIO DE UN MODELO DE COBERTURA DE CONJUNTOS PARA LA UBICACIóN DE CáMARAS EN LAS LíNEAS DE PRODUCCIóN DE LA EMPRESA TEAM FOODS COLOMBIA
ESTUDIO DE UN MODELO DE COBERTURA DE CONJUNTOS PARA LA UBICACIóN DE CáMARAS EN LAS LíNEAS DE PRODUCCIóN DE LA EMPRESA TEAM FOODS COLOMBIA
Polo Ahumada Daniel, Corporación Politécnico de la Costa Atlántica. Asesor: Ing. Francisco Jesús Arévalo Carrasco, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Teniendo en cuenta la tendencia a la mejora continua, basamos está investigación en la aplicación de un modelo de cobertura de conjuntos conocido como Set Covering Problem (SCP) él cual busca minimizar la cantidad de elementos necesarios para cubrir la mayor cantidad de superficie posible de acuerdo a un conjunto de restricciones (Díaz & Rodríguez, 2013). En el caso de este trabajo se busca una mayor cobertura en la superficie de las líneas de producción a través del uso de cámaras de seguridad y así poder dar cumplimiento a las leyes y estándares exigidos en las industrias de alimentos que día a día evolucionan un poco más. Se tienen 5 líneas de producción unidas por unas bandas principales y se cuenta con 9 máquinas; -en cada máquina se debe verificar el producto mediante las cámaras, por lo que se tiene actualmente una cámara en cada máquina, y aun así existen algunos puntos ciegos dentro del recorrido por las líneas de producción- para así asegurar la cobertura total de la superficie, por lo tanto en este problema se busca minimizar el número de cámaras.
METODOLOGÍA
La primera actividad que se realizo fue conocer el Set Covering Problem (SCP) esto se realizó a través de la revisión de bibliografía e investigaciones realizadas sobre el tema, así como ejemplos de aplicación y de solución, posteriormente se buscó identificar algún problema de nuestra región en donde se pudiera aplicar el SPC, al tener una propuesta identificada se analizó para ver si las posibilidades de aplicar el SCP eran reales, lo cual resulto positivo, por lo que se procedió a diseñar el mapa gráfico de representación del problema donde se observa las cámaras así como su área de cobertura, el acomodo de las líneas de producción y sus máquinas , para esta actividad se utilizó el software PAINT, A partir del gráfico se planteó el modelo matemático de programación entera binario que representa el problema, se revisó varias veces, para estar seguros de que representa al problema planteado, dando un modelo de programación entera de 9 variables binarias las cuales representan las cámaras y 9 restricciones, como el modelo es relativamente pequeño se procedió a resolverlo mediante software, para este caso se utilizó el software solver de Excel el cual arrojo un resultado de 6 cámaras para la cobertura de las 9 máquinas en las líneas de producción. Una vez resuelto el modelo procedemos a mostrar los resultados gráficamente utilizando el software PAINT, El gráfico muestra como queda resuelto el problema mediante la solución encontrada.
CONCLUSIONES
La experiencia personal e intercultural en esta oportunidad del verano delfín, que aunque se llevó de manera virtual, se logró conocer, aprender y poner en práctica lo aprendido, -agregar otro granito de arena a mis objetivos a corto y largo plazo y enriquecer mi ciclo PHVA personal- logrando así el objetivo propuesto minimizar el número de cámaras de 9 a 6 teniendo una mayor cobertura al lograr además de la cobertura de cada una de las máquinas, minimizar también los puntos ciegos existentes. Este trabajo muestra un resultado en cuanto a la formulación del problema y su solución, faltando llevar esa propuesta de solución a la fase de prueba y posteriormente a la implementación, para lo cual se requiere mayor tiempo y obvio la decisión de la empresa para llevarlo a cabo.
Ponce Maza Esmeralda, Instituto Tecnológico Superior de Pánuco
Asesor:Dr. Hugo Arlés Macías Cardona, Universidad de Medellín
INNOVACIÓN TECNOLÓGICA EN LA INDUSTRIA MANUFACTURERA COLOMBIANA. ¿QUÉ HEMOS APRENDIDO EN DOS DÉCADAS?
INNOVACIÓN TECNOLÓGICA EN LA INDUSTRIA MANUFACTURERA COLOMBIANA. ¿QUÉ HEMOS APRENDIDO EN DOS DÉCADAS?
Ponce Maza Esmeralda, Instituto Tecnológico Superior de Pánuco. Asesor: Dr. Hugo Arlés Macías Cardona, Universidad de Medellín
PLANTEAMIENTO DEL PROBLEMA
Dentro del análisis del Departamento Administrativo Nacional de Estadística-DANE las empresas en Colombia muestran un bajo nivel de innovación, especialmente en lo que el DANE llama innovación en sentido estricto, que es donde se encuentran las empresas innovadoras que contemplan porcentajes muy bajos. Este tipo de innovación, que resulta más difícil de alcanzar para las empresas colombianas, es exclusivamente innovación de producto.
Hay una falsa percepción sobre altos niveles de innovación empresarial, la mayoría de las personas piensa que hay alta innovación en Colombia, sin embargo, los datos estadísticos muestran lo contrario.
Según Encuesta de Desarrollo e Innovación Tecnológica-EDIT durante las últimas dos décadas se reportan grandes porcentajes (mayores del 70%) de empresas no innovadoras, muestra gráficos donde contempla las empresas colombianas en la industria manufacturera que no innovan, ni tienen la intención de innovar.
METODOLOGÍA
Se desarrolló un grupo de actividades orientadas al cumplimiento de los objetivos específicos que se plantearon. En primer lugar, se estudiaron los referentes conceptuales internacionales, publicados por la Organización para la Cooperación y el Desarrollo Económicos-OCDE y conocidos como el Manual de OSLO. Ese manual, es una guía para la realización de mediciones y estudios de actividades científicas y tecnológicas e innovadoras, que se complementó con conceptos y términos relacionados con innovación en empresas manufactureras (diferentes a las empresas de servicios.
En segundo lugar, se llevó a cabo una revisión de literatura sobre innovación en Colombia, a partir de la cual se analizaron e interpretaron artículos de autores conocidos dentro y fuera del país e información obtenida que se interrelaciona con la innovación en Colombia.
Así mismo, se realizó una clasificación de información estadística utilizando Excel, recolectando datos obtenidos del Departamento Administrativo Nacional de Estadística-DANE, donde se encuentran encuestas realizadas por el EDIT (Encuesta de Desarrollo e Innovación Tecnológica). Esas encuestas se llevan a cabo cada dos años en todas las empresas manufactureras del país registradas, para evaluar la innovación respecto a variados aspectos. La encuesta incluye aspectos como tipos de empresas, obstáculos, resultados, financiación, personal ocupado, fuentes de ideas, propiedad intelectual, entre muchos más. Actualmente existen nueve ediciones de encuestas publicadas, donde se puede encontrar información de las últimas dos décadas en la industria manufacturera colombiana.
Dentro de toda la información encontrada en las encuestas, se focalizaron algunos resultados y actividades de innovación, basándose en la definición establecida por el Manual de OSLO, que menciona que, para evitar confusiones, hay que diferenciar "Actividades de innovación", que se refieren al proceso, del término "innovación", que se limita a los resultados.
Posteriormente, se analizó la información clasificada, a la luz de la literatura y el marco teórico conceptual, de toda la información proporcionada en los archivos. Nos centramos en temas de gran relevancia, como lo son porcentajes y datos estadísticos de empresas innovadoras en sentido estricto, innovadoras en sentido amplio, potencialmente innovadoras, no innovadoras y todos sus comportamientos, para poder analizar mas a detalle porque se dan los altos porcentajes de empresas no innovadoras desde varios años atrás.
Otro punto de relevancia analizado en detalle en la investigación fue la importancia de los obstáculos que enfrentan las empresas para no poder innovar y la evaluación en años pasados para ver si existe alguna tendencia o repetitividad de algunos obstáculos. Y así poder colaborar con el Objetivo de Desarrollo Sostenible ODS-9 Industria, Innovación e infraestructura.
CONCLUSIONES
Durante la estancia de verano se logró la familiarización con los conceptos básicos de innovación y su aplicación en la industria manufacturera de Colombia. Uno de los enfoques fue la descripción de los resultados que han alcanzado las empresas colombianas en materia de innovación, así como el análisis de las oportunidades que las empresas han aprovechado y uno de los resultados importantes de esta investigación es el de identificación de las barreras para innovar que han encontrado las empresas de Colombia, en años recientes. Con base en la investigación realizada, se llegó a ciertas conclusiones como lo son que la mayoría de las empresas industriales en Colombia no innovan, ni hacen esfuerzos por conseguirlo de acuerdo a los porcentajes analizados. También se identificó que los productos nuevos o mejorados que se generan, son nuevos para las empresas, pero no para el mercado local y menos para el internacional. Dentro del análisis de datos estadísticos, se concluyó que solo una minoría de empresas grandes (menos de 20 entre 8000) consiguen introducir productos nuevos en el mercado internacional.
Posada García Jesús David, Universidad Mexiquense del Bicentenario
Asesor:Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo
IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE Y DE LICENCIA EN ENTORNOS IOT.
IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE Y DE LICENCIA EN ENTORNOS IOT.
Posada García Jesús David, Universidad Mexiquense del Bicentenario. Trujillo Moreno Ubeimar, Dirección Nacional de Escuelas de la Policía Nacional. Asesor: Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Es un hecho que la humanidad a evoluciona con gran rapidez en la actualidad la tecnología es fundamental para el estilo de vida con la llegada de la industria 4.0 tecnologías que parecen de ciencia ficción son posibles de realizar como el internet de las cosas (IoT).
El Internet de las cosas, IoT por sus siglas en inglés (Internet of Things) es una tecnología que ha adquirido mucha presencia y una muy buena aceptación debido a su gran cantidad de usos en entornos del hogar, oficinas, la industria como también en las ciudades. Sin duda un concepto bastante versátil con mucho potencial una de sus principales características es la automatización que puede crear un ambiente futurista como también de ficción otorgando la sensación que puedes ser un millonario, playboy que lucha contra el mal. La idea en esencia es muy buena con un gran propósito pero aquí es donde se presenta un problema de grandes magnitudes debido a la enorme aceptación y adopción de la tecnología se ha olvidado la implementación de elementos importantes como la seguridad.
En esencia la seguridad de IoT no es muy diferente a la de una red típica de computadoras. En la práctica se presentan una gran cantidad de problemas como la limitación computacional de los dispositivos IoT esto impide el uso de software o sistemas robustos de seguridad. Otro factor es la cantidad de dispositivo que están en la red IoT y el número de interacciones que complican el problema. No obstante existen herramientas y métodos que pueden solucionar este tipo de escenarios. En este trabajo se propone la implementación de firewalls de software libre o de licencia como medida de seguridad entre la red IoT y el internet.
METODOLOGÍA
Diseño de prototipos con ayuda de Metodología de PPDIOO
Se diseñó un entorno de red cliente- servidor y para verificar el tráfico de red se apoyó de la metodología PPDIOO, es cual sus faces indican lo siguiente:
PREPARACIÓN
Esta fase crea un caso de negocio para establecer una justificación financiera para la estrategia de red. La identificación de la tecnología que soportará la arquitectura.
PLANEACIÓN
Esta segunda fase identifica los requerimientos de red realizando una caracterización y evaluación de la red, realizando un análisis de las deficiencias contra las mejores prácticas de arquitectura. Se elabora un plan de proyecto desarrollado para administrar las tareas, asignar responsables, verificación de actividades y recursos para hacer el diseño y la implementación. Este plan de proyecto es seguido durante todas las fases del ciclo.
DISEÑO
Desarrollar un diseño detallado que comprenda requerimientos técnicos y de negocios, obtenidos desde las fases anteriores. Esta fase incluye diagramas de red y lista de equipos. El plan de proyecto es actualizado con información más granular para la implementación.
IMPLEMENTACIÓN
Acelerar el retorno sobre la inversión al aprovechar el trabajo realizado en los últimos tres fases a medida que se van integrando nuevos dispositivos sin interrumpir la red existente o crear puntos de vulnerabilidad. Cada paso en la implementación debe incluir una descripción, guía de implementación, detallando tiempo estimado para implementar, pasos para regresar a un escenario anterior en caso de falla e información de referencia adicional.
OPERACIÓN
Esta fase mantiene el estado de la red día a día. Esto incluye administración y monitoreo de los componentes de la red, mantenimiento de ruteo, administración de actualizaciones, administración del desempeño, e identificación y corrección de errores de red. Esta fase es la prueba final de diseño.
OPTIMIZACIÓN
Esta fase envuelve una administración pro-activa, identificando y resolviendo cuestiones antes que afecten a la red. Esta fase puede crear una modificación al diseño si demasiados problemas aparecen, para mejorar cuestiones de desempeño o resolver cuestiones de aplicaciones.
CONCLUSIONES
Con esto podemos mencionar que la seguridad del internet de las cosas IoT es algo que se debe tener presente es por eso que se deben tener en cuenta las capacidades de los dispositivos al implementar firewalls de software libre y de licencia en una red IoT y el internet se protege el tráfico de datos o instrucciones creando una buena propuesta de seguridad. Pero recordemos los firewalls no tiene la seguridad al 100%. Pero en general la propuesta del proyecto es innovadora y muy útil.
Potenciano Anlehu Mauricio, Universidad Veracruzana
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
SISTEMA DE RECOLECCIóN, FILTRACIóN Y ALMACENAMIENTO DE AGUAS GRISES PARA SU REUTILIZACIóN EN EL W.C.
SISTEMA DE RECOLECCIóN, FILTRACIóN Y ALMACENAMIENTO DE AGUAS GRISES PARA SU REUTILIZACIóN EN EL W.C.
Potenciano Anlehu Mauricio, Universidad Veracruzana. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Las aguas subterráneas abastecen de agua potable por lo menos al 50% de la población mundial y representan el 43% de toda el agua utilizada para el riego. 2,500 millones de personas dependen exclusivamente de los recursos de aguas subterráneas para satisfacer sus necesidades básicas diarias de agua.
Gran porcentaje de esta agua destinada para uso doméstico es utilizada en la descarga de los inodoros, cada W.C convencional puede descargar hasta 9 litros en cada uso. Si analizamos este panorama, estamos utilizando una gran cantidad de agua en un solo mueble del hogar.
Las aguas grises o jabonosas se generan en las actividades cotidianas de aseo personal y del hogar. Las aguas grises son aguas que provienen únicamente de lavabos, fregaderos, lavaderos, regaderas y lavadoras.
Normalmente, estas aguas no son tan peligrosas para la salud o el medio ambiente como las aguas negras (que son las que provienen de los escusados / WC / inodoros), pero sí contienen cantidades significativas de nutrientes, materia orgánica y bacterias. Por lo tanto, si no reciben un tratamiento previo a su descarga o reutilización, tienen efectos nocivos como riesgos a la salud, contaminación del medio y mal olor.
METODOLOGÍA
Entre las plantas que se utilizan para este proceso se encuentran la caña de las Indias (Canna indica), ave del paraíso (Strelitzia reginae) y agapanto africano (Agapanthus africanus).
Además, para la realización del filtro de partículas sólidas como restos de comida se utilizarán piedras de 50 a 75 mm y de 19 a 25 mm tales como grava y tezontle; así como el sustrato para las plantas.
En 3 recipientes con forma rectangular con capacidad de 30L aproximadamente se adaptaron para poder realizar el biofiltro. En cada uno de ellos se colocaron 3 plantas de cada especie.
Durante 6 días, se administraron 2L de aguas grises midiendo antes el pH, posterior a la salida de las aguas se determina su volumen y su pH.
Posterior a los 6 días se observó físicamente el estado de las plantas (el color de las hojas, su tamaño, entre otras).
El pH es monitoreado debido a que las aguas grises contienen nutrientes como nitrógeno y fósforo (que vienen principalmente de los detergentes y jabones). Las plantas se pueden alimentar de estos nutrientes, tomándolos del agua y aprovechándolos para su crecimiento. Estos nutrientes modifican el pH natural del agua.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la reutilización de las aguas grises provenientes de lavabos, fregaderos, regaderas, etc.
Con ayuda de las fuentes bibliográficas puedo concluir también que es necesario la ayuda de una trampa de grasas. La trampa tiene dos funciones: retener las grasas, que forman una nata en la superficie del agua, y sedimentar los sólidos, que se asientan en el fondo. De esta forma, la trampa protege el filtro, pues evita que éste se tape.
Para evitar olores la trampa de grasas debe contar con una tapa que permita, a su vez, la aeración. El buen funcionamiento de este sistema requiere que se remueva la nata de grasa una vez al mes, utilizando una coladera. Una vez hecho esto, se puede enterrar la nata o incorporarla a la composta.
El mantenimiento del filtro es como el de una jardinera normal: es decir, podar las plantas cuando se requiera y, en caso de que no haya suficiente producción de agua, regarlas.
Pozos Patraca Alberto, Universidad Veracruzana
Asesor:Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
SIMULACIóN DE SISTEMAS ACOPLADOS
SIMULACIóN DE SISTEMAS ACOPLADOS
Camacho Vargas Valeria Itzel, Instituto Politécnico Nacional. Ojeda Moreno Oscar David, Instituto Tecnológico de La Piedad. Pozos Patraca Alberto, Universidad Veracruzana. Asesor: Dr. Roberto Briones Flores, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
El flujo de un fluido puede ejercer presión y/o cargas dinámicas sobre los elementos estructurales. Estas cargas pueden causar una deformación estructural lo suficientemente significativa como para alterar el flujo del fluido en sí. Los efectos no deseados en una estructura pueden aumentar a medida que aumenta el nivel de interacción fluido-estructura. Con la simulación ANSYS puede obtener una comprensión más profunda de los fenómenos que ocurren para garantizar la seguridad, la fiabilidad y la longevidad.
Para los problemas de interacción fluido-estructura, se pueden utilizar simulaciones FSI (Fluid Structure Interaction) acopladas. Las simulaciones de fluido y estructurales se configuran y resuelven al mismo tiempo. Un ejemplo de esto sería calcular el flujo alrededor de un ala de un avión y transferir las cargas de presión para resolver la deformación estructural. La deformación estructural sería transferida nuevamente a la simulación CFD (Computational Fluid Dinamics) para calcular nuevamente el flujo, y este proceso se repetiría.
METODOLOGÍA
Para la simulación de un problema acoplado fluido-estructura fue necesario el empleo de herramientas computacionales, empleando el método de Elementos Finitos para la parte estructural y el método de Volumen Finito para el caso del fluido, para ello se utilizó en Software ANSYS versión Student.
Para comprender el funcionamiento del software fue necesario realizar diversas pruebas utilizando sistemas más sencillos, comenzando con las herramientas CAD, métodos de mallado, simulación Estática y dinámica Estructural, simulación Estable y Transiente para el caso de fluidos y finalmente pruebas para el acoplamiento de ambos sistemas.
CONCLUSIONES
Las herramientas de diseño y simulación utilizadas en la industria permiten la estimar con un alto grado de precisión el funcionamiento de un elemento o dispositivo bajo diferentes condiciones de carga incluso antes de realizar la fabricación del mismo. En el sector educativo, estas herramientas permiten una mejor comprensión de los conceptos de ingeniería, especialmente el diseño mecánico y el flujo de fluidos. Sin embargo, una de las desventajas, es la necesidad de contar con equipos de cómputo potentes, que puedan ejecutar los cálculos necesarios para cada tipo de modelo.
Puc Pat Carlos Alberto, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PROPUESTA DE GAMIFICACIóN EDUCATIVA “SISTEMA DE ECUACIONES LINEALES”.
PROPUESTA DE GAMIFICACIóN EDUCATIVA “SISTEMA DE ECUACIONES LINEALES”.
Puc Pat Carlos Alberto, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La propuesta de gamificación educativa surge por la necesidad de crear nuevas formas de enseñar temas que no son muy atractivos para los estudiantes, haciendo dinamicas e implementando la gamificacion en la resolución de sistema de ecuaciones.
METODOLOGÍA
Esta propuesta de gamificación educativa se enfoca el área del algebra lineal, para ello primero se documentó acerca del tema, posteriormente se hicieron las actividades referentes al tema, estos son:
Actividad 1.- Exposición
Actividad 2.- Crucigrama Sistema de ecuaciones 2x2
Actividad 3.- Relacionar Columnas Sistema de ecuaciones 2x2
Se creo un curso en la plataforma de Classroom donde se desglosaron 3 apartados, un video presentando el proyecto, al alumno encargado del tema y su finalidad, el segundo apartado está el link directo para entrar a la presentación como introducción al tema, por último el apartado 3 se encuentran las instrucciones para acceder al reto (es un rally de las 3 actividades) y que así puedan participar en todas las actividades.
Este trabajo se aplicó a 15 alumnos de nivel superior, de diferentes carreras en edades entre los 20 y 23 años porque es en esta etapa cuando los alumnos interactúan más con los sistemas de ecuaciones, las matrices y los métodos de resolución de estos sistemas (2x2 y 3x3), con la finalidad de observar y analizar el impacto que se tienen las herramientas de gamificación
CONCLUSIONES
Al momento de evaluar el desempeño de los estudiantes frente a herramientas de gamificación, arrojo que el 27% aprobó con buena calificación, y el 40% tuvo un desempeño satisfactorio, por lo que la herramienta genero un resultado positivo, teniendo en cuenta que el tema se explicó de forma breve y el estudiante busco solucionar los ejercicios de forma autodidacta con la finalidad de obtener la mayor puntuación y consigo aprender jugando.
Con respecto los estudiantes, hicieron el comentario de ver que más personas habían participado y obtenido puntuación, generaba en ellos un sentido de competitividad.
Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas
Asesor:Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas
ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.
ESTUDIO DE OBJETOS MEDIANTE IMÁGENES CAPTADAS POR DISPOSITIVOS MÓVILES Y SU PROCESAMIENTO EN SERVIDORES DE ALTO RENDIMIENTO.
Diaz Echavarria Fernando Azael, Universidad Autónoma de Tamaulipas. Puente Escamilla Hector Omar, Universidad Autónoma de Tamaulipas. Asesor: Dr. Hugo Eduardo Camacho Cruz, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Día con día, cuando las personas salen de su casa por trabajo, escuela de manera recreativa, se exponen constantemente a los rayos solares en situaciones donde, en la mayoría de las ocasiones, no utilizan la protección adecuada, como protector solar, lo que puede provocar que se originen enfermedades cutáneas en el peor de los casos, desafortunadamente esto suele ser más común de lo que se piensa, sin embargo se le da poca importancia y solo se le pone atención hasta que esté en un estado avanzado, en parte por desconocimiento y también por falta de medidas sencillas y eficaces de detectarlo.
Actualmente, el proceso de detección de este tipo de enfermedades no solo suele ser costoso, sino que también laborioso por lo que muchas veces, aunque se puedan llegar a tener sospechas muchas personas no suelen dar el paso a tiempo, resultando así en una detección tardía que generalmente generan posibilidades poco favorables para la persona si se hubiese detectado a tiempo.
Aunado a lo anterior, los equipos médicos, así como los procesos necesarios para su detección suelen estar asignados a lugares específicos y por ende no estar a la disposición de todas las personas, lo que puede obligar a los pacientes a desplazarse grandes distancias para siquiera empezar a realizarse un diagnóstico, provocando que tarden en poder atacar el problema lo más pronto posible o en casos extremos, que lo posterguen hasta que sea demasiado tarde. Debido a esto, el resultado puede terminar en el uso de recursos que puedan afectar de manera negativa tanto a la salud, como a la situación económica de los pacientes, por lo que es importante plantear herramientas más rápidas que apoyen al diagnóstico oportuno, con el fin de hacerlo más eficiente.
METODOLOGÍA
El objetivo de este proyecto fue el de crear una aplicación móvil que nos permita analizar este tipo de problemas, así como también el desarrollo de una herramienta móvil que a través de algoritmos de aprendizaje profundo y el uso de sistemas de alto rendimiento fuese capaz de realizar una clasificación a imágenes o datos para realizar un diagnóstico médico, esto con el fin de llegar a un resultado, el cual será mostrado al usuario de la aplicación. El algoritmo que se encargará del análisis de las imágenes será alimentado por un gran conjunto de datos para poder realizar un análisis preciso.
Las herramientas que se seleccionaron para realizar la aplicación móvil fueron, en primer lugar, un sistema de programación móvil. (Android)., debido a la familiaridad que se tenía con él, así como la facilidad que proporciona a la hora de probarla y desplegarla en un dispositivo móvil. Por otra parte, para comunicar la aplicación con el servidor, se optó por el uso de Sockets WEB los cuales son una tecnología que, en términos simples, sirve como canal de comunicación entre ambos equipos de manera bidireccional por medio de protocolos utilizados en internet, lo que le da la flexibilidad de enviar la información siempre que se encuentre conectado a una red de este tipo.
Por último, se optó por el uso de un lenguaje de programación interprete para la realización e implementación del modelo de aprendizaje profundo, puesto que esté posee unas librerías orientadas para el manejo de datos y la implementación de algoritmos de Redes Neuronales; con el fin de colaborar entre los miembros del equipo la plataforma para desarrollar el modelo fue Google Colab, el cual ofrece un entorno de desarrollo virtual por medio del cual se pueden conectar diversos usuarios e interactuar de manera simultánea.
El desarrollo del sistema de aprendizaje profundo se basó principalmente en el estudio de modelos previamente creados, con el fin de comprender de manera más practica como es que se llevan a cabo.
CONCLUSIONES
Se concluye que el trabajo desarrollado ha sido de gran aprendizaje; dado que pudimos estudiar diferentes disciplinas como es el área médica y las ciencias computacionales. Esto nos dio la pauta para diseñar e iniciar el desarrollo de un primer modelo de aprendizaje profundo con interoperabilidad en app móviles.
Lo anterior permite continuar desarrollando nuestras habilidades tanto personales como profesionales; dado que este tipo de proyectos nos permite interactuar con otros investigadores como fue con personal de la salud para entender más acerca del diagnóstico asistido y sus alcances.
Deseo en un futuro continuar participando en este tipo de estancias. Adicionalmente agradezco al Programa Interinstitucional para el Fortalecimiento de la Investigación y el Posgrado del Pacífico (programa Delfín) que nos brindó la plataforma para poder trabajar con un investigador con una gran y amplia trayectoria como lo es el Dr, Hugo Eduardo Camacho Cruz.
Puente Torres Ana Elizabet, Instituto Tecnológico de Acapulco
Asesor:Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
LABORATORIO DE REALIDAD AUMENTADA
LABORATORIO DE REALIDAD AUMENTADA
Puente Torres Ana Elizabet, Instituto Tecnológico de Acapulco. Asesor: Dra. Claudia Marina Vicario Solorzano, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Al comenzar el verano definimos 3 metas para realizar durante nuestra estancia.
Meta 1. Estado del arte de laboratorios de realidad aumentada.
Meta 2. Elaboración de un articulo de realidad aumentada.
Meta 3. Elaboración de un articulo de aplicación de evaluación financiera.
METODOLOGÍA
Meta 1. Una vez definidas nuestras metas comenzamos a trabajar en nuestras actividades para el cumplimiento de esta meta, lo principal fue la investigación de información sobre laboratorios de realidad virtual a nivel nacional, esto nos ayudo al fortalecimiento de nuevos conocimientos, la mayoría de la información estaba en español pero también gran parte de la información mas importante estaba en ingles esto nos sirvió para fortalecer nuestro ingles con estas investigaciones.
Meta 2. Continuando con nuestras actividades para el cumplimiento de la segunda meta se realizo la búsqueda de una revista de acto impacto para publicar nuestro articulo que realizaríamos al finalizar este verano, fue un poco complicado esta búsqueda ya que realmente buscábamos algo de alto impacto y en idioma español, lo cual hizo que nos lleváramos mas tiempo del normal en la búsqueda y revisión de cada revista, también tuvimos que ver que tipo de autores que aceptaban esas revistas, que tipo de formato reciben y lo mas importante el impacto, para ser sincera después de una búsqueda largo, nos quedamos con una revista que no tiene gran impacto pero tiene el necesario para la publicación de nuestro articulo.
Meta 3. Nuestra ultima meta y no menos importante como en las metas anteriores colocamos actividades para la realización de esta meta que sufrieron un poco de atraso gracias a que la búsqueda de revista nos llevo mas tiempo de lo pensado, pero pudimos realizar algunas de estas actividades como la búsqueda de información y las referencias consultadas en formato Apa.
CONCLUSIONES
Mi experiencia en este primer verano de investigación me llevo una gran satisfacción, nunca había tenido la oportunidad de publicar un articulo y este será el primero de muchos quizás no en una revista de alto impacto pero vamos cada vez por mas, este verano sin duda dejo una gran inquietud en mi por la investigación y también por seguir estudiando un posgrado, aprendimos sobre universidades a nivel mundial de alto prestigio donde podemos obtener becas hasta del 100% si somos alumnos de excelencia académica, esto nos ayuda a tener un mejor panorama sobre nuestro futuro, como también nos ayuda en nuestro desarrollo académico a dar lo mejor, con algunas habilidades que aprendí en este verano me ayudaran para poder realizar mi titulación con éxito. Sin duda alguna volvería a realizar una estancia de investigación en el programa Delfín.
Puente Trejo Josue, Universidad Autónoma de Tamaulipas
Asesor:M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas
MODELADO ONTOLóGICO DE LA PRODUCCIóN DE CíTRICOS EN PADILLA, TAMAULIPAS, MéXICO.
MODELADO ONTOLóGICO DE LA PRODUCCIóN DE CíTRICOS EN PADILLA, TAMAULIPAS, MéXICO.
Padilla Gutierrez Sergio Alfredo, Universidad Autónoma de Tamaulipas. Puente Trejo Josue, Universidad Autónoma de Tamaulipas. Asesor: M.C. Tania Yukary Guerrero Meléndez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La agricultura en todos los niveles y tipos de cultivo se transforma, atravesando grandes cambios de paradigma, en donde ya no se basa sólo en la utilización de técnicas rudimentarias y uso de insecticidas, sino que, en la actualidad está orientada a lo sustentable y rentable, permitiendo establecer nuevas estrategias de cuidado, germinación, crecimiento y floración de las plantas. Además, los citricultores, por su naturaleza predominantemente activa, necesitan el poder salvaguardar su información de técnicas y a qué tipo de cítrico va aplicada en base a sus experiencias, a lo largo de los años, para construir su propia identidad y brindar su opinión incluso cuando estos ya no estén. Ante esta situación, los citricultores, expresan su preocupación, su participación en este tipo de actividades, sería de grandes beneficios en el desarrollo de la agricultura. Por lo antes expuesto, en este contexto, es que es necesario analizar la importancia en qué medida la participación de los citricultores en las actividades agrícolas realizadas en Padilla, Tamaulipas. En concordancia con los nuevos enfoques, tendencias y objetivos de la agricultura de la nación, la cual tiene el reto de mejorar la calidad de sus productos de exportación. En el dominio de la producción de cítricos en el municipio de Padilla Tamaulipas, México, el conocimiento tácito juega un papel primordial, y cabe resaltar que la conservación del conocimiento tácito, es decir el conocimiento que se obtiene de la experiencia de los citricultores puede ser representado semánticamente y modelado dentro de una ontología para que éste pueda ser fácilmente explotado.
METODOLOGÍA
La creación de una ontología es un proceso complejo y como tal, está compuesto de una serie de actividades que se realizan en un determinado orden, para un fin especifico.
Discusión y elección del tema: A lo largo del camino, discutimos las decisiones de modelado que el diseñador debe tomar, así como los pros, los contras y las implicaciones de diferentes soluciones. Después de definir una versión inicial de la ontología, podemos evaluarla y depurarla usándola en aplicaciones o métodos de resolución de problemas o discutiéndola con expertos en el campo, o ambos. Revisar la ontología inicial, este proceso se lleva a cabo durante todo el ciclo de vida de la ontología
Determinar el dominio y el alcance de la ontología: ¿Cuál es el dominio que cubrirá la ontología?
Considere la posibilidad de reutilizar ontologías existentes: Las ontologías pueden ser un requisito si nuestro sistema necesita interactuar con otras aplicaciones que ya se han comprometido con ontologías particulares vocabularios controlados. ¿Qué propiedades tienen estos términos?. Enumerar términos importantes en la ontología: Es importante obtener una lista completa de términos sin preocuparse por la superposición entre los conceptos que representan. Desarrollo de la jerarquía de clases y la definición de las propiedades de los conceptos (espacios) están estrechamente entrelazados: Por lo general, creamos algunas definiciones de los conceptos en la jerarquía y luego continuamos describiendo las propiedades de estos conceptos y así sucesivamente. Definir las facetas de las ranuras: Las ranuras pueden tener diferentes facetas que describen el tipo de valor, los valores permitidos, el número de valores (cardinalidad) y otras características de los valores que la ranura puede tomar. Una ranura puede tener varios valores y los valores son instancias de la clase. Es decir, una ranura con instancia valuetype con una clase permitida. Crea instancias: El último paso es crear instancias individuales de clases en la jerarquía. Definir una instancia individual de una clase requiere (1) elegir una clase, (2) crear una instancia individual de esa clase y (3) completar los valores de los espacios. Definición de clases y una jerarquía de clases: Esta sección discute aspectos que se deben tener en cuenta y errores que son fáciles de cometer al definir clases y una jerarquía de clases. Definición de propiedades: En esta sección discutimos varios detalles más a tener en cuenta al definir espacios en la ontología. Principalmente, discutimos ranuras inversas y valores predeterminados para una ranura. ¿Lo que hay en un nombre?: Definir convenciones de nomenclatura para conceptos en una ontología y luego adherirse estrictamente a estas convenciones no solo hace que la ontología sea más fácil de entender, sino que también ayuda a evitar algunos errores comunes de modelado. Hay muchas alternativas para nombrar conceptos
CONCLUSIONES
Las ontologías por tanto ahora serán usadas para salvaguardar datos que antes no se tomaban en cuenta, en consecuencia, hemos buscado alternativas para preservar los conocimientos obtenidos de los especialistas del campo. Además, nos ofrece la posibilidad de crear un recurso independiente y autónomo, que es fiable, después de mostrar nuestra propuesta en lo que se refiere a la representación de la información conceptual asociada a los términos, hemos centrado nuestra atención en el estudio de la posibilidad de un sistema de recolecta nacional para la estructura de una base de datos terminológica entorno a las técnicas aplicadas funcionales en todo el país para salvaguardar ese conocimiento practico. Después de analizar la gran diversidad existente de categorías de datos y las múltiples formas en las que estos datos pueden estructurarse, decidimos optar por un estándar de representación. Así que, los datos obtenidos y la representación estructural construida utilizando Protégé nos permite alcanzar los objetivos de representar y almacenar de forma ordenada y estructurada los datos relacionados al dominio, además de lograr una herramienta que pueda ser empleada como repositorio de información.
Puentes Ramirez Paz, Universidad Mexiquense del Bicentenario
Asesor:Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
EXPECTATIVAS DEL USUARIO EN ACCESIBILIDAD E INCLUSIóN EN ARQUITECTURA GUBERNAMENTAL DE
MéXICO.
EXPECTATIVAS DEL USUARIO EN ACCESIBILIDAD E INCLUSIóN EN ARQUITECTURA GUBERNAMENTAL DE
MéXICO.
Méndez Tejeda María de Jesús, Instituto Tecnológico de La Piedad. Puentes Ramirez Paz, Universidad Mexiquense del Bicentenario. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
Un Plan de Accesibilidad es un plan de actuación de carácter, generalmente, municipal. Su objetivo es hacer accesible gradualmente el entorno existente, a fin de que todas las personas lo puedan utilizar libre y autónomamente. El Plan evalúa el nivel de barreras que existen en un espacio determinado, define las actuaciones necesarias para adaptarlo, las valora y prioriza proponiendo un plan de etapas para su ejecución.
Por lo regular, los ámbitos analizados por el Plan son:
Los espacios de uso público, como son calles, plazas, parques, etc.
Los edificios públicos, tales como equipamientos culturales, administrativos, sanitarios, escolares, etc.
Los elementos de la cadena de transportes, desde las paradas y estaciones hasta el material móvil.
La señalización informativa y la comunicación sensorial.
(Fernández, García, Junca, Torralba, & Santos, 2005, pág. 252)
1. Objetivo:
Identificar las características de infraestructura, tecnología y operación que se deben cumplir en un edificio público de carácter gubernamental como lo es el Palacio Municipal de la Piedad y el de Xalatlaco, verificando su cumplimiento para asegurar la accesibilidad e inclusión de todas las personas en igualdad de condiciones.
METODOLOGÍA
2. Métodos:
a. Diseño de la investigación: El diseño de la investigación fue de tipo no experimental, seccional, descriptiva y explicativa, dado que mediante la recopilación de información de varias fuentes se pudo obtener una lista de cotejo. Con dicha lista se visitaron los sitios de estudio para analizar con parámetros cuantitativos y cualitativos, la accesibilidad e inclusión con las que cuenta cada espacio que se seleccionó del ayuntamiento. Esta investigación fue comprendida desde el 14 de junio hasta el 30 de julio de 2021
b. Sitio del estudio: La presente investigación se llevó a cabo en los Palacios Municipales de La Piedad de Cavadas Michoacán y Xalatlaco Estado de México, seleccionados por ser espacios públicos accesibles a la investigación científica. Estos lugares fueron visitados por los participantes de la investigación, para poder identificar de manera más exacta las medidas de accesibilidad e inclusión con las que cuentan los Palacios previamente mencionados.
c. Unidades de estudio: Para este estudio, se consideró a la población en general, en igualdad de condiciones, ya que todo ser humano tiene derecho a un acceso fácil a cualquier lugar público, así sea una persona discapacitada, adulto mayor o mujer embarazada.
d. Intervenciones: Se realizó la evaluación in situ de las condiciones de accesibilidad e inclusión en los lugares de estudio apegada a los parámetros establecidos para la infraestructura y accesibilidad de la normatividad vigente en México y se realizó el contraste con la percepción de los usuarios. Con esto se pudo observar que los usuarios esperan que los espacios públicos cuenten con las medidas mínimas de accesibilidad e inclusión para poder moverse o desplazarse por cualquier lugar con plena autonomía. Aunque también consideran que el mantenimiento de dichos lugares es indispensable para que estos tengan la eficiencia necesaria.
CONCLUSIONES
3. Resultados principales:
Se realizó una encuesta con un instrumento previamente validado en una prueba piloto, llevándose a cabo la recolección de datos a través de redes sociales para conocer la percepción de inclusión y accesibilidad que tiene la población del Estado de México y Michoacán. Se consideraron las características de infraestructura, tecnología y operación bajo el enfoque de universalidad, de las cuales el 99% de las personas encuestadas considera que sí es importante la accesibilidad dentro de los espacios públicos. Así mismo, el 65% de ellos en alguna ocasión se han sentido limitados para acceder y desempeñarse en un lugar por cuestiones de la infraestructura.
4. Conclusiones:
Cualquier persona creería que un espacio público, como lo es el Palacio Municipal, permite el ingreso a toda persona y sin problema le puede dar el servicio requerido. Desafortunadamente las cosas no son así de sencillas. A simple vista no se puede valorar si un espacio es funcional o no, es hasta el momento de recorrer e inspeccionar con el conocimiento del cómo, qué, dónde debe ser o estar, cuando podemos identificar que hay características en cuanto a infraestructura, atención del personal y mecanismos automáticos que, como mínimo, debería tener un espacio público y no se están cumpliendo.
Realizado el levantamiento de campo en los Palacios Municipales de La Piedad de Cavadas, Michoacán y Xalatlaco, Estado de México, podemos confirmar que realmente no hay esa accesibilidad e inclusión que tan mencionada es actualmente. Se entiende que al ser edificios históricos se tiene la limitación de hacer modificaciones, pero se puede acondicionar y equipar un área de fácil acceso con personal capacitado para atender a estos grupos minoritarios de discapacitados y adultos mayores.
KEYWORDS: Accesibilidad, inclusión, arquitectura gubernamental.
Pulido García Carlos Francisco, Instituto Politécnico Nacional
Asesor:Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
MOTOR IMAGERY EN EL TRABAJO MOTOR DE LA MANO
MOTOR IMAGERY EN EL TRABAJO MOTOR DE LA MANO
Pulido García Carlos Francisco, Instituto Politécnico Nacional. Asesor: Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Motor Imagery estudia la relación entre una acción realizada y una que solo se imagina por lo que con ella se puede establecer una relación entre el EEG de la contracción de la mano y el EEG donde solo se imagina la contracción.
METODOLOGÍA
En el experimento se utilizó una base de datos de Motor Imagery de Physionet, se limitó el experimento, se utilizó Matlab para hacer un análisis de estadístico de la información de las pruebas echas en los pacientes y finalmente se comparó los resultados entre los que realizaron la acción y lo que solo la imaginaron.
CONCLUSIONES
El resultado del experimento permitió establecer una zona del cerebro que se activa durante los dos experimentos siendo este el lóbulo frontal.
Quevedo Gonzalez Juan Manuel, Universidad del Valle
Asesor:M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas
SISTEMA DE CONTROL DEL CONSUMO DE ENERGíA ELéCTRICA EN EL HOGAR
SISTEMA DE CONTROL DEL CONSUMO DE ENERGíA ELéCTRICA EN EL HOGAR
Quevedo Gonzalez Juan Manuel, Universidad del Valle. Asesor: M.C. Osvaldo Lira Díaz, Instituto Tecnológico de Lázaro Cárdenas
PLANTEAMIENTO DEL PROBLEMA
El consumo energetico a nivel mundial va en aumento año tras año, a causa del aumento poblacional y las necesidades del ser humano. Los avances tecnologicos han permitido desarrollar nuevas alternativas de control, orientados a simplificar y optimizar tanto las actividades industriales como domesticas. Por ende, explorar nuevos mecanismos de medicion y accionamiento electronico con el fin de apostar por un avance en los campos de la domotica, internet de las cosas (IoT) y la industria 4.0, facilita la mitigacion del impacto economico y ambiental, y en este caso, evaluar posibles alternativas de generacion electrica, siendo esta renovable y autosostenible.
El objetivo general de este proyecto es desarrollar un sistema de monitoreo y control de consumo energético, con una interfaz gráfica remota, dotado de sensores que midan la cantidad de amperaje que transcurre en una línea de corriente alterna, implementando tecnología con base en domótica y protocolos de conexión orientados al Internet of Things (IoT).
Se debe diseñar el hardware necesario, para el sistema de control en tiempo real, integrando el sensor de corriente con el fin de realizar la lectura de consumo y accionar dispositivos a distancia, implementar el protocolo de comunicación MQTT enfocado al Internet of Things (IoT) para establecer la conexión remota entre los dispositivos involucrados y desarrollar una interfaz gráfica, accesible e intuitiva, con el fin de que el consumo energético sea monitoreado y controlado a distancia.
METODOLOGÍA
La metodología de investigación aplicada permite cumplir lo planteado en el objetivo general de la presente propuesta. El proyecto se organiza por fases de desarrollo que pueden ejecutarse de forma secuencial y en ocasiones identificar algunas mejoras durante el proceso de desarrollo.
Reconocimiento y planeación de las condiciones físicas de la ingeniería conceptual para el monitoreo y control eléctrico
Implementación del acondicionamiento para la señal de sensores y visualización mediante un sistema de control apoyado en una interfaz gráfica remota.
Instalación del sistema en modo operativo, ejecución de las primeras pruebas en una línea eléctrica doméstica y obtención de resultados.
A continuacion se detallan los principales resultados del proyecto cumpliendo cada una de las fases:
Sistema de medición para monitoreo de corriente.
El módulo encargado de realizar la lectura del sensor es un ESP32. El programa, por medio de una ecuación, calcula el valor de corriente según el promedio de voltaje diferencial, acondicionado por un ADS1115 (ADC), el cual recibe la señal generada por un sensor de corriente SCT-013. Con este método, podemos obtener en tiempo real el consumo energético en kWh.
Se cumple el siguiente flujo de conversion:
Lectura de corriente (Voltaje Análogo) -> Conversión Análogo - Digital (16 bits) -> Calculo de corriente, potencia y consumo -> Impresión de datos
Visualización de datos a través de la interfaz gráfica remota.
Para la conexión remota de nuestro sistema de medición, se utilizó la red Wifi doméstica para interconectar a través del protocolo MQTT nuestros dispositivos: Una Rapsberry Pi 4 como Broker, el ESP32 como publicador y los servicios de IBM Cloud para desarrollar la interfaz gráfica con el programador Node-Red.
Control de dispositivos domésticos de forma remota.
Se conectan relés de 5V al módulo ESP32 para el encendido y apagado de dispositivos domésticos, con el fin de moderar el consumo eléctrico a distancia.
CONCLUSIONES
Se logra el objetivo general, desarrollando un sistema innovador aplicable también para la industria, con el fin de implementar una infraestructura óptima y eficiente. Esto se logra por medio de un prototipo funcional del sistema de monitoreo y control para el consumo energético, planteado para uso doméstico en un trabajo integrador con posibilidad de comprobar físicamente a pesar de las dificultades presentadas por la virtualidad.
Se requiere optimizar la interfaz gráfica con el fin de almacenar en una base de datos virtual las lecturas según nuestros parámetros, la instalación del sistema debe ser más práctico y fácil de ser implementado por el usuario para una mayor distribución comercial.
Quiñonez Bernardino José Leonardo, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
CAPTURA 3D DE OBJETOS CULTURALES PARA PRESERVACIóN Y DIFUSIóN
CAPTURA 3D DE OBJETOS CULTURALES PARA PRESERVACIóN Y DIFUSIóN
Quiñonez Bernardino José Leonardo, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La UNESCO (United Nations Educational, Scientific and Cultural Organization) define al patrimonio como el legado cultural que recibimos del pasado, que vivimos en el presente y que se transmitirá a las generaciones futuras. Es por esto que en México instituciones como el INAH (Instituto Nacional de Antropología e Historia), la CNMyE (Coordinación Nacional de Museos y Exposiciones) o el INBAL (Instituto Nacional de Bellas Artes y Literatura) a lo largo de los años se han dado a la tarea de definir acciones para garantizar la seguridad y conservación del patrimonio artístico, cultural y de los muebles o inmuebles que resguardan. Sin embargo, algunas zonas, edificios o exposiciones de objetos culturales que se encuentran protegidos por estas instituciones no han tenido la difusión que se esperaba.
Las técnicas de preservación digital utilizadas actualmente (fotografía digital, fotogrametría, escáneres 3D etc.) son una excelente herramienta para contribuir en el objetivo de preservación y difusión de patrimonio y legado cultural. Es por esta razón que una técnica que se propone para poder digitalizar y preservar estos objetos culturales es el método de proyección de luz estructurada, específicamente, el método de proyección de franjas.
METODOLOGÍA
En este proyecto se desarrolló el método de proyección de franjas para construir un perfilómetro óptico de digitalización 3D. En este proyecto, el perfilómetro óptico se construyó empleando solo tres dispositivos: una cámara, un proyector, y una computadora. Para entender cómo se logra una digitalización con el perfilómetro es necesario revisar la teoría.
Lo primero que hay que entender es el operador de coordenadas homogéneas y el operador de coordenadas homogéneas inverso. El primero transforma vectores de coordenadas cartesianas de dimensión n a su correspondiente vector de coordenadas homogéneas de dimensión n+1. Por otro lado, el operador inverso de coordenadas homogéneas transforma un vector de coordenadas homogéneas de dimensión n+1 a su correspondiente vector de coordenadas cartesianas de dimensión n.
Una vez entendido esto, se puede pasar a describir el tipo de modelo de cámara utilizada para este método, la cámara pinhole. La cámara pinhole consta de un pequeño orificio por donde entra la luz. En este tipo de cámaras la imagen tiene una rotación de 180°, lo que quiere decir que la escena como nosotros la vemos es capturada invertida. El plano Z en este tipo de cámaras se encuentra paralelo al eje óptico. Por tanto, el plano Z es igual a la distancia focal del dispositivo, es decir, el plano imagen actual.
Con la cámara pinhole, las coordenadas físicas son transformadas por medio de imágenes (planos) a coordenadas pixel. Estas coordenadas pixel cuentan con valores de anchura y altura. Otro valor importante es el punto en el que el eje óptico atraviesa el plano imagen, conocido como el punto principal. Mediante un arreglo matricial estos valores forman la matriz de parámetros intrínsecos de la cámara, con la cual se podrán obtener tanto las coordenadas pixel de un punto en una imagen, como las coordenadas físicas en el espacio 3D.
Además de los parámetros intrínsecos, otro parámetro importante es la matriz de parámetros extrínsecos. Los parámetros extrínsecos consisten en una matriz de rotación y un vector de traslación que describe la pose de la cámara respecto al plano de referencia.
Usando los parámetros intrínsecos y extrínsecos de la cámara, es posible construir la matriz homografía, la cual se encarga de relacionar puntos de un plano en la escena con puntos del plano dispositivo (cámara y proyector). Para poder realizar una digitalización son necesarias múltiples homografías. En este proyecto, se capturaron 31 fotos para obtener múltiples homografías. Se emplearon dos planos superpuestos con un patrón similar a un tablero de ajedrez, uno proyectado (color cyan) y el otro superpuesto físicamente (color amarillo). Se capturan una cantidad de puntos en cada plano para relacionarlos entre sí para el cálculo de homografías. Con esto es posible determinar las coordenadas X, Y, Z de los dos dispositivos que conforman el perfilómetro, así como la rotación que tienen y su matriz de parámetros intrínsecos.
El siguiente paso para la digitalización es crear rejillas y posteriormente realizar un número de corrimientos de fase por cada rejilla sobre el objeto a digitalizar. Se toman una serie de fotografías del corrimiento de las fases y se obtienen los desenvolvimientos de fase que corresponde a las coordenadas (X,Y) del plano diapositiva del proyector.
Por último, con los mapas de fase obtenidos, se procede a realizar la triangulación, que consiste en transformar la fase en coordenadas de puntos en el espacio 3D. El resultado final es una nube de puntos sobre la superficie del objeto 3D escaneado. Adicionalmente, se obtiene una fotografía del objeto para superponerlo a la nube de puntos obtenida y así generar una vista virtual del objeto escaneado.
CONCLUSIONES
Durante la estancia de verano tuve la oportunidad de conocer el proceso para digitalizar objetos a través del método de proyección de luz estructurada. Aprendí temas teóricos importantes necesarios para digitalizar un objeto, tales como coordenadas homogéneas, matriz de la cámara, homografías, demodulación de fase, y triangulación. Los resultados que se obtuvieron fueron digitalizaciones con un poco ruido. No obstante, el objeto digitalizado conserva su forma y permite analizarlo a detalle a través de Matlab. El perfilómetro óptico construido en este proyecto tiene algunas limitaciones. La luz ambiental es un factor muy importante que juega en contra de este método, el hecho de mantener todo el perfilómetro estático también es algo para tener en consideración a la hora de realizar las digitalizaciones, incluso la manera en la que se obtiene la calibración de los dispositivos es tardado y tedioso. Existe aún un campo amplio de investigación para poder resolver estos inconvenientes. Con una correcta dirección y trabajo estos problemas quizá puedan resolverse en un corto tiempo.
Quintana Mendívil Carlos Raúl, Instituto Politécnico Nacional
Asesor:Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
RETO DE BICICLETAS ELéCTRICAS CAMPUS CITY
RETO DE BICICLETAS ELéCTRICAS CAMPUS CITY
Quintana Mendívil Carlos Raúl, Instituto Politécnico Nacional. Asesor: Dr. Jose Huertas Cardozo, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Dentro de la zona metropolitana de la Ciudad de Monterrey, el aumento de población, la mala planificación vehicular y el uso excesivo del automóvil han comenzado a mermar la calidad del aire y la rapidez con la que se pueden hacer los traslados. Los automóviles eléctricos, aunque son mucho menos contaminantes, son mucho más caros a los autos promedio. Es por ende que, dentro de un país tan sensible al precio como México, es mejor optar por opciones más económicas de comprar y mantener.
Las bicicletas eléctricas, como primera optativa a este problema, presentan varias ventajas: la primera es que directamente no dependen de energías contaminantes, así como tampoco necesitan de placas, licencias, verificaciones o tenencias. En general, el costo de la bicicleta solamente se reduce a su compra y su mantenimiento. También ayudan en gran medida a la desaturación de calles y estacionamientos. Un auto ocupa el espacio equivalente a 4 bicicletas, siendo que los autos muchas veces solo llevan uno o dos pasajeros, y esto solamente hace que se desperdicie volumen sobre la calle.
METODOLOGÍA
Se partió el proyecto analizando las diversas optativas de movilidad con las que se cuenta dentro del mercado de las bicicletas eléctricas. Posteriormente, partiendo de una idea de inovación, se planteó un nuevo modelo de diseño para el motor eléctrico, siendo este del tamaño del rin trasero de la bicicleta y sustituyendo a la llanta misma.
Una vez terminado el primer bosquejo del modelo inovador propuesto, se presentó este mismo a una empresa que pudiera ayudar al diseño de dicho motor eléctrico, la cual fue Grupo Marro.
Una vez terminada la primera revisión, se empezaron varios ciclos de iteraciones para las correcciones con Grupo Marro, teniendo por parte de ellos retroalimentación en el proceso de diseño para considerar partes técnicas de las especifiaciones del motor y del proceso de fabricación de este mismo.
Una vez concluido el periodo de diseño en CAD, se obtuvo un modelo del prototipo propuesto, que consideraba los puntos propuestos por Grupo Marro, así como los materiales y las dimensiones.
Por último, se diseño un modelo CAD del sistema del motor BLDC para pruebas, que fuera ensamblable, que fuera modular, y fácilmente cortado en laser sobre MDF.
CONCLUSIONES
Se obtuvieron dos modelos del sistema de motor eléctrico inovador para bicicletas: uno que tiene las consideraciones de materiales y dimensionales del modelo, hecho en un modelo CAD en SolidWorks. El otro fue un modelo de pruebas para ser cortado en laser sobre MDF del motor BLDC, con el cual se pudieran comprobar y medir varios aspectos técnicos.
Ramirez Alanis Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
INNOVA CAMPING, CAMPAMENTO PARA EMPRENDEDORES.
Bernal Venegas Alexis, Instituto Tecnológico Superior de Ciudad Hidalgo. Pérez Miranda Esther Itzel, Instituto Tecnológico Superior de Ciudad Hidalgo. Ramirez Alanis Gladis Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las Pymes representan una pieza fundamental para la economía de un país, por ser generadoras de riqueza y son de vital importancia en el impulso al progreso de una sociedad, debido a que inciden en varios sectores económicos.
Este proyecto nace por la imperiosa necesidad de desarrollar plataformas que apoyen la creatividad e innovación en proyectos que
impacten en el ámbito tecnológico y/o social.
InnovaCamping TM es un proyecto que busca nuevas formas de enseñanza en las aulas universitarias, para sensibilizar el área de emprendedores y formulación de proyectos emanados en algunos casos de las aulas y/o de las academias y dirigíos por jóvenes entusiastas, líderes y creativos.
METODOLOGÍA
InnovaCamping TM es un Campamento que consta de una Metodología para generar ideas Tecnológicas y/o Empresariales, en el que durante día y medio alrededor de 50 jóvenes alumnos acampados tienen la oportunidad de adquirir destrezas y aptitudes que a corto y medio plazo les serán de gran utilidad cara a su incorporación al mundo laboral.
Durante el Paso 1, el participante identificará sus principales características que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
En el Paso 2, el participante determinará su nivel de creatividad e innovación para el emprendimiento.
Durante el Paso 3, el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar se premiará a los 2 primeros lugares de acuerdo a lo siguiente:
Primer Lugar: Idea de Proyecto más Innovadora (Diploma y Trofeo a la Innovación)
Segundo Lugar: Equipo Talentoso (Cantidad Mayor en Bonos) (Diploma y Trofeo del Trabajo en Equipo)
CONCLUSIONES
InnovaCamping es una metodología que pretende lograr los siguientes resultados:
Formación de líderes
Formación de mentalidad emprendedora
Generación de ideas de proyectos de impacto tecnológico y social
Durante el verano de investigación del Programa Delfín 2021, se lograron obtener grandes resultados, dado que el conocimiento impatido por el docente Juan José González, nos brindó la oportunidad de ser coach de su modelo de innovación apoyando a más jóvenes a formar ideas de innovación y creatividad.
Aunado a ello, se presentó la oportunidad de participar en un proyecto de la metodología Lean Six Sigma y en un proyecto de Estaciones de trabajo con principios de Antropometría, los cuales son de gran importancia en nuestro programa de aprendizaje.
Ramirez Bond Jonathan Alexis, Instituto Tecnológico de Tláhuac
Asesor:M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa
AUTOMATIZACIóN DE AEROGENERADORES
AUTOMATIZACIóN DE AEROGENERADORES
Ramirez Bond Jonathan Alexis, Instituto Tecnológico de Tláhuac. Asesor: M.C. Alicia Rosas González, Instituto Tecnológico de Reynosa
PLANTEAMIENTO DEL PROBLEMA
Actualmente el aprovechamiento de los recursos naturales no ha llevado a la degradación ambiental, esta problemática se nota día a día debido al consumo de energías no renovables, producto de las necesidades humanas. Muy pocas personas conocen el concepto de energía limpia, lo cual afecta el proceso de cambio hacia el uso de energías renovables, ya sea cambio de mentalidad acerca del tema o un cambio de hecho, la investigación e implementación de tecnologías y prácticas que lo aprovechen.
Informar acerca de esta energía es fundamental para la humanidad y puede ser una solución al problema, para que las personas busquen un cambio en beneficio al medio ambiente y así puedan aprovechar la fuente de energía alternativa y con esto obtener también beneficio propio; y así no depender de empresas de electricidad.
Ante la necesidad de utilizar métodos de generación de energías limpias se buscan alternativas de solución, tal es el caso de los aerogeneradores, los cuales brindan energías no contaminables, y así reducir gran parte de la contaminación ambiental.
METODOLOGÍA
1) Consulta de literatura.
2)Selección de la información.
3)Análisis de información.
4)Propuesta de trabajo.
CONCLUSIONES
De acuerdo con la literatura consultada, se pudo observar que hay muchas áreas de oportunidad en lo relacionado a las energías limpias y los procesos de automatización de los equipos utilizados. Existen empresas que instalan aerogeneradores, aunque la idea es automatizar y diseñar equipos a bajo costo.
Ramírez Cisneros Cynthia Alejandra, Instituto Tecnológico de Pachuca
Asesor:Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos
PROPUESTA DE DISEÑO DE UN SISTEMA DE TRATAMIENTO DE AGUA RESIDUAL MEDIANTE PROCESOS AVANZADOS DE OXIDACIÓN EN EL MUNICIPIO DE AYALA, MORELOS
PROPUESTA DE DISEÑO DE UN SISTEMA DE TRATAMIENTO DE AGUA RESIDUAL MEDIANTE PROCESOS AVANZADOS DE OXIDACIÓN EN EL MUNICIPIO DE AYALA, MORELOS
Ramírez Cisneros Cynthia Alejandra, Instituto Tecnológico de Pachuca. Asesor: Dr. César Torres Segundo, Universidad Autónoma del Estado de Morelos
PLANTEAMIENTO DEL PROBLEMA
A medida que la población nacional incrementa, se han presentado situaciones desfavorables que provocan la contaminación de cuerpos de agua a lo largo de toda la extensión territorial de nuestro país (ríos, lagos, acuíferos y mar), generalmente provocado por satisfacer las necesidades de bienes y servicios.
Se dice que el agua está contaminada cuando los agentes contaminantes influyen negativamente en su calidad para el consumo humano, usos posteriores o el bienestar de los ecosistemas, el tamaño de su impacto depende de una combinación de varios aspectos como la cantidad, el tipo de contaminante, la vía de ingreso y el tipo de medio al que se incorporan.
Dicha contaminación es causada por descargas incontroladas de aguas residuales sin tratar generadas en su mayoría por ciudades, industrias y población en general, quienes las vierten al drenaje público y que, a su vez, llegan a un cuerpo receptor, también por el aumento de temperatura de agua que ocasiona la disminución de oxígeno en su composición, la deforestación y erosión de suelo, el uso de pesticidas y fertilizantes y el arrogamiento de desechos sólidos a los cuerpos de agua.
De acuerdo con los datos del INEGI, en México existen aproximadamente 4,474 puntos de descarga de aguas residuales municipales sin tratamiento, esto sin contar aquellos que no han sido registrados y operan de manera clandestina. Ante esta problemática, el gobierno pone en efecto normas que puedan conducir a las industrias a contar con un tratamiento de sus descargas antes de arrojarlas a los cuerpos de agua.
El incremento de la población tiene como consecuencia la necesidad por procurar el bienestar social y por ende, la demanda de agua incrementa debido a su importancia en el sector industrial, y ésta, al estar contaminada es inútil para los propósitos de la vida humana. Debido a lo anterior, se busca plantear y desarrollar técnicas apropiadas y avanzadas para lograr una mayor eficacia en el tratamiento de aguas residuales, con el presente proyecto sobre el diseño de un sistema de tratamiento de agua residual mediante procesos avanzados de oxidación se busca aplicar un método que se adecúe de mejor manera a la necesidad planteada.
METODOLOGÍA
Los reactivos utilizados fueron FeSO4•7H2O, CuSO4•5H2O, AlK(SO4)2•12H2O, H2SO4 (18 M), H2O2 (10 M), agua destilada y colorante textil (proporcionado por una industria textil local de la Región Oriente del Estado de Morelos)
Se prepararon las soluciones a ciertas concentraciones.
El proceso se realizó en reactores de vidrio con soluciones de 250 mL en agitación constante durante 2 horas, tomando muestras a ciertos tiempos para la medición de la absorbancia.
El análisis de los reactores se realizó con un espectrofotómetro HACH DR6000, en el caso del proceso foto-Fenton, los reactores se expusieron a la radiación solar sin necesidad de agitación.
Se realizó una curva de calibración empleando soluciones del colorante negro a diferentes concentraciones para obtener una ecuación que relacionara la absorbancia de la muestra con la concentración de colorante.
Se realizó el balance estequiométrico para conocer la cantidad óptima de peróxido de hidrógeno y catalizador necesaria para degradar el colorante.
Se experimentó con 2 catalizadores: Sulfato de aluminio y Sulfato de cobre, para comparar las eficacias de estos con la del sulfato ferroso.
Con el catalizador seleccionado y el peróxido de hidrógeno se realizaron pruebas variando sus concentraciones para obtener las cantidades con las que la degradación era mayor.
Se realizó el mismo proceso con los porcentajes de peróxido de hidrógeno y sulfato de hierro respecto al estequiométrico.
El proceso foto-Fenton se realizó añadiendo peróxido de hidrógeno 0.048 M y sulfato de hierro 1 M, se realizaron 2 pruebas que se diferenciaban por la adición de peróxido de hidrógeno.
CONCLUSIONES
De acuerdo a estudios realizados se ha demostrado que los desechos de aceite de maíz pueden ser degradados mediante el proceso Fenton logrando altos rendimientos de CO2 y altas reducciones de la DQO; dichos residuos de aceite de cocina con una alta DQO pueden ser degradados por Fenton y por fotólisis en presencia de oxidantes como persulfato y peróxido de hidrógeno con la desaparición de la mayoría de los ácidos grasos presentes antes del tratamiento, estos dos oxidantes pueden ser generados electroquímicamente evitando la necesidad de la adición de productos químicos al efluente a tratar.
En otro estudio realizado con diferentes catalizadores se demostró que el sulfato de hierro en combinación con peróxido de hidrógeno presenta mayor efectividad para la degradación del NA52 (colorante negro); usando 100% de concentración (1 M) de sulfato ferroso y un 80% de concentración (0.0384 M) de peróxido de hidrógeno se obtuvo un mayor porcentaje de remoción del colorante. Se realizaron pruebas mediante el proceso Fenton y foto-Fenton, ambos logran degradar el contaminante, sin embargo, el segundo tiene una mayor eficacia pues el tiempo de degradación es de 30 min, mientras que el proceso Fenton requiere de dos horas, los porcentajes de remoción teóricos para ambos procesos fueron 97.57% y 97.62% respectivamente.
Ramirez Fabra Michelle, Universidad de Medellín
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
ANáLISIS DE LA SOSTENIBILIDAD DEL HELIóSTATO CONCENTRADOR VS MINI HELIóSTATOS.
Calle Zuleta Juliana, Institución Universitaria Colegio Mayor de Antioquia. Flores Alvarez Ivan, Instituto Tecnológico de Toluca. Ramirez Fabra Michelle, Universidad de Medellín. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Obtener energía electrica representa en la actualidad una necesidad en la realización de tareas esenciales en el sector laboral, doméstico, industrial, etc. El uso constante de registros fosiles se posiciona como la materia prima básica para el procesamiento, explotación y distribución de la energia que usamos en la actualidad; según data la historia, las maquinarias y equipos que existen para el aprovechamiento de la energia electrica se desarrolló solo para combustibles derivados del carbon puesto a su origen emergente.
La energía convencional influye desde el punto de vista social generando impactos como la generación de presión sobre los recursos naturales renovables y no renovables, se identifica que en la zona de estudio los recursos energéticos no son aprovechados en un 100%. La falta de legislación y los vacíos existentes referentes a la energía hace que sea arbitrario y no obligatorio para las personas el aprovechamiento de los recursos existentes en la zona de estudio. La implementación de energía química solar en la región en cuestión, permitirá aprovechar y explotar de forma controlada el recurso energético, disminuyendo costos de consumo energético derivados de la energía convencional y combustibles fósiles, un 60% de habitantes de Hermosillo seria impactado de forma positiva con la implementación de energía química solar en sus hogares.
En esta instancia, se requiere el estudio de la energia química solar y su posterior implementación partiendo de la premisa de que "las necesidades mundiales de energía eléctrica se podrán abastecer solo con energía solar", según Ignacio Mártil, catedrático de Electrónica. Actualmente la energía solar concentrada, también conocida como termosolar concentrada tiene el potencial necesario para la generación de electricidad a través de sistemas de espejos, en donde la radiación solar directa es concentrada, logrando temperaturas de entre 40 a 1000ºC (Pfahl et al. 2017). De esta forma, incursionar en energias renovables comprende un reto desde el marco de los Objetivos de Desarrollo Sostenible (ODS) debido a que la energía solar se mueve en el rango de eficiencias de las fuentes convencionales con el añadido de que no requiere quemar combustibles. En lo que respecta a los costos, cada tecnología renovable tiene sus propias características con base en la tecnología utilizada, la energía solar, puede tener un mayor beneficio y un costo de operación menor, sin embargo, presenta un costo de inversión alto y en múltiples ocasiones resulta económicamente inviable. A consecuencia de ello, los proyectos de generación con fuentes renovables de este tipo que se han implementado son muy pocos y tienen condiciones y finalidades muy especiales para su implementación, tal es el caso de la Plataforma Solar de Hermosillo (PSH) cuyo objetivo principal es la generación de conocimiento.
De acuerdo al rendimiento de la tecnología usada en la PSH, en la presente investigación, realizaremos el análisis de sostenibilidad del helióstato concentrador y mini helióstatos concentradores (comprendiendo el ámbito social, económico y ambiental) con el fin de elegir el equipo con mejor rendimiento y mayor eficacia dado que los helióstatos son el componente más importante de las plantas de torre central y hacen parte de aproximadamente el 50% del costo total de toda la planta solar de torre central (Gwiazda and DiBella, 2005).
METODOLOGÍA
Se llevó a cabo la visita a las instalaciones de la Plataforma Solar de Hermosillo y una posterior revisión de los planos centrales del helióstato concentrador (H36) y mini helióstatos concentradores (H6) con el fin de determinar la trazabilidad de la investigación asi como establecer con mayor claridad los aportes de Ingeniería Ambiental e Ingeniería Industrial. Al reconocer con exactitud los equipos en estudio, procedimos a la toma de datos en campo para posteriormente llevar a cabo cálculos cualitativos y cuantitativos en el software Tonatiuh; es preciso aclarar que se realizó toma de muestra independiente para helióstato concentrador H6 y H36, por lo cual fue indispensable el montaje, puesta en escena de cada artefacto y definir las horas con mayor productividad en términos de actividad luminica.
Con la información recopilada, realizamos el análisis de datos enmarcados en la sostenibilidad del proyecto basado en heliostatos concentrador H6 y H36 con el fin de precisar la revisión de costos vs beneficios (sociales, económicos y ambientales) en base a los resultados alcanzados durante la simulación realizada en el software en estudio en el que se obtuvo los perfiles para cada equipo. Es importante resaltar que el costo de instalación de heliostato H36 es de $360,120.00 pesos mexicanos, mientras que, para los heliostatos tipo H6 es de $207,600.00. Ambos con una vida útil promedio de 25 años.
Por último, trabajamos en la redacción y avance en el informe constatado.
CONCLUSIONES
1. Se identificó las variables de rentabilidad de los heliostatos concentradores H36 y H6.
2. Observamos varíables de sostenibilidad del proyecto, teniendo en cuenta la potencia, puntos focales y ópticos.
3. Interactuamos con el software Excel y Tonatiuh para realizar la modelación de reflectividad de rayos solares e incidencias de este en cuanto a la mayor generación de Flux (W/m2) de los heliostatos concentradores H36 y H6.
4. Realizamos pruebas de campo con el fin de verificar los spots generados por cada una de las superficies de los heliostatos concentradores y los miniheliosatatos.
5. Verificamos el impacto social de la implementación de energias limpias.
BIBLIOGRAFIA
E, & E. (2015). Implicaciones de la (baja) densidad energética solar eléctrica. Grupo de Energía, Economía y Dinámica de Sistemas. http://www.eis.uva.es/energiasostenible/?tag=energia-solar
Gwiazda, Jonathan, and Francis DiBella 2005 Power Generation by Solar/Pneumatic Cogeneration in a Large, Natural or Man-Made, Open Pit. http://www.google.com/patents/US20050150225, accessed November 3, 2017
Pfahl, Andreas, Joe Coventry, Marc Röger, et al. 2017 Progress in Heliostat Development. Solar Energy 152(Supplement C). Progress in Solar Energy Special Issue: Concentrating Solar Power (CSP): 3-37
Ramirez Galicia Itzel, Instituto Tecnológico de Tláhuac
Asesor:Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
ANáLISIS DE DATOS SOCIALES RELACIONADOS CON SALUD
Medina Lozano Edgar Rafael, Benemérita Universidad Autónoma de Puebla. Ornelas Mendoza Daniel Alejandro, Instituto Tecnológico de Sonora. Ramirez Galicia Itzel, Instituto Tecnológico de Tláhuac. Asesor: Dr. Miguel Felix Mata Rivera, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Durante el último año la pandemia COVID-19 ha afectado demasiado a la humanidad, a nivel mundial existen registros de miles de muertes y pérdidas millonarias en la industria debido al aislamiento.
Con el paso del tiempo se ha generado un gran volumen de datos referentes a la COVID-19, desde la cantidad de personas infectadas, decesos, recuperaciones hasta los efectos secundarios causados por la aplicación de la vacuna y el índice de vacunación.
Sabemos que en la Ciudad de México existe un alto índice de personas con enfermedades crónicas y respiratorias, una de las principales causas que favorece al contagio de la COVID-19, además de ser de la tercera edad o tener bajas defensas.
La problemática que se presenta en esta situación es encontrar relaciones y patrones en los datos que nos permitan obtener conclusiones importantes para la toma de decisiones con respecto a la pandemia.
METODOLOGÍA
Se comenzó con la extracción y descarga de datos abiertos, relacionados con los efectos causados por la aplicación de la vacuna en la Ciudad de México. Mediante la API de Twitter, los datos se almacenaron en un servidor del Instituto Politécnico Nacional. Estos datos permitirán estandarizar información sobre enfermedades crónicas y respiratorias de la Ciudad de México.
Durante casi tres semanas se realizaron las extracciones usualmente en dos tiempos por la mañana y por las tardes. Para facilitar esto se desarrolló un script para que las extracciones fuesen menos tediosas y se agilizara el proceso.
Una vez concluido el tiempo de extracción de datos se investigó en fuentes confiables el concepto de Inteligencia Artificial, Machine Learning, Ciencia de Datos y librerías de utilidad para el desarrollo de estos conceptos. También aprendimos conceptos nuevos como big data y deep learning. Lo más interesante es ver como existen diferentes ramas de la inteligencia artificial muy útiles en el mundo actual. Una de ellas y en la que nos centramos fue el machine learning, que es capaz de fusionar las matemáticas junto a las ciencias de la computación.Gracias a los datos que son recolectados y procesados por medio de técnicas de minería de datos, las máquinas pueden realizar aprendizaje automático.
En la última semana tuvimos una sesión con un experto en machine learning para comenzar un proceso de análisis exploratorio de los datos recopilados, con el fin de conocer mejor la información y prepararla para la ejecución de algoritmos de aprendizaje automático. Debido a que los datos eran externos a nosotros, se tomaron datos de la plataforma kaggle para este último paso.
Para esto trabajamos en Colab o también llamado Colaboratory que es una plataforma de google, la cual nos permite ejecutar y programar en python. Trabajamos en tiempo real y en equipo. Utilizamos diferentes librerías para hacer el análisis exploratorio de los datos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de machine learning y ponerlos en práctica por medio del análisis de datos. Sin embargo, como la extracción de datos del COVID-19 aún continúa no se pueden mostrar los datos de este. Por lo cual el análisis de datos se basó en información obtenida de kaggle. Estos nos muestran que a nivel mundial la vacuna que se ha aplicado más es la AstraZeneca y la Pfizer. También aprendimos cómo es el día a día en la vida de los científicos de datos y el trabajo que se realiza en equipo. Podemos concluir que la ciencia de datos es un área que se encuentra actualmente en auge y hacen falta muchos profesionales que se desarrollen en ella, así mismo aprendimos los conceptos básicos que nos dan la base para seguir aprendiendo sobre esta rama de la ciencia.
Ramirez Gil Robinson Johan, Universidad Tecnológica de Pereira
Asesor:Dr. Alexis Sagastume Gutiérrez, Universidad de la Costa
EVALUACIóN DE LAS MEJORAS TECNOLóGICAS EN EL DESEMPEñO TéRMICO
DE UNA ESTUFA SOLAR PARABóLICA
EVALUACIóN DE LAS MEJORAS TECNOLóGICAS EN EL DESEMPEñO TéRMICO
DE UNA ESTUFA SOLAR PARABóLICA
Ramirez Gil Robinson Johan, Universidad Tecnológica de Pereira. Asesor: Dr. Alexis Sagastume Gutiérrez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, los países desarrollados y en vías de desarrollo han estado en búsqueda de soluciones más efectivas a los problemas ambientales, enfocándose en la transición energética y promover el desarrollo sostenible. Razón por la cual, la organización de la naciones unidas (ONU) estableció los 17 objetivos de desarrollo sostenible. En este caso en específico, el ODS número 7 (energía limpia y asequible) atiende directamente la finalidad de este proyecto, debido a promueve el uso de la energía solar térmica para procesos de calentamiento o cocción, que tiene como finalidad reducir la quema de madera y carbón como combustible y así mitigar el impacto ambiental generado, así como las enfermedades causadas por inhalación de humo.
Esta investigación surge de la necesidad de prescindir, en gran medida, de las estufas tradicionales de leña que causan no sólo problemas ambientales, sino también problemas respiratorios y de visión; la unidad de planeación minero energética del país determino que el combustible usado por las personas para la cocción de alimentos en las poblaciones del país que no tiene acceso a gas domiciliario usa madera en un 67,9% de las cuales el 36% de las personas sufren problemas respiratorios, el 15,1 % tienen problemas de visión y el 9,6 presentan quemaduras en el cuerpo.
Colombia en la actualidad ha decidido incursionar en las energías renovables o alternativas como propuesta de transición energética; sin embargo, debido a la normatividad y la infraestructura que presenta el país para su implementación, aún están atrasadas frente a otros países de la región como Brasil, Chile y México. Asimismo, la aceptación cultural es una de las grandes barreras que han presentado los diferentes proyectos que han buscado llevar este tipo de tecnologías a comunidades del país que no tienen acceso a los servicios esenciales como lo son: el agua, la electricidad y el gas. Lo que, en términos generales, representa un atraso en los ámbitos educativos, socioculturales y económicos de la comunidad. Particularmente el uso de la energía solar, como sustituto de la madera para procesos de cocción, no se ha desarrollado totalmente, siendo este un punto de partida para el desarrollo e implementación de este prototipo.
Las estufas solares de tipo parabólico, también conocidas como estufas de concentración o reflectantes, permiten que los rayos del sol incidan sobre una superficie reflectante y reflejados y concentrados a un punto focal que conlleva al aumento de temperatura de un fluido dentro de un recipiente localizado en la zona focal, logrando la cocción de alimentos. Colombia tiene un alto potencial de energía solar, la irradiación solar en todo el país es mayormente uniforme durante todo el año con un promedio diario de 4.5 kWh/m2 y no sólo eso, en comparación al promedio de potencial mundial de irradiancia solar que es de alrededor de 2500 kWh/m2/año, Colombia presenta un potencial de irradiación solar en la guajira y la costa pacífica del 84% y 58% de este valor respectivamente, que son las zonas con mayor número de comunidades en las cuales se plantea usar este prototipo.
La utilización de la energía solar para procesos de calentamiento, han sido en la última década, las de mayor auge y crecimiento a nivel global, por ser la energía solar un recurso natural ilimitado y de fácil adquisición. los sistemas de calentamiento de agua solares son una de las aplicaciones que más se están utilizando a nivel mundial, ya que, en el año 2019, estos sistemas lograron generar un total de 479 GWth, lo que equivale a dejar de emitir 135,1 millones de toneladas de CO2 siendo un gran avance para la transición energética mundial.
METODOLOGÍA
Para el desarrollo del proyecto se realizaron un total de 12 pruebas de 2 horas cada una, durante 8 días en la zona suburbana de la ciudad de Pereira. Tomado las temperaturas del ambiente, del fluido y del recipiente, de igual manera se tomaron datos de irradiación solar que, para fines de cálculos y análisis, se tomarán en lapsos de 5 minutos.
A continuación, se enlistan las actividades desarrolladas con base al objetivo general.
Elegir una metodología para realizar los cálculos del desempeño térmico del prototipo de estufa solar.
Plantear el método de elaboración de las pruebas experimentales.
Seleccionar la zona de la ciudad de Pereira donde se realizarán las pruebas experimentales con el prototipo.
Realizar las pruebas experimentales del prototipo.
Calcular la eficiencia térmica, las pérdidas de calor y el balance energético de la estufa solar parabólica.
Análisis de los datos obtenidos durante la ejecución de las pruebas.
Para la ejecución de las pruebas experimentales y la toma de datos se definió el siguiente paso a paso con el fin de hacer reproducible cada una de las pruebas.
Ubicar la estufa solar en un espacio donde esté totalmente expuesta al sol.
Llenar la olla con 3 L de agua
Colocar la olla sobre la parrilla de la estufa solar y taparla.
Toma de datos de la temperatura ambiente, de la temperatura del agua y de la irradiación solar al momento de iniciar cada prueba
Tomar valores de temperatura del fluido con el termómetro, del recipiente con la cámara termográfica y de irradiación solar con el piranómetro cada cinco minutos durante todo el proceso.
Almacenar y analizar todos los datos obtenidos.
CONCLUSIONES
Las pruebas de calentamiento de agua desarrolladas en diferentes condiciones de irradiación solar permitieron determinar que la eficiencia térmica de la estufa solar varía entre el 35% y el 51%
La temperatura máxima alcanzada durante las pruebas de la estufa solar fue de 96 ℃, lo que es adecuado para la cocción de alimentos en tiempos razonables.
La estufa solar fue probada bajo las condiciones meteorológicas de la ciudad de Pereira, pero debería probarse en regiones con mayor irradiación solar y menor nubosidad, lo que en principio resultaría en mayores temperaturas y valores eficiencia térmica, por lo que se necesitarían menores tiempos de cocción.
Ramirez Gomez Lidia, Instituto Tecnológico Superior de Las Choapas
Asesor:M.C. Adelfo García Ceja, Instituto Tecnológico Superior de Venustiano Carranza
APLICACIóN DE BACTERIAS áCIDO LáCTICAS EN SALSA PICANTE
APLICACIóN DE BACTERIAS áCIDO LáCTICAS EN SALSA PICANTE
Ramirez Gomez Lidia, Instituto Tecnológico Superior de Las Choapas. Asesor: M.C. Adelfo García Ceja, Instituto Tecnológico Superior de Venustiano Carranza
PLANTEAMIENTO DEL PROBLEMA
Desde hace muchos años, las salsas picantes se han elaborado en cantidades de manera industrial. En México es más que un ingrediente, es símbolo de identidad ya que cifras revelan que el consumo per cápita nacional fue de 1.5 kilos (equivalente a siete botellas de salsa anualmente) en promedio. La mitad de los hogares las preparó en su casa por lo menos dos veces a la semana, mientras que 39 por ciento compró salsas envasadas tipo caseras. Pero la capsaicina, un derivado del ácido homovanílico que contienen los chiles son el principal componente activo responsable de la sensación pungente del fruto que ha sido estudiada en sus efectos sobre la salud. Con un consumo moderado los receptores vaniloides se encuentran ampliamente distribuidos en el organismo con efectos positivos en múltiples funciones orgánicas. También se ha estudiado la asociación del alto consumo de comida con chile tiene un incremento en la tasa de enfermedades en individuos genéticamente susceptibles como síndrome de intestino irritable, gastritis y cáncer gástrico.
METODOLOGÍA
Elaboración de la salsa
Fundamento: Producto resultante de la composición, mezcla y/o molienda de una o más variedades de ajíes frescos, secos o conservados, especias e ingredientes permitidos, que le proporcionen el sabor característico; basándose en la norma NMX-F-377-1986.
Procedimiento:
Se selecciona la materia prima, para después lavarse y desinfectarse.
En una olla se pone a hervir 2 chiles jalapeño y 2 tomates verses por 5 minutos.
En una licuadora marca Oster Core negro 6832N; se adicionan los tomates y los chiles junto con el cilantro y un diente de ajo y se licua.
Se le adiciona 20 mL de aceite y se deja licuar por otros 3 minutos, posteriormente se apaga y se revisa si el producto queda homogéneo, si le hace falta con una espátula adicionar el restante.
Se muele por 30 segundos, sin apagar la licuadora se adiciona 50 mL de aceite en forma de hebra para que se forme una emulsión, una vez terminado se muele otros 30 segundos se apaga la licuadora y se envasa el producto.
Determinación de pH.
Fundamento: El pH se define como el valor dado por un instrumento potenciométrico adecuado y propiamente estandarizado, capaz de reproducir valores de pH. Guiándose con la norma NOM-F-317-S-1978.
Procedimiento:
Calibrar el potenciómetro, siguiendo las intrusiones del fabricante.
Colocar en un vaso de precipitado 3 mL de la muestra respectivamente.
Lavar los electrodos con varias porciones de agua destilada.
Sumergir los electrodos en el vaso de precipitado que contiene la muestra y leer directamente el valor de pH.
Determinación de acidez titulable
Fundamento: La determinación de acidez titulable consiste en una valoración ácido- base que permite cuantificar la concentración del ácido presente basado en la norma NMX-F-102-S-1978.
Procedimiento:
Pipetear 20 mL de la muestra en un matraz Erlenmeyer de 100 mL, añadir 3 gotas de la solución de fenolftaleína con un gotero y agitar.
En una bureta de 25 mL titular con la solución de Hidróxido de sodio al 0.1 N. Agregar la solución de hidróxido de sodio de gota en gota a la muestra abriendo la válvula de la bureta.
La muestra debe de estar en agitación constante hasta que se torne de un color rosado tenue, cuando se muestre la coloración se debe de cerrar la válvula, se registra los mL de hidróxido de sodio utilizados.
Se vuelve a titular la bureta para realizar más pruebas, para que el resultado sea más eficiente.
Medición de Color
Fundamento: La medición de color, o visión digital, tiene una eficacia comprobada en la industria del control de calidad de los alimentos utilizando como referencia la norma NMX-F-116-SCFI-2012.
Procedimiento:
Se coloca 5 mL de muestra en un vidrio de reloj.
El colorímetro Modelo WR10 se pone sobre el lugar donde quiere medir.
Se aprieta el botón de medir, aparece un foco de luz que se posiciona sobre el lugar donde se va a medir.
El dispositivo realiza la medición, en la escala de reflectancia se determinarán los parámetros L, a y b en el sistema Hunter.
Acondicionamiento de la cepa
Fundamento: en términos microbiológicos se entiende por siembra al proceso mediante el cual se lleva una porción de microorganismos inocuo de un cultivo bacteriano a un medio nutritivo para su crecimiento la metodología aplico las normas NOM-092-SSA1-1994, NOM-110-SSA1-1994, NOM-065-SSA1-1993 y NOM-210-SSA1-2014.
Procedimiento:
Lavar todos los materiales de vidrio escurrir el exceso de agua para después secarlos con una franela.
Los materiales se envuelven con papel estraza y cinta testigo, se colocan en una autoclave para esterilizarlos durante 20 minutos.
La mesa de trabajo se esteriliza con alcohol y flameando la superficie.
Se prepara el medio de cultivo siguiendo las instrucciones del fabricante, en un matraz de Erlenmeyer de 500 mL. Se deja hervir durante un minuto.
Con una pipeta de 10 mL se adiciona 20 mL caldo RMS a cada caja Petri alado de una lámpara de alcohol.
Se siembra 0.1 mL de la cepa del Lactobacilos casei Shirota obtenidas del yakult con una pipeta de 1 mL en las cajas Petri, en condiciones anaeróbicas a 37° C. Para la producción de biomasa.
Una vez sembrados los microorganismos, fueron incubados a temperatura ambiente por 4 días.
Al cuarto día se sacan las muestras para ser aisladas.
Se toman 5 muestras de las cepas cultivadas con el asa bacteriológica para ser aisladas en otras cajas Petri con caldo RMS esterilizado en condiciones anaeróbicas.
Las nuevas sepas son incubadas a 37°C durante 48 horas en condiciones anaeróbicas.
CONCLUSIONES
La salsa cumple con todas las condiciones que establece la norma NMX-F-377-1986. Ya que las materias primas e ingredientes de calidad sanitaria, y se aplicaron buenas técnicas de elaboración en medio de un ambiente higiénico.
A través de los datos generados del presente trabajo todos los procedimientos cumplieron los estándares a través de las normas con las cuales se regían, todos los procedimientos fueron rigurosamente analizados y las pruebas se realizaron en ambientes controlados e higiénicos, como también se realizaron triplicados para que no se obtuvieran un gran margen de error.
Ramírez Ibarra Mariana Polet, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
DISPENSADOR DE MEDICAMENTOS CON INTEGRACION DE OXIMETRO PARA ADULTOS MAYORES, CON USO DE IOT.
DISPENSADOR DE MEDICAMENTOS CON INTEGRACION DE OXIMETRO PARA ADULTOS MAYORES, CON USO DE IOT.
Ramírez Ibarra Mariana Polet, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. Angélica González Páramo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
La realización del prototipo Dispensador de medicamentos, con integración de oxímetro para adultos mayores, está enfocado en mejorar la salud de las personas de la tercera edad ya que, en nuestro país, según comunicado de INEGI, la población adulta de 30 a 59 años la cifra aumentó de 25.5% a 37.4% y para la de 60 años o más, pasó de 6.2% a 11.3 por ciento. Este último incremento es un indicio de que el país está pasando por un proceso de envejecimiento demográfico y es importante mejorar la calidad de vida de nuestros adultos mayores, y más ahora con la nueva aparición de virus, como lo es covid-19 que son una familia de virus que causan enfermedades (desde el resfriado común hasta enfermedades respiratorias más graves).
Esto coloca con un índice de mayor riesgo a los adultos mayores o cualquier persona que tengan algún padecimiento como: diabetes, hipertensión, obesidad o enfermedades crónicas respiratorias o autoinmunes.
METODOLOGÍA
Estudio del arte, se realizó una investigación de todos los dispensadores de medicamentos y sus diferencias entre cada uno de ellos, y ver cual seria la diferencia entre el que se esta desarrollando lo cual es que en este lo puede utilizar el publico en general, pero tiene un enfoque hacia adultos mayores.
Planificación, en esta parte se realizo un cronograma con las actividades que se iban a estar realizando durante el verano.
Análisis de requerimientos, se buscan los componentes que mejor se adapten a las medidas del dispensador y que sean compatibles con las placas por eso se realizan las pruebas con las placas, se elegio el modulo mkr1000 para obtener conectividad WIFI, pero algunos componentes no son compatibles con esa placa entonces se van a conectar los demás componentes en el arduino uno.
Diseño, en este parte se realizo el diseño en tinkercad con cada uno de los componentes que se utilizó, para ver como se iban a hacer de manera física. En ese simulador también se puede programar el circuito y de esa manera se realizó.
Programación, se realizaron los circuitos de manera física y se comenzó la programación de cada uno de ellos para conocerlos, dependiendo de lo que el dispensador tiene que hacer con cada componente se iban programando, en el verano solo se pudo lograr hasta esta parte de la metodología ya que este proyecto se seguirá desarrollando.
CONCLUSIONES
En este verano se logró comprender la problemática por la cual se esta realizando este dispensador de medicamentos, en donde se utilizarán componentes para que este pueda llevar a cabo su función donde se trabajó con la mayoría de los componentes, se resolvieron problemáticas que se iban presentando en la programación y diseño del mismo.
Ramirez Lomeli Lluvia Alicia, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. María Amparo Lizárraga Morales, Universidad Politécnica de Sinaloa
IMPACTO DE LA PANDEMIA COVID-19 EN LA LOGíSTICA DE EXPORTACIóN DE LAS PEQUEñAS Y MEDIANAS EMPRESAS INDUSTRIALES DEL SUR DE SINALOA
IMPACTO DE LA PANDEMIA COVID-19 EN LA LOGíSTICA DE EXPORTACIóN DE LAS PEQUEñAS Y MEDIANAS EMPRESAS INDUSTRIALES DEL SUR DE SINALOA
Ramirez Lomeli Lluvia Alicia, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. María Amparo Lizárraga Morales, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
En 2020, a nivel mundial se presentó la pandemia COVID 19 que afectó al sector empresarial, datos aportados por INEGI (2021) revelan que de los 4.9 millones PyMEs existentes en México, sobrevivieron el 79.2% y cerraron sus puertas el 20.8%.
Además, fue un año de tensión en el sector logístico, debido a la caída en el PIB logístico del 39.3% en nuestro país, mientras que el impacto negativo para el autotransporte de carga fue de 27.3% (CANACAR, 2020). También, perturbaciones en la cadena de suministros y problemas aduaneros que generaron importantes aumentos de costos logísticos (Marinucci, 2021). Por lo anterior, muchos negocios se han obligado a ser más flexibles en sus operaciones (Montejo Ek, Torres Perez, & Quijano Gutiérrez, 2020).
Para el caso de las PyMEs en Sinaloa, se declararon en aislamiento 122 mil negocios que tenía el estado en 2020, el 55% fueron catalogados como esenciales; mientras que, cerca de 50 mil negocios se fueron a receso por más de tres meses (Caro, 2020). A finales de año, el 27.70% cerraron definitivamente respecto a las existentes en 2019 (INEGI, 2020).
Referente a las exportaciones, desde 2009 al 2019, Sinaloa mostró crecimiento acelerado en sus exportaciones. En 2019, el estado alcanzó un récord histórico en exportaciones, con una cifra de casi los $3 mil 386 millones de dólares exportados durante el año, alcanzó un récord histórico en exportaciones. Y, 2020, pese a la situación sanitaria producto de la presencia del virus covid-19, la entidad pudo mantener un ritmo de exportaciones similar al año anterior, $3 mil 372 millones de dólares, alrededor de $13 millones de dólares de diferencia, un crecimiento de menor magnitud, respecto a la tendencia que se mostró en años anteriores (SEDECO Sinaloa, 2020).
Por lo anterior, el objetivo de la presente investigación es diagnosticar el nivel de impacto de la Pandemia COVID-19 en la logística de exportación de las Pymes industriales del sur de Sinaloa durante el 2020, para proponer estrategias logísticas que les permitan mejorar su competitividad empresarial en los próximos años.
METODOLOGÍA
El enfoque de investigación utilizado es positivista con metodología cuantitativa. El diseño es no experimental, de tipo transeccional y con alcance descriptivo. En la recopilación de la información se utilizó la técnica encuesta con el instrumento cuestionario de tipo cerrado con 19 preguntas, con una confiabilidad de 0.8216 de acuerdo al Coeficiente Alfa Cronbach; aplicado a una muestra por conveniencia de 5 Pymes industriales exportadoras del sur de Sinaloa de una población de 14.
CONCLUSIONES
De acuerdo a los hallazgos encontrados, se concluye que la pandemia COVID-19 tuvo un impacto negativo regular en la logística de exportación del 50% de las PyMEs industriales del sur de Sinaloa, el 33.3% un impacto negativo alto y el 16.7% un impacto negativo bajo; aceptándose la hipótesis alternativa.
En específico, la afectación se presentó en la cadena de proveedores, transporte, procesos logísticos y eficiencia del despacho aduanero de sus exportaciones con un 83.3%. El 66.7% de las PyMEs cuentan con un departamento de exportación para controlar su proceso de internacionalización y sus operaciones de exportación. Comparando sus exportaciones con relación al 2019, la mayoría afirma que se han mantenido, mientras que el 33.3% manifiesta una disminución. El principal mercado al que se dirigen es América del norte con el 83.3%, seguido de Europa con el 66.7%; y, el resto, a América Latina, Asia y Medio Oriente.
Por lo que, se proponen las siguientes estrategias logísticas para incrementar su competitividad empresarial: contar con visibilidad al detalle de la cadena de suministro, contratar proveedores alternativos y locales, mayor inversión en la gestión de riesgos y eficiencia en el despacho aduanero.
Palabras claves: Competitividad empresarial, Logísticas de exportación, Pandemia COVID-19, PyMEs.
Ramírez López Fabián, Instituto Politécnico Nacional
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
ROBÓTICA EDUCATIVA
ROBÓTICA EDUCATIVA
Ramírez López Fabián, Instituto Politécnico Nacional. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
ROBÓTICA EDUCATIVA
Asesor: JUAN CARLOS OJEDA ALARCÓN, Universidad Autónoma de Occidente
Estudiante: Ramírez López Fabián, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La robótica desde su aparición formal como área de estudio ha traído innumerables avances tecnológicos para la humanidad al juntar diversas ramas de la ciencia para tratar de mejorar todos los entornos posibles, sin embargo, existen ramas en las que no se ha implementado de manera tan directa. Por muchos años el sistema educativo en México no ha cambiado, se hace cada vez más anticuado y con menores competencias para las tecnologías de hoy, todo desde el tipo de metodologías que utilizan los profesores para impartir sus clases, pues en su mayoría no hacen que el alumno se quiera adentrar más en los temas y mucho menos que aprenda.
Esto trae diversas problemáticas a largo plazo, pues el hecho de continuar con dinámicas de educación tan repetitivas y sin interacción alguna genera un bajo aprendizaje para el alumno, por ello es que durante este verano de investigación se estudiarán diversas maneras de introducir a la robótica en el campo de la educación para diversos niveles buscando introducir a los estudiantes en diversas secuencias más didácticas, a su vez procurar el reciclaje en los proyectos para hacerlo más accesible.
METODOLOGÍA
METODOLOGÍA
Se hacen alrededor de 2 reuniones por semana en las cuales presentamos diversos proyectos con temáticas relativas a robótica educativa, generalmente es un robot y la utilización que tendría en la enseñanza de ciertos temas, los profesores nos instruyen en las temáticas características de los robots, y nosotros como veraniegos los adaptamos a diversos ambientes, a su vez que si existen temas los cuales no dominamos, nuestros profesores asesores nos apoyan para comprenderlos, por ejemplo para la presentación de determinados proyectos requerimos utilizar la plataforma tinkercad de la cual se nos dio un curso para manejarla.
Mantenemos contacto entre asesores - veraniegos constantemente vía WhatsApp en donde exponemos nuestras dudas, las cuales son respondidas por los profesores ya sea por esa plataforma o las retomamos en las reuniones vía zoom.
En mi caso la primera semana realicé una actividad en equipo la cual consiste en una prótesis de mano con la cual llevamos a cabo una secuencia didáctica sobre el tema El aparato musculo esquelético y su movilidad, también de manera digital presenté un contador de personas en Arduino el cual puede ser implementado en negocios para llevar el control del número de personas que ingresan al establecimiento.
Otro ejemplo de proyecto fue un triciclo robotizado con el cual implementé una secuencia didáctica para el tema Movimiento Circular uniforme y movimiento circular uniformemente variado el cual es parte del temario de Física I del IPN en las escuelas de nivel Medio Superior de tercer semestre.
Cabe destacar que llevamos un control de las actividades que realizamos en una página creada por los asesores en donde publicamos nuestros perfiles y actividades constante.
El enlace a mi página:
https://sites.google.com/view/veranodeldelfin2021/inicio/robotica-educativa/fabian
CONCLUSIONES
CONCLUSIONES
Durante la estancia de este verano se ha logrado implementar la robótica como parte de la educación en diversos ambientes, así como conocer diversos planes de estudio para seguir divagando en los diferentes niveles educativos que existen, en este momento continuamos con la realización de un proyecto final el cual debe ser principalmente de aplicación en un área determinada. En lo personal me llevo muchos aprendizajes en el área de la robótica.
Ramírez Ramírez Jenny Alejandra, Universidad Tecnológica de Zinacantepec
Asesor:Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla
PRODUCCIóN DE ETANOL A PARTIR DE LA MELAZA
PRODUCCIóN DE ETANOL A PARTIR DE LA MELAZA
Ramírez Ramírez Jenny Alejandra, Universidad Tecnológica de Zinacantepec. Asesor: Dra. Juana Deisy Santamaría Juárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En los últimos años hemos sido testigo de cómo ha ido incrementando la demanda de algunos derivados de la caña de azúcar, así como la sobre producción de melaza, en los Ingenios se producen toneladas por día.
El ingenio La abeja actualmente están produciendo grandes toneladas de Melaza, aunque ninguna de los Ingenios que se encuentran en todo México queda exenta de la gran producción de melaza que generan.
A lo largo de los años ya se ha dado uso a la melaza, como para alimento de ganadería, como fuente de nutrición para los suelos de cultivos y en la actualidad se han desarrollado diferentes metodologías para obtener etanol a partir de este material utilizando levaduras.
Este estudio tiene como finalidad obtener etanol por medio de la melaza con intervención de ciertas levaduras, ya que casi ningún ingenio ha optado producir etanol a partir de la melaza, si no directamente del jugo de la caña, pero aplicando este método de generación de etanol, para aprovechar la melaza del Ingenio La abeja puede traer beneficios tanto económicos, como de aportación para la producción de bioetanol.
METODOLOGÍA
Se determinó el método de fermentación seria utilizando la levadura Saccharomyces cerevisiae bajo las condiciones reportadas: composición química de lavadura en ceniza 7%, carbohidratos 43%, proteína 48%, grasa 2%, otros factores 0%.
Factores como el pH aproximado de 4.0 - 4.5 - 6.0, luz, temperatura, desecación, cantidad de etanol, productividad, presión osmótica, aireación, 20% de concentración en volumen/hectolitro, Misma levadura se tubo un tratamiento, acondicionamiento, fermentación y caracterización.
El pH de la fermentacion de la levadura y la melaza posteriomente tratarada debe ser aproximada de 4.0 - 6.0, temperaturas constantes no mayores a 30°C, oxigenacion en forma de aire y la composicion quimica antes mecionada. mientras que su metodologia habitual comienza desde la clasificacion de la melaza, microorganismos, almacenamiento, produccion, factores, condiciones he influencias de la fermentacion con melaza, levadura y etanol.
La técnica FTIR-ATR sirve para analizar la evolución del curado, ya que es posible monitorear las reacciones que se llevan a cabo a lo largo del proceso y que están asociadas al consumo o la generación de grupos funcionales. En este sentido, la espectroscopia de infrarrojo se convierte en una importante herramienta para valorar la evolución de los cambios químicos experimentados al interior del polímero debido a las reacciones que tienen lugar durante el curado y que se encuentran ligadas a la conversión del grupo epoxi o amina de la resina y el endurecedor, respectivamente; otros parámetros asociados a esta transformación son la temperatura , tiempo de curado, relación resina/endurecedor, presencia de aditivos, etc. Se utilizó el infrarrojo medio con un rango de frecuencia de 4000 - 400cm-1. La muestra se analizó sin ningún tratamiento. Las muestras se caracterizaron por espectroscopia de infrarrojo con transformada de Fourier (FTIR - ATR):
Primero se representó los espectros de IR de la melaza en la región de 4000 a 2500 cm-1. Los resultados muestran cinco bandas asociadas a esta (3650, 3320, 2970, 2920 y 2870 cm-1). En general, se observa que la intensidad de estas bandas se incrementa cuando el etanol es incorporado a la levadura fermentada. Todas las bandas muestran un incremento en su intensidad y área bajo la curva conforme crece la concentración de etanol en la fermentación.
Se presento los espectros de IR de etanol en la región de 1650 a 850 cm-1. De manera similar al análisis anterior, cuando el alcohol es incorporado a la mezcla, se observa un incremento en la intensidad de las bandas asociadas a grupos metilo (1465 y 1380 cm-1).
Los datos experimentales de IR fueron utilizados para obtener modelos de etanol en gel antibacterial 10, 20 y 30. Para lograr lo anterior, se desarrolló la siguiente metodología: se analizó el espectro en la región de 4000 a 850 cm-1, se realizó la corrección de línea base, se utilizó una función para llevar a cabo la deconvolución del área que presenta cada una de las bandas del espectro (3650, 3320, 2970, 2920, 2870, 1465, 1380, 1250, 1150, 1090, 1050, 980 y 880 cm-1), se determinó el área de cada banda y el área total del espectro.
CONCLUSIONES
La obtención de etanol a partir de la fermentación de la melaza de caña se obtiene de manera exitosa con la intervención de saccharomyces cerevisiae, esto al buen manejo de las muestras y de los parámetros que se consideraron
La producción de etanol se encuentra asociada fundamentalmente con el consumo de azúcares en especial glucosa por el microorganismo empleado como la levadura. Por lo que la eficiencia de la reacción química se encuentra en función de las condiciones adecuadas a las que se someta el microorganismo. La producción de etanol, al igual esta asociada fundamente a la fermentación de la levadura de cerveza mejor conocida como Saccharomyces cervisiae, esta cepa de levadura a comprobado una eficacia completa en la producción del etanol y sus usos, así como también la mezcla del subproducto melaza.
La melaza obtenida de la caña de azúcar requiere de un pre-tratamiento adecuado para ser utilizada como un sustrato en procesos de fermentación acompañada de la levadura utilizada, debido a las impurezas presentes y a la presencia de glucosa elevada. Como antes visto la melaza que es el subproducto de la producción de azúcar contiene enzimas de glucosa y fructuosa que podrían desequilibrar la producción del etanol o bien de la misma fermentación
La espectrofotometría de infrarrojo (FTIR - ATR) al que la fermentación fue sometida, se obtuvieron los resultados deseados, así como la curva de calibración del etanol, en nuestra espectrofotometría se calculo de igual manera la curva de calibración y demás gráficos importantes en gel antibacterial de grados 10, 20 y 30. Todos los resultados obtenidos fueron como se creía en la hipótesis.
Ramirez Rivera Ricardo, Universidad Autónoma de Ciudad Juárez
Asesor:Dra. Elvia Luz González Muñoz, Universidad de Guadalajara
ERGONOMíA EN LA AGRICULTURA
ERGONOMíA EN LA AGRICULTURA
Ramirez Rivera Ricardo, Universidad Autónoma de Ciudad Juárez. Asesor: Dra. Elvia Luz González Muñoz, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La ergonomía se define como el conjunto de conocimientos científicos aplicados para hacer que el trabajo, herramientas y ambiente se adapten a las necesidades y capacidades físicas y mentales de una persona. Sin embargo, a lo largo de los años se ha encontrado que esta disciplina es mayormente mencionada únicamente en el sector industrial, dejando de lado las infinitas posibilidades de aplicación en cualquier área o tipo de trabajo. Para este caso, el área seleccionada fue el sector agrícola, en el cual se buscará profundizar sobre las herramientas, maquinaria y diferentes actividades que realiza el agricultor.
METODOLOGÍA
La investigación sobre el tema de Ergonomía en el Sector Agrícola se llevo acabo por medio de la recopilación de artículos en español e ingles buscados en la plataforma Google Academy, tomando como base de búsqueda diferentes combinaciones de palabras clave. La búsqueda arrojaba resultados muy variados dependiendo de que palabras eran utilizadas. Por ejemplo, cada combinación de palabras tenia que llevar consigo Ergonomía y Agricultura, de no ser así, la búsqueda se volvía muy extensa por la gran cantidad de artículos que se encontraban. Además de estas dos palabras se incluía una mas de entre Empaquetado, Maquinaria, Instalaciones y Actividades. De esta manera la búsqueda arrojaba casi puros artículos relacionados con el tema de interés. Aun así, muchas de estas palabras clave no fueron de mucha ayuda, por ejemplo, no se encontraron mas que uno o dos artículos útiles con la palabra instalaciones, mismo caso para empaques y herramientas. En su mayoría, la palabra clave de mas ayuda fue maquinaria.
Se recolectó alrededor de 50 documentos sobre Ergonomía en la Agricultura y en temas como el empaquetado, la maquinaria, etc. Sin embargo, una gran cantidad de estos documentos no cumplían con las especificaciones requeridas para el trabajo. Por ejemplo, muchos de estos documentos eran trabajos de universidad, tesis e investigaciones de posgrado y para nosotros era importante que fueran artículos avalados y en los que se pudiera tener una seguridad total de información. Incluso cuando existían muchos trabajos de tesis que hablaban muy específicamente del tema que estamos trabajando, no podíamos tomarlos en cuenta. Fu ahí cuando pasamos de tener aproximadamente 50 documentos a 27. Después, por otro lado, había entre estos 27 artículos algunos que eran de años muy atrás, 2000, 1998, 1987, etc. El margen de tiempos que se manejo fue del 2010 al presente y, aun así, al final agregue un documento un poco salido del margen. Esto nos dejo con 20 artículos que fueron tentativos para un buen uso de investigación sobre el tema.
Otro detalle importante a mencionar es que, la gran mayoría de los artículos a trabajar no contaban con un estudio profundo en el ámbito estadístico, solo abarcaban el tema en base a lo teórico, o a comparaciones en medidas, posturas en el uso de maquinaria y todo lo que conlleva la ergonomía en el ámbito Ergonómico. Muchos artículos trazaban el camino a una investigación documental, mas allá de un análisis estadístico.
CONCLUSIONES
Existe una gran carencia de estudio de Ergonomía en la Agricultura en México, pues como se menciono anteriormente, todos los artículos que se tomaron en cuenta para la investigación pertenecían a países europeos, sudamericanos y asiáticos. No se encontró un solo articulo proveniente de México.
Es importante mencionar que cuando la búsqueda se realiza en el idioma español, no existen tantos artículos oficiales como los hay en la búsqueda en ingles. Es español, la gran mayoría de documentos arrojados eran trabajos de universidad, tesis y posgrados, no artículos oficiales de plena confianza. En el idioma ingles, esto era lo contrario. También, casi todos los artículos en idioma español eran de países ubicados en Centroamérica y Sudamérica, y en el caso de los artículos en ingles solo un par de ellos eran de Estados Unidos, mientras todos los demás pertenecían a países europeos, de Asia e incluso Sudamérica también.
De igual manera, la carencia del ámbito estadístico en los artículos recolectados habla mucho de la falta y necesidad de abarcar el tema Ergonómico en la Agricultura, porque claro, dentro de lo visto en los artículos podemos finalizar que, en efecto, la ergonomía entra totalmente en cualquier área de actividades incluyendo claramente la Agricultura. No obstante, sin un estudio profundo estadístico no puede haber un avance o incluso una seriedad sobre el tema. Mucho se puede decir y redactar sobre el tema, pero sin el estudio estadístico que respalde lo dicho será muy difícil lograr implementar el tema ergonómico en el área agrícola.
Ramírez Romero Aylín Adriana, Universidad Veracruzana
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
INDICADORES COMO PUNTO INICIAL DE LA RECUPERACIóN E INTERVENCIóN DE CIUDADES HISTóRICAS
INDICADORES COMO PUNTO INICIAL DE LA RECUPERACIóN E INTERVENCIóN DE CIUDADES HISTóRICAS
Ramírez Romero Aylín Adriana, Universidad Veracruzana. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En el patrimonio cultural, se menciona las acciones sociales que se realizaban en diferentes épocas pasadas de las ciudades actuales. Las ciudades históricas son el punto original donde la traza y planeación urbana dan un inicio a la habitabilidad de un espacio. El Instituto Nacional de Antropología e Historia (INAH) es una de las grandes instituciones que delimitan y protegen las ciudades históricas con el fin de conservar y preservar el patrimonio urbano, rescatando estilos de las épocas que existieron y los procesos constructivos que se solían realizar en esos años.
Algunos estados de la República Mexicana han rescatado el patrimonio de sus ciudades, dándole una nueva vida y oportunidad de interacciones sociales, los casos ejemplares a citar están los centros históricos coloniales de CDMX, Puebla, Yucatán, Morelia, Guanajuato, Oaxaca, San Miguel de Allende, por mencionar algunos de los más destacados, donde abundan diversas actividades económicas, de vivienda y educativas. Desafortunadamente algunos centros históricos están en estado de abandono o sólo se enfocan en la actividad comercial, lo que resulta en problemas de inseguridad y un deterioro de la ciudad. El centro histórico de Veracruz es el sitio de estudio, donde se busca calificar la calidad de éste y así, determinar los diferentes aspectos a intervenir en conjunto con la sociedad, centros educativos y vinculación de instituciones.
METODOLOGÍA
Los indicadores de evaluación son instrumentos de medición con el objetivo de aplicar una metodología para llevar control de parámetros sostenibles. Los indicadores dan pauta a los primeros pasos de intervención de las ciudades históricas, deben ser agrupados por temas políticos, sociales y sostenibles, con el fin de que esta metodología aplicada, de pie a propuestas diversas en soluciones sea el caso de cada contexto.
Estas herramientas permitirán crear diversas hipótesis sobre las direcciones que tomarán las acciones de intervención, así detectar los cambios drásticos o de menor impacto, diferentes al punto inicial que se planteó y que puedan ser apoyados para darle seguimiento a lo planeado con anterioridad. Es necesario que todos estos procesos de intervención se den desde un punto de la sostenibilidad y es ahí donde aplicar las metas del objetivo 11 de la agenda 2030 de las Naciones Unidas Lograr que las ciudades y los asentamientos humanos sean inclusivos, seguros, resilientes y sostenibles, puede ser un apoyo inicial que abarque aspectos específicos dentro de una ciudad histórica, dándole un desarrollo avanzado de urbanización ya sea a la ciudad misma o a la zona metropolitana como es el caso de Veracruz.
En el Centro Histórico de la ciudad de Veracruz, es necesario ubicar los puntos fuertes que caracterizan la zona, tales como las actividades económicas y habitables, la sostenibilidad actual y las soluciones a ella, el tránsito peatonal y automovilístico, comportamiento social, seguridad, condiciones de los inmuebles y sus actuales usos. Los indicadores suelen ser diseñados de acuerdo con las condiciones y tipo de información que se puede obtener de la misma ciudad histórica, aunque hay diversos tipos de indicadores que pueden ser desde la información que hay como también se puede realizar investigación en campo con la finalidad de agregar datos relevantes que puedan ser de apoyo a nuevas investigaciones.
Analizando las metas de la agenda 2030 de la ONU, se seleccionan los aspectos característicos de la ciudad histórica y se agrupan, se buscan acciones que reactiven los comportamientos dentro de ésta y dar relación con las hipótesis y que se generen a partir de las intervenciones, asegurando que las propuestas de cada grupo sean efectivas. La sociedad, las instituciones, agentes económicos, con apoyo de las tecnologías de la información y la comunicación permiten compartir a los ciudadanos las propuestas y acciones a realizar dentro de la ciudad histórica, al crear un sistema de indicadores diseñado por los contribuyentes urbanos para la evaluación de la ciudad se preserva y rehabilita el patrimonio cultural.
En la ciudad histórica la participación es a menudo la única posibilidad para asegurar la ejecución de planes y proyectos. (Hugory y Roca, 2008)
CONCLUSIONES
En la ciudad de Veracruz, el estado actual del centro histórico ha generado preocupación para los distintos organismos que trabajan en el sector urbano, pues no solo afecta a los habitantes de la zona, sino a toda la ciudad. Con el paso del tiempo, el centro histórico se ha visto caracterizado por ser una zona de comercios y de poca actividad social una vez que los negocios cierran las ventas, lo que genera diversos problemas de inseguridad, abandono, entre otros aspectos.
Por lo tanto, como conclusión se sugiere generar el diseño de indicadores, hará una lista de aspectos a intervenir que ayuden a realizar una lista de aspectos a intervenir que aporten información necesaria para la creación de planes y propuestas que mejoren la calidad de habitabilidad de la zona, logrando restaurar, preservar, reactivar y mejorar el entorno de una ciudad como la de Veracruz. Sobre todo, es importante ubicar los puntos fuertes y débiles de ésta, si se tienen las herramientas necesarias de acuerdo con las propuestas y qué mejorar o cambiar en caso de no tenerlas, con el fin de no perder el patrimonio cultural de la ciudad, pues ya se han visto referentes de intervenciones en otros países donde han logrado la mejoría y reactivación de sus ciudades históricas, dándole un punto de partida a este tipo de problemáticas urbanas.
REFERENCIAS
Fernández-Baca Casares, Román; Salmerón Escobar, Pedro; Sanz, Nuria. El Paisaje Histórico Urbano en las Ciudades Históricas Patrimonio Mundial: Indicadores para su Conservación y Gestión. Sevilla, 2011.
Hugony, Cecilia; Roca C., Josep. Indicadores para la evaluación de ciudades históricas. España, 2008.
AGRADECIMIENTOS: Departamento de Materiales, Universidad Michoacana de San Nicolás de Hidalgo y la Universidad Veracruzana
Ramírez Santiago Gustavo, Instituto Politécnico Nacional
Asesor:Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
TéCNICAS DE CARACTERIZACIóN DE FOTOCATALIZADORES USADOS EN REACCIONES DE DEGRADACIóN DE COMPUESTOS ORGáNICOS.
TéCNICAS DE CARACTERIZACIóN DE FOTOCATALIZADORES USADOS EN REACCIONES DE DEGRADACIóN DE COMPUESTOS ORGáNICOS.
Ramírez Santiago Gustavo, Instituto Politécnico Nacional. Asesor: Dr. Rosendo López González, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Los compuestos orgánicos presentes en una amplia gama de productos tales como pigmentos, fertilizantes y algunos fármacos son contaminantes comunes en aguas y suelos. En 1990 se reportó el hallazgo de residuos farmacéuticos en agua potable, lo que generó mayor preocupación (Moreno-Ortiz et al., 2013). de ahí la importancia de darles a estos desechos una disposición final.
Aunque a partir de 1976 se han elaborado detallados procesos para el tratamiento y disposición de residuos orgánicos potencialmente peligrosos para el ambiente, ahora se busca una forma sustentable de disponer de estos mismos. Es ahí donde la fotocatálisis entra como una posible solución a la necesidad de degradar estos residuos y mitigar sus efectos en el ambiente y en los recursos hídricos.
Para que la fotocatálisis puede ser una solución viable primero se deben de desarrollar catalizadores que ofrezcan una optima efectividad, para ello se deben encontrar maneras de sintetizarlos y posteriormente caracterizarlos para así determinar que sus características sean las adecuadas. Una de estas características a destacar es la brecha energética entre las bandas de valencia y conducción; esta característica brinda información sobre la cantidad de energía que deberán absorber los electrones del catalizador para llevar a cabo la reacción.
Para determinar la brecha energética se hace uso de la técnica de espectroscopía UV-visible por reflectancia difusa (DRS), mediante la cual se mide la cantidad de luz reflectada por la muestra y usando la ecuación Kubelka Munk se calcula el equivalente en absorbancia.
METODOLOGÍA
Se utilizó el Software Origin Pro para graficar y analizar datos obtenidos mediante distintas técnicas de caracterización tales como difracción de rayos X, espectroscopía UV-visible e IR por reflectancia difusa.
Primero se estudió la técnica de espectroscopía infrarroja y se aprendió a operar el equipo con ATR de manera teórica para posteriormente, con datos donados de muestras analizadas, graficar los espectros IR utilizando distintos formatos para su posterior análisis.
A partir de datos obtenidos con el equipo de difracción de rayos X, se graficó el difractograma de los catalizadores y se analizó el pico representativo mediante el mismo programa usando la función peak analyzer, con esta herramienta se obtuvo el valor del FWHM el cual es necesario para calcular el tamaño de cristalito mediante la ecuación de Scherrer.
Se estudió desde un punto de vista teórico la técnica de espectroscopía UV-visible por reflectancia difusa, especialmente útil para la determinación de la energía de banda prohibida en semiconductores.
Finalmente se estudiaron aspectos teóricos de microscopía electrónica de barrido tales como la preparación de la muestra y el correcto uso y configuración del equipo.
CONCLUSIONES
Como resultado de la estancia de verano se logró adquirir conocimientos teóricos de las técnicas de caracterización de catalizadores y hacer uso de programas informáticos para gráficos científicos y análisis de datos con los que, a partir de datos reales, se obtuvieron las propiedades de distintos compuestos y catalizadores.
Ramos Campos Jessica, Instituto Tecnológico Superior de Apatzingán
Asesor:Mtra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan
DIAGNÓSTICO DEL ECOSISTEMA PARA LA INNOVACIÓN EN EL ESTADO MICHOACÁN, MÉXICO
DIAGNÓSTICO DEL ECOSISTEMA PARA LA INNOVACIÓN EN EL ESTADO MICHOACÁN, MÉXICO
Ramos Campos Jessica, Instituto Tecnológico Superior de Apatzingán. Asesor: Mtra. Brenda Crystal Suárez Espinosa, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Según la Organización para la Competitividad y Desarrollo Económico (OCDE), el sistema mexicano de innovación ha mejorado durante los últimos años Gurría (2010), sin embargo, este autor señala que queda mucho que hacer al respecto, lo anterior se pudo contrastar al determinar que las patentes otorgadas a México durante 2020 fueron un total de 397, por lo que al compararlo con los principales países que las obtuvieron siendo uno de ellos Estados Unidos con un total de 3113 durante este mismo año.
Ante lo anterior, se parte para realizar un estudio para analizar el diagnóstico del ecosistema de la innovación, particularmente del Estado de Michoacán de Ocampo, México en miras de identificar los actores relevantes de la región, sus principales áreas de estudio y las capacidades con las que se cuenta en cuanto a campos de formación académica e investigación, por lo anterior se partió en primer instancia en la realización de un análisis de literatura de diferentes artículos científicos dentro del contexto de la investigación.
Posteriormente, se consultaron sitios oficiales de información para consulta ciudadana como los Anuarios Estadísticos de Educación Superior (ANUIES), Instituto Mexicano de la Propiedad Industrial (IMPI), Organización para la Cooperación y Desarrollo Económico (OCDE), entre otros, así como la consulta con expertos Cámara Nacional de la Industria de la Transformación (Canacintra Uruapan).
Se concentró la información mediante gráficas para facilitar su información para ser presentada en diferentes etapas para conocer los grupos relevantes de la región, las áreas clave de conocimiento, principales sectores económicos de la región, número de patentes y startups asociados por sector económico.
Finalmente se realizan las conclusiones de la investigación mediante comparaciones y argumentos de otros estudios determinando que las principales áreas de acción para impulsar la innovación en la entidad.
METODOLOGÍA
Según datos de la OCDE, México tiene un camino que recorrer en cuanto a innovación ya que durante 2020 reportó un total de patentes de 397, representando un 5% del total de registros ante el IMPI, de lo cual , el estado de Michoacán registró aproximadamente un 8% de solicitudes de registros durante el periodo 2018-2020, lo que motiva a realizar un análisis del ecosistema de la innovación de la entidad, para ello, se realizó un estudio de tipo descriptivo con enfoque cualitativo en el que se realizó de una metodología guiada por cinco etapas y de acuerdo a un muestreo no probabilístico del tipo por conveniencia de acuerdo a criterios de expertos en el tema en este caso, Canacintra Uruapan y el propio investigador así como del propio objeto de estudio, para finalmente describir y concluir, los elementos relevantes encontrados y de acuerdo al planteamiento del problema para construir los datos de la investigación.
El estudio se desarrolló en colaboración con la Cámara de la Industria de la Transformación (Canacintra Uruapan), a través del comité de Innovación de dicha Cámara.
En la etapa 1 de análisis del contexto de la innovación en México, se describen diferentes obras que relatan los principales estudios realizados en materia de innovación y desarrollo tecnológico en México, así como los hallazgos relevantes de las investigaciones.
En la etapa 2 se identificaron los grupos relevantes en la región, correspondientes a los sectores público, social y privado, mismos que se consideran de apoyo al tejido productivo en el estado.
Etapa 3 las áreas clave de conocimiento y capacidades de la región se obtuvo a partir de consulta en el registro ANUIES 2021 con el dato del registro de los últimos tres años, donde se enlistaron: las áreas clave de conocimiento, mediante los datos del registro de número de investigadores y el número de investigaciones realizadas promedio por año en la región, formación: registro de los egresados de las carreras a nivel superior, postgrado y número de patentes, a nivel estado.
En la etapa 4 se enlistaron los sectores económicos de la región, representados por la mayor cantidad de empresas tractoras (tamaño de establecimiento con más de 251 personas) de la región, a la vez con el número de empresas tractoras.
En la etapa 5 se identificaron las empresas de reciente creación que comercializan su producto mediante tecnologías de la información, dentro de cada sector económico.
CONCLUSIONES
Se obtuvieron datos estadísticos sobre las principales áreas de conocimiento, donde mayor cantidad de investigadores se tiene son las humanidades y ciencias de la conducta, ingenierías y ciencias de la tierra con 132, 109 y 69 respectivamente, en cuanto a cantidad de egresados en nivel postgrado, las áreas con mayor cantidad de egresados fueron derecho, administración y pedagogía, se identificó también que los principales sectores económicos de empresas tractoras lo conforman las de actividades legislativas, gubernamentales y organismos internacionales, industria manufacturera y comercio al por mayor, finalmente se determinó que la entidad realizó aproximadamente un 08% del total de solicitudes de patentes ante el IMPI durante el periodo de estudio concluyendo la necesidad de articular elementos (entre los principales actores sociales de la entidad) en miras de impulsar la innovación en Michoacán.
Ramos Moreno Adrian Alonso, Universidad de Ciencias y Artes de Chiapas
Asesor:Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
ELABORACION COMPLETO DEL PROYECTO GEOMETRICO DE UNA CARRETERA
ASESOR: ING. LUCIO MARTIN ESTRADA GARCIA
Alvarado Ibarra Juan Felix, Universidad de Ciencias y Artes de Chiapas. Diego Avilés Anayeli, Instituto Tecnológico Superior de Uruapan. Durantes Castro Lizbeth, Universidad de Ciencias y Artes de Chiapas. Ramos Moreno Adrian Alonso, Universidad de Ciencias y Artes de Chiapas. Asesor: Mtro. Lucio Martin Estrada Garcia, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
La problemática de las vías de comunicación pueden ser muy diferentes, pueden ser causado por el crecimiento poblacional, trafico excesivo, tiempo en transportarse, zonas marginadas, mala estructura, entre otros. Esto lleva a que los caminos, carreteras o autopistas se tengan que ampliar, modernizar o reconstruir para tener un logro exitoso en el transito vial.
A lo cual el proyecto busca tener opciones y resultados que obtengan un beneficio sobre la población. Su importancia es mantener las vías de tránsito en buena calidad para que la comunicación de transportes sea excelente y satisfactoria.
METODOLOGÍA
Para poder realizar la construcción de una carretera o camino, es necesario considerar el proyecto geométrico para el cual es indispensable conocer algunos elementos que lo conforman.
Terminología
Es necesario conocer algunos términos para poder familiarizarse con el proceso del proyecto geométrico de una carretera, primero es importante estudiar el listado que se presenta a continuación:
Abundamiento: Es el volumen aumentado en el material considerado.
Acotamiento: Se le conoce así al espacio que normalmente se deja a los extremos de las carreteras con el fin de dejar un margen a los señalamientos que se puedan colocar para la misma.
Acarreo libre: Es el acarreo que no se cobra, considerado de varios lugares como 20 m.
Alineamiento horizontal
Alineamiento Vertical
Bombeo
Calzada: Dentro del diseño de caminos se le conoce como calzada a la parte por donde circularan los vehículos.
C.G.E. = Centro de gravedad de extracción, termino aplicable en la curva masa
C.G.T. = Centro de gravedad de Tiro, aplicable en la curva masa.
Corona
Corte
Derecho de vía
Distancia de visibilidad de parada (Dp)
Distancia de visibilidad de rebase
Faja separadora
Hombro
Horizonte del proyecto
Longitud crítica
Pendiente gobernadora
Pendiente máxima
Pendiente mínima
Sobre acarreo (S/A)
Talud
Tangente horizontal
Tangente vertical
Terraplén
Transición mixta
Transito diario promedio anual (TDPA)
Velocidad de proyecto
Alineamiento horizontal
Alineamiento vertical
Secciones de construcción y cálculo de la curva masa
Uso de software (Civil CAD)
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del proyecto geométrico de una carretera dejando en claro que para poder realizar la construcción de una carretera es importante realizar la elaboración de un proyecto geométrico sin mencionar el tiempo requerido para la obtención de los datos en campo.
Ramos Quintero Hannia Adriana, Universidad de Sonora
Asesor:Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
ADSORCIóN DE CADMIO UTILIZANDO CELULOSA OBTENIDA DE MORINGA OLEIFERA LAM.
ADSORCIóN DE CADMIO UTILIZANDO CELULOSA OBTENIDA DE MORINGA OLEIFERA LAM.
Ramos Quintero Hannia Adriana, Universidad de Sonora. Asesor: Dr. Rafael Huirache Acuña, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La elevada concentración de contaminantes, ocurrida de manera natural o antropogénica en el agua, es un problema a nivel mundial donde varios países de Asia, Europa y Latinoamérica han estado reportados en los últimos años. La presencia de iones metálicos y metaloides son tóxicos y peligrosos en el medio acuático, representando una gran preocupación mundial debido a sus graves consecuencias para la salud humana, e incluso en concentraciones extremadamente bajas. Además, este tipo de metal (Cd) se encuentra clasificado como carcinógeno humano según la Agencia de Protección Ambiental de los Estados Unidos (EPA) y la Agencia Internacional para la Investigación del Cáncer (IARC).
METODOLOGÍA
i) Preparación del compuesto FeNP/NFC
Para la preparación del compuesto de las nano fibrillas de celulosa impregnadas con nanopartículas de hierro se utilizaron los residuos de la poda de árboles de Moringa presentes en el estado de Michoacán. La celulosa presente en estos residuos fue extraída mediante el proceso de pulpeo Kraft llevado a cabo en temperaturas entre 160 y 170°C, con un tiempo de ebullición de 20-30 minutos, licor blanco con 20-27% de azufre y 200g de astillas de madera (base seca).
Posteriormente se trataron mediante hidrolisis acida con una solución de 40% (v/v) de ácido sulfúrico a 80°C por dos horas. Las nano fibrillas se obtuvieron mediante una técnica ultrasónica de alta intensidad combinada con crio-trituración con nitrógeno líquido.
La síntesis del compuesto se llevó a cabo poniendo en contacto 4 g de celulosa y 40 mL del extracto de hoja de Moringa Oleífera Lam. después, el extracto de hoja fue añadido gota a gota a una solución de FeCl con agitación continua a 60°C durante 180 min. El material modificado fue filtrado y lavado varias veces con agua destilada.
ii) Caracterización del compuesto FeNP/NFC
Para la determinación de la morfología, propiedades semicuantitativas y superficiales se utilizaron diferentes métodos. Se obtuvieron imágenes de microscopía electrónica de barrido (SEM) utilizando un microscopio JEOL JSM IT300LV (Tokio, Japón). Para examinar los cambios en los grupos funcionales inducidos por la síntesis del adsorbente y el proceso de adsorción se utilizó la espectroscopia de infrarrojo con transformada de Fourier.
El potencial Zeta se midió con un instrumento Nano Brook 90 Plus Zeta, con este se mide el potencial eléctrico en la superficie del adsorbente.
La presencia de la fase cristalina de celulosa en las muestras se determinó mediante mediciones con de Difracción de Rayos X.
Por último, la forma de los óxidos del compuesto se definió mediante un espectrómetro de fluorescencia de rayos X de dispersión de energía modelo Bruker S2PUMA con un tubo de Ag.
iii) Cinética de adsorción
Se pusieron en contacto muestras con alícuotas de 10 mL de la solución con Cadmio de 2 mg/L con 0,05 g de material compuesto en matraces de plástico. Una vez alcanzado el tiempo de contacto, los sobrenadantes se separaron por filtración y la solución residual se analizó para cada metal mediante espectrometría de absorción atómica de llama (FAAS) (modelo Perkin Elmer® AANALYST 200, Waltham, MA, EE. UU.).
Las concentraciones de adsorción de Cd y Pb en el tiempo de equilibrio durante la adsorción fueron calculadas por:
qt= ((Co-Ct)V)/m
Donde es la cantidad de iones adsorbidos, en un momento t, por peso de adsorbente (mg / g); Co es la concentración inicial de metales pesados (mg / L); Ct es la concentración de metales pesados en ese momento de equilibrio (mg / L); V es el volumen de la solución (L) y m es la masa del adsorbente en gramos. Los datos obtenidos fueron ajustados a los modelos de pseudo primer orden, pseudo segundo orden y Elovich.
iv) Isotermas de adsorción
Se realizaron isotermas de adsorción con la solución acuosa del metal a diferentes concentraciones para determinar los parámetros de equilibrio de los sistemas. Se utilizaron viales de plástico para poner en contacto 0.05 g de FeNP/NC con 10 mL de la solución de Cd a diferentes concentraciones, que van de 5 a 500 mg/L. Los viales fueron colocados en baños con temperaturas de 25, 30 y 40°C, después se agitaron a 100 rpm. Todos los experimentos se realizaron por triplicado. Los datos experimentales fueron ajustados a los modelos de Freundlich, Langmuir y Langmuir-Freundlich.
CONCLUSIONES
Al añadir nanopartículas de Hierro se mejoró la selectividad del proceso de adsorción de Cadmio, sin embargo, el porcentaje de remoción máximo obtenido es del 32%, lo cual se considera bajo comparado con otros estudios donde se obtiene una remoción mayor de hasta casi el 100%. Se recomienda ampliar la investigación para evaluar si dicho compuesto puede ser reutilizado, el comportamiento durante la desorción del cadmio y en caso de no poder ser reutilizado, definir la manera correcta en que debe ser confinado. De igual manera se propone la posibilidad de analizar la capacidad de remoción del cadmio utilizando las semillas y corteza de la Moringa Oleífera.
Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío
Asesor:Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
ANáLISIS DE LAS CONECTIVIDADES FUNCIONALES EN PACIENTES EPILéPTICOS
ANáLISIS DE LAS CONECTIVIDADES FUNCIONALES EN PACIENTES EPILéPTICOS
Ramos Reyes Lizeth Montserrat, Universidad de La Salle Bajío. Asesor: Dr. Jorge Iván Padilla Buriticá, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Durante la investigación, se persiguió el propósito de analizar los resultados obtenidos de la aplicación de encefalogramas a pacientes de epilepsia, en los cuales también se pudieron conseguir registros de cómo es la interacción entre las redes de conectividad funcional en distintos momentos del día, incluyendo los tiempos en que se presentan ataques epilépticos.
Con los análisis de datos realizados, mediante la aplicación de las neurociencias, es posible conseguir una matriz de conectividad para mostrar las relaciones entre los diferenciales de potenciales medidos por los electrodos aplicados para el encefalograma. Al ser posible la detección de patrones, se abre la oportunidad de detectar de manera anticipada la presencia de un nuevo ataque para agilizar su atención y reducir el impacto de las posibles lesiones neurológicas en pacientes.
La encefalografía (EEG) ha permitido que la epilepsia sea una de las enfermedades cerebrales mejor conocidas (Niedermeyer, citado por Brust-Carmona 2013). Asimismo, las neurociencias han impactado de manera beneficiosa en su análisis y comprensión, por lo que su correcta implementación implica un avance significativo en su tratamiento, control y mejora en la calidad de vida de los pacientes afectados.
METODOLOGÍA
Pregunta de investigación
¿Qué cambios se presentan en las conectividades funcionales al presentarse un ataque epiléptico?
Objetivo general
Encontrar cómo la epilepsia afecta a las redes de conectividad funcional
Hipótesis
Cuando hay un ataque de epilepsia, las conexiones entre áreas del cerebro cambian
Para la investigación se utilizó una base de datos recolectada en el Children’s Hospital Boston que contiene registros de EEG de pacientes de pediatría que sufren de convulsiones intratables.
Se recolectaron registros de 22 personas, se conforman de 5 hombres cuyas edades van de 3 a 22 años y 17 mujeres entre 1.5 y 19 años. Se tomaron 256 muestras por segundo con resolución de 16 bits. Se tuvieron 21 electrodos siguiendo el sistema internacional 10-20. Se contó con 664 archivos .edf, 129 de los mismos contienen datos de la presencia de ataques epilépticos.
CONCLUSIONES
Mediante la aplicación de la correlación de Pearson entre cadenas de electrodos, se analizaron los registros de EEG se formaron agrupaciones con un algoritmo de clúster jerárquico utilizando el método de Ward, los grupos pueden ser vistos desde el dendrograma o en la matriz donde se forman cuadros de alta correlación a lo largo de la diagonal.
Bajo este método se encontraron tres agrupaciones, en un primer grupo tenemos electrodos ubicados principalmente en la parte frontal, al cual se referirá como el grupo frontal, el segundo grupo compuesto por los diferenciales entre electrodos en la parte occipital y parietal al cual se refiere como grupo occipital, y un tercer grupo, el más grande, con los demás diferenciales al cual se nombró grupo restante.
Al comparar mediciones representativas de estos tres grupos se obtuvo lo siguiente.
Se pudo visualizar que los electrodos en el grupo occipital presentan una mayor variación en los diferenciales medidos por los electrodos durante episodios de epilepsia. Aunque esto no necesariamente significa que los ataques epilépticos se concentren en esta región del cerebro, las mediciones de estos electrodos representan un indicio importante.
Se encontró también una fuerte relación inversa entre mediciones de dos diferenciales del lado izquierdo de la cabeza, F7-T7 con T7-FT9, sin embargo, esto se dio por la cercanía de las cadenas de electrodos y el sentido en el que se registraron las mediciones.
Se lograron encontrar los cambios que se presentan en las conexiones funcionales y ubicar la zona específica donde se obtuvieron variaciones importantes en los registros de los electrodos.
Rascón Meza Ana Sofia, Universidad de Sonora
Asesor:Dr. Guillermo Toriz González, Universidad de Guadalajara
CARACTERIZACIóN DE LA FIBRA DEL BAGAZO DE AGAVE PARA SU UTILIZACIóN COMO PAPEL PARA LIAR CIGARRILLOS DE TABACO
CARACTERIZACIóN DE LA FIBRA DEL BAGAZO DE AGAVE PARA SU UTILIZACIóN COMO PAPEL PARA LIAR CIGARRILLOS DE TABACO
Almaguer Islas Aida Giselle, Universidad de Guadalajara. Rascón Meza Ana Sofia, Universidad de Sonora. Asesor: Dr. Guillermo Toriz González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Emplear un residuo como el bagazo de agave de la producción del tequila y mezcal es una alternativa para la producción de papel para liar tabaco. Dado que se aprovecha un desperdicio que contiene en sus fibras las propiedades y características suficientes para ser una alternativa diferenciadora y favorable en el mercado actual.
METODOLOGÍA
El desarrollo inicia con la investigación de las características y propiedades del agave y de su bagazo. Obteniendo está información se decide buscar los diferentes equipos, métodos y técnicas para la obtención de las fibras de bagazo, pulpeo, desmedulado, sedimentadores y cocción. Continuamos con la investigación de las características que debe de cumplir el papel de liar tabaco. Se opta por obtener hojas de 78 mm por 44 mm, conocidas como hojas de tamaño 1 1/4.Lo siguiente es analizar el gramaje del papel y comprobar las características deseadas. Si es posible, antes de finalizar el verano realizar físicamente el proceso completo de elaboración y los análisis en laboratorio necesarios. Durante toda la metodología se documenta la investigación, información, datos y referencias recabados.
CONCLUSIONES
Se caracteriza la fibra del bagazo de agave para su empleo en la producción de papel para liar cigarrillos de tabaco. Utilizar la fibra del bagazo obtenido como residuo de la producción de tequila y mezcal es una buena alternativa para producir papel para liar tabaco.
Rebollar Fernández Gladys Karina, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán
EVALUACIóN DE INVENTARIO Y ESTIMACIóN DE PRONóSTICOS PARA UNA EMPRESA FARMACéUTICA.
EVALUACIóN DE INVENTARIO Y ESTIMACIóN DE PRONóSTICOS PARA UNA EMPRESA FARMACéUTICA.
Cisneros Flores Ramses, Instituto Tecnológico de Tláhuac II. Rebollar Fernández Gladys Karina, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: M.C. Israel Becerril Rosales, Tecnológico de Estudios Superiores de Jocotitlán
PLANTEAMIENTO DEL PROBLEMA
Es bien sabido que un buen control de inventario acarrea a las empresas mejor organización, reducción de tiempo, elevación de los índices de productividad, manejo óptimo de los materiales, entre muchos otros beneficios que a fin de cuentas se ven reflejados en el incremento de las utilidades y en obtener la completa satisfacción del cliente.
La empresa farmacéutica en la que se desarrolla nuestro proyecto carece del control de inventarios, tan es así que no tiene noción de la capacidad de su almacén, no se tienen definidos lugares para cada materia prima, se desconoce el lead time de sus proveedores, no se tiene definido un método de compra y solo compran por costumbre, se carece de tecnología y hay exceso de pago de tiempo extra, ya que su responsabilidad termina hasta que se entrega pesado el medicamento a fabricar.
La hipótesis establecida para este proyecto es: con una política de inventarios se reducirán los costos de almacenaje.
METODOLOGÍA
Se realizó una base de datos con las materias primas (MP) en existencia y un conteo de las ubicaciones para conocer la capacidad de almacenaje. Se comenzó obteniendo promedios de los niveles de inventarios mensuales por producto para poder realizar pronósticos de consumo para cada uno, que serían utilizados como referencia para compras, para después aplicar técnicas de pronósticos y seleccionar la que contemplaba la menor incertidumbre a través de la Desviación Absoluta Media (MAD). Después se implementó una clasificación ABC, tomando como criterio la cantidad de MP surtida, lo que permitió realizar una redistribución del almacén para realizar el despacho en menor tiempo.
También se realizó una comparativa entre el tiempo extra que se estaba pagando contra los lotes de materia prima que se estaban pesando, para ello se utilizó la regresión lineal, con la que se obtuvo información que dejaba en claro que se estaban pagando muchas horas extra y se estaba pesando muy poco producto, por lo que no resultaba rentable continuar con la misma forma de trabajo.
Después nuestra atención se dirigió hacia el establecimiento de un método de compra y para esto se definió el EOQ para cada uno de los 54 productos, lo cual dio paso a calcular el número de tarimas que representaría esa cantidad de cada MP para poder realizar una propuesta de redistribución del almacén para eficientar los tiempos de pesaje, basada en el cambio de método de almacenamiento pasando aleatorio a una ubicación fija.
Dicha redistribución fue diseñada contemplando la NOM-059 de las buenas prácticas de fabricación de medicamentos.
CONCLUSIONES
El primer hallazgo de la investigación fue descubrir un exceso de capacidad de almacén y que, aunque a simple vista parecía lleno, realmente tenía un porcentaje de utilización del 61%, lo cual acarreaba altos e innecesarios costos de mantener.
Con la regresión lineal elaborada se pudo descubrir que la alternativa de pagar tiempo extra no era la más factible ya que no se estaba aprovechando el tiempo al máximo y por lo tanto no se veía reflejado un incremento en la producción. Con este análisis se logró justificar la reducción de horas extra que era una de las principales problemáticas.
Aplicando todos los análisis realizados se pudieron ver cambios significativos en el nivel de inventario que maneja ahora la empresa, comprobación de esto es que, en el primer producto de la clasificación A, se refleja una reducción del 88% del inventario. Teniendo esto un impacto gigantesco al minimizar los costos de mantener producto.
Se obtuvieron cifras de máximos y mínimos para el fututo control del inventario. Lo cual deja a la empresa encaminada a una gestión correcta del almacén.
Redondo Pinto Pinto Jhandra Mishelle, Universidad de la Guajira
Asesor:Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
ANáLISIS Y MODELADO DE ESTABILIDAD DE TALUDES CON EL USO DE SOFTWARE.
Betancourt Pérez Briseida, Universidad Autónoma de Guerrero. Morales Granadillo Juanpablo, Universidad de la Guajira. Redondo Pinto Pinto Jhandra Mishelle, Universidad de la Guajira. Asesor: Dr. José Eleazar Arreygue Rocha, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La inestabilidad de taludes es un problema que afecta a Colombia y a una multitud de personas generando la pérdidas de vidas humanas, así como económicas debido a las zonas de alto riesgo debido a los distintos fenómenos de erosión que se presentan por las altas pendientes de las laderas creadas por la misma naturaleza. Suarez (2020) Este problema actual ocurre cuando encontramos una pendiente muy inclinada donde es muy difícil o imposible evitar que ocurran deslizamientos de las masas de suelos, de la misma forma ocurren diversas formas de degradación del suelo como la erosión, la salinización y la desertificación, se presentan altos grados de desgaste en estos suelos se puede notar el resultado de la alteración por agua, la cual se da a causa de que están expuestos debido a la omisión de manto vegetal y de esta manera la precipitación cae justo sobre ellos formando el desgaste.Dicho fenómeno puede producir daños considerables a aquellas obras contiguas como por ejemplo, las vías generando una obstrucción que lleva a afectar el normal funcionamiento de la misma impidiendo la movilidad y con esto afectando en las actividades comerciales de aquellas poblaciones vecinas, en el caso de haber población en el área afectada estos habitantes también podrían correr grandes riesgos al estar presente en el momento que ocurran los deslizamientos, flujos o avalanchas, el material que se desplaza puede además ser un obstáculo en el caso de existir fuentes hídricas debido a que bloquearía el curso de dichas fuente provocando así inundaciones.La investigación tiene como criterio el priorizar debido a que el fenómeno a investigar tiende a poner en riesgo la vida y la seguridad de las personas y es innovador debido a que la solución que por lo general escogen tienden a cambiar o alterar la estructura natural del medio mencionado, entonces optando por una solución que es amigable con el ambiente y poco usual, podríamos reducir ese impacto, ubicando esta propuesta para remediar los problemas globales con el objetivo de desarrollo N° 9 INDUSTRIA, INNOVACIÓN E INFRAESTRUCTURA.
METODOLOGÍA
En general, la estabilidad del talud esta determinada por factores geométricos, como su altura e inclinacion; factores geologicos; hidrogeologicos; y geotécnicos. De esta manera, la combinacion de los 4 factores anteriores puede determinar la condicion de rotura del terreno en algun tipo de superficie, permitiendo el movimiento de la masa contenida en dicha superficie.
Bien es sabido que factores como los terremotos son causa importante de deslizamientos, especialmente, en las zonas costeras de Chile, como ocurre con el caso en estudio.
2. Movimientos del terreno
La forma de clasificar los distintos movimientos de masas de tierra depende si se trata de suelos o rocas. Por otra parte, en estas clasificaciones se considera el mecanismo y tipo de rotura, conjuntamente con otros aspectos, tales como el contenido de agua en el terreno, la velocidad y magnitud del movimiento, entre otros.
Los tipos de movimientos se pueden clasificar en: deslizamientos, flujos y desprendimientos.
3. Superficie de rotura en un deslizamiento rotacional
Cuando se han producido movimientos que tienden a la falla, los analisis a posteriores (geo5) cobran importancia, puesto que se conoce el mecanismo, modelo y geometria de la inestabilidad. Es un analisis muy util para la caracterización geomecanica de los materiales involucrados, para el estudio de los factores influyentes en la rotura y para conocer el comportamiento mecanico de los materiales del talud; los resultados obtenidos pueden ser extrapolados a otros taludes de similares caracteristicas. Estos analisis consisten en determinar, a partir de los datos de terreno necesarios (geometria, tipos de materiales, modelo de rotura y presiones hidrostaticas, entre otros), los parametros resistentes del terreno, generalmente pares de valores c y Φ, que cumplan con la condicion de equilibrio estricto del talud (FS = 1)
CONCLUSIONES
Tras finalizar nuestra estancia de investigación hemos analizado diferentes tipos de taludes con distintas geometrías y materiales desde suelos arcillosos, rocas y brechas volcánicas, lo cual nos permitió estudiar el comportamiento de acuerdo a diferentes situaciones y obtener un factor de seguridad que determina que tan inestable o estable es el talud estudiado, esto mediante dos softwares especializados en la estabilidad de taludes como lo son Geo5 y Geo Studio.
En nuestro primer análisis de un suelo con de una clasificación MH, se llegó a apreciar su inestabilidad al no cumplir con un factor estipulado en las normas de 1.5, dado esto se propusieron varios métodos para poder estabilizarlo como lo es escalonar el talud y disminuir su ángulo de inclinación. De igual forma, se analizó otro talud conformado por dos materiales, estos variaban de la siguiente forma suelo-roca, roca-brecha volcánica, brecha volcánica-roca y por último estrato de arcilla y brecha volcánica, en este segundo caso con estos tipos de suelos se logró observar estabilidad debido a que la roca y la brecha volcánica aportaban estabilidad al ser totalmente rígidos.
Por otro lado, durante el verano de investigación científica se adquirieron nuevos conocimientos geotécnicos que son valiosos en el ámbito laboral para evitar accidentes y facilitar la construcción de obras civiles como carreteras, edificios, represas, entre otros, los cuales debemos conocer para la eficacia de nuestro trabajo como futuros ingenieros.
Resendez Martínez America Daniela, Instituto Tecnológico de Matamoros
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
Canchola Vega María del Carmen, Instituto Tecnológico de Matamoros. Lopez Rodriguez Destiny Priscila, Instituto Tecnológico de Matamoros. Resendez Martínez America Daniela, Instituto Tecnológico de Matamoros. Valenzuela Rodríguez Andrea Guadalupe, Instituto Tecnológico de Matamoros. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La industria maquiladora en la zona fronteriza del norte de México ha representado un eslabón importante en la economía de esta área desde los años ochenta y noventa. El efecto de esta actividad sobre el medio ambiente ha sido poco estudiado sin embargo se ha observado más contaminación por hidrocarburos en suelos debido a la maquila. Así, este trabajo permitirá mostrar que la fitorremediación puede lograr grandes cambios, ya que al ser esta una tecnología de diversos compuestos de procesos bioquímicos por medio de plantas y microorganismos tenemos la oportunidad de demostrar como la planta Helianthus Annuus L., puede hacer un cambio en el sitio, así como las diferentes herramientas para eliminar los hidrocarburos.
METODOLOGÍA
Para la observación del crecimiento de Helianthus Annuus L. (girasol) en suelo contaminado, se empezó por pesar 100g de suelo, en los cuales se sembraron dos semillas por maceta para elevar la probabilidad de germinación correcta. Posteriormente, se contaminó la tierra con aceite quemado de acuerdo a diferentes porcentajes de acuerdo a la NOM-138-SEMARNAT/SS-2003. Por lo tanto, se hicieron 5 muestras teniendo, 0% de contaminante, 2%, 3%, 4%, y 5% respectivamente.
Se utilizaron diferentes parámetros para medir el crecimiento de la planta. Estos fueron: porcentaje de humedad, pH, y densidad relativa del suelo.
CONCLUSIONES
Se llegó a la conclusión de que la Helianthus annuus L. es una buena opción para la fitorremediación de suelos contaminados por aceites, ya que entre más porcentaje de contaminación hubo un crecimiento más notorio. Esto, como mencionamos anteriormente, puede ser de mucha ayuda para la remediación de suelos contaminados en la zona fronteriza. Asimismo, a pesar de las inclemencias del clima, la planta que se utilizó fue muy resiliente ante los cambios de temperatura, lo cual lo hace un proyecto más viable a manera futura.
Resendiz Cortina Victor Manuel, Universidad Mexiquense del Bicentenario
Asesor:Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
DESAFÍOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.
DESAFÍOS QUE LEARNING ANALYTICS DEBE RESOLVER PARA MEJORAR LOS PROCESOS DE APRENDIZAJE EN LOS ESTUDIANTES.
Botello Mancilla Isabel, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Resendiz Cortina Victor Manuel, Universidad Mexiquense del Bicentenario. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El análisis de aprendizaje (Learning Analytics) es un área de rápido crecimiento de la investigación en Aprendizaje mejorado por tecnología. Tiene fuertes raíces en una variedad de campos, en particular inteligencia de negocios (BI), analítica web, minería de datos, etc. Sus fuertes conexiones con estos campos han significado que los investigadores ahora deben trabajar juntos para identificar los desafíos y así obtener nuevas herramientas tecnológicas que puedan ayudar al estudio de Learning Analytics (LA).
¿Qué es Learning Analytics?
Se define LA como la medición, recopilación, análisis y presentación de datos, sus contextos y las interacciones que allí se generan además de ser una disciplina emergente relacionada con el desarrollo de métodos para explorar series de datos procedentes de varios ecosistemas a fin de optimizar los entornos en los que se produce, facilitar investigaciones futuras o con objetivos comerciales futuros. Por ejemplo, Google Analytics, utiliza LA para identificar el comportamiento de los usuarios en un sitio web, además del análisis de videos de Youtube.
Esta investigación tiene como objetivo identificar problemas y desafíos actuales de LA utilizando un método de revisión sistemática.
Se define la pregunta de investigación como:
¿Cuáles son los problemas que Learning Analytics debe resolver para mejorar los procesos de enseñanza en los estudiantes de las universidades?
En la siguiente sección se describe el método y metodología de investigación; En la sección III se presentan los resultados y el análisis de los resultados, mientras que la sección IV presenta las conclusiones.
METODOLOGÍA
Método
Se define análisis temático como una técnica de investigación para identificar, analizar e informar patrones, es decir, temas dentro de los datos recopilados empíricamente. Organiza y describe mínimamente el conjunto de datos en detalle, e interpreta aspectos del tema.
La revisión sistemática se define como un diseño de investigación en sí misma en el que las unidades de estudio, en lugar de pacientes o unidades administrativas, son los trabajos originales que se revisan.
Esquema básico y resumido para la elaboración de una revisión sistemática:
Formulación de la pregunta de investigación.
Los criterios de inclusión: metodología del estudio, participantes, intervenciones, comparaciones a estudiar y medidas de resultado. Estas características marcarán el protocolo de estudio y su correcta definición facilitará el resto del proceso.
Búsqueda de estudios en la literatura científica a través de una estrategia de búsqueda que cumpla con los requisitos que nos proponemos, con la lectura del título o el abstract y /o revisando el artículo completo seleccionamos aquellos que reúnen nuestros criterios de selección. Estos estudios constituirán nuestra revisión, de ellos se extraerán los datos necesarios y se evaluarán tanto cualitativa como cuantitativamente.
En los que exista homogeneidad entre los estudios incluidos, y al menos dos de ellos presenten datos razonablemente combinables, se realizará un análisis cuantitativo denominado metaanálisis, generalmente mediante la ayuda de programas estadísticos informatizados que facilitan este trabajo, y que permiten visualizar los resultados gráficamente en los denominados forest plot.
Interpretar los resultados obtenidos y extraer las correspondientes conclusiones.
CONCLUSIONES
Conclusión
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre investigación en bases de datos, así como análisis de los artículos usados, de la misma forma él se adquiere el conocimiento del método de análisis sistemático.
Además de que para el desarrollo de la obtención de variables se basó en el sistema de etapas ya sea de que el desarrollo de aprendizaje organizacional dentro del desempeño empresarial, seguido de ello medir el desempeño empresarial, también saber su competitividad ante las otras empresas y mediante su sostenibilidad durante el desarrollo empresarial.
Por ello el método de revisión sistemática ayudo a observar que LA actualmente se encuentra en un proceso de madurez, es muy importante que sigan avanzando los estudios en este tema porque cada vez más y más universidades están trasladando sus cursos a plataformas en línea.
Precisamente en eso consisten las analíticas de aprendizaje, en medir, recopilar, analizar, y proporcionar informes a partir de los datos que los alumnos generan en sus procesos y contextos de aprendizaje, con el fin de comprenderlos y optimizarlos y, en definitiva, ofrecerles una experiencia de aprendizaje rica, personalizada, adaptada a sus intereses y necesidades individuales.
Reséndiz Sánchez Luis Modesto, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
EVALUACIÓN DE EFICIENCIA DE LOS PROCESOS DE DOS PLANTAS DE TRATAMIENTO DE AGUAS RESIDUALES POR HUMEDALES ARTIFICIALES
EVALUACIÓN DE EFICIENCIA DE LOS PROCESOS DE DOS PLANTAS DE TRATAMIENTO DE AGUAS RESIDUALES POR HUMEDALES ARTIFICIALES
Reséndiz Sánchez Luis Modesto, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
El agua es un recurso vital para el ser humano ya que día a día se necesita para actividades diarias de todo tipo, el resultado de su uso es agua residual, la cual llega a contaminar ríos, lagos, mares, etc. Esto desemboca alteración de ecosistemas, muerte y múltiples enfermedades.
La Organización Mundial de la Salud (2014) menciona que en el 2012 hubo alrededor de 842,000 muertes debido a la contaminación de agua potable que se dio en países con ingreso medios y bajos, casi el 1.5% del total de muertes registradas en ese año se dieron solamente por agua contaminada, es por eso que se buscan diferentes tecnologías de tratamiento de aguas residuales donde se logre una estabilidad y un desarrollo óptimo a nivel mundial.
Los Humedales Artificiales (HA) surgen como una nueva tecnología de tratamiento de aguas residuales con una alta eficiencia, gran sustentabilidad y económicamente viables.
Para lograr la estabilidad y el desarrollo, primero se inicia evaluando las plantas existentes para así comprobar la eficiencia de sus procesos y la calidad de agua que emanen, logrando resultados positivos se espera lograr un impacto en diferentes regiones del mundo donde vean este tipo de tecnología una opción viable.
Es por eso que en este verano de investigación se evalúa la eficiencia de los procesos de dos Plantas de Tratamiento de Aguas Residuales (PTAR) por humedales artificiales.
METODOLOGÍA
Se realizó un monitoreo en las 2 plantas de tratamiento en el cual la planta de tratamiento del fraccionamiento La Huerta inicia con un cárcamo concentrador el cual contiene rejas para la eliminación de sólidos de gran tamaño. Después el agua es transportada por bombeo a el sistema de reactores anaerobios, antes de su llegada el agua se depositada en un sistema de cribas finas, donde se eliminan partículas de menor tamaño, seguido el agua ingresa a dos humedales artificiales de flujo libre en serie, estos sistemas consisten en un tirante operativo de 0.6 m. Finalmente, este sistema presenta un serpentín de cloración (o estanque de algas) y de ahí se almacena en un cárcamo para su posterior bombeo a un rio aledaño al lugar.
Por otro lado, en la planta de tratamiento de la Universidad Juárez Autónoma de Tabasco División Académica de Ciencias Biológicas (DACBiol-UJAT) inicia con la captación de un cárcamo cisterna, posteriormente el agua ingresa a un reactor de flujo subsuperficial, y posteriormente a dos de flujo libre, seguido a este, con el agua ya tratada, llega a un cuerpo de agua donde se mantiene hasta su requerimiento.
Para el establecimiento de los humedales en la planta de la DACBiol-UJAT se cuenta con dos trenes con la misma dimensión, trabajan en serie y se establecieron con el mismo tipo de vegetación.
Para el primer reactor de ambos trenes se cuenta con un tratamiento de flujo subsuperficial con la vegetación Potenderia cordata (Espigas de agua), para el segundo reactor se cuentan con un tratamiento de flujo libre con la vegetación Thalia geniculata (Popal) y para el tercer reactor se cuentan con un tratamiento de flujo libre con la vegetación Sagittaria lancifolia (Cola de Golondrina).
Para su monitoreo se tomaron parámetros que establece la NOM-001-SEMARNAT-1996 para color, potencial de hidrogeno (pH) y temperatura de la muestra.
Se recolectaron las muestras en envases de plástico de 1 Litro sin ser conservadas, solo se mantuvieron en temperatura para realizar las pruebas pertinentes. Los equipos con los que se midieron los parámetros son especialidades y fueron previamente calibrados para asegurar la calidad de los datos obtenidos.
Los métodos y equipos para realizar parámetros de calidad de agua fueron los siguientes: para pH (SM 4500 B), temperatura (SM 2550 B), conductividad eléctrica (SM 2510 B), solidos disueltos totales (SM 2540 C) y ORP (SM 2580 B) se utilizó el equipo Hanna® HI98129, para color (SM 2120 B) el equipo fue LaMotteTC-3000 y para turbiedad (SM 2130 B) con el equipo Hanna® HI 98703.
CONCLUSIONES
Durante este verano se logró adquirir conocimientos teórico-prácticos del manejo, mantenimiento y monitoreo de PTAR por HA.
Los resultados que se obtuvieron en la planta la Huerta nos muestran una falta de mantenimiento en los humedales artificiales, que pude ocasionar un incendio por la biomasa que se encuentra sin ser removida, también influye en el proceso de una manera negativa, esto revierte el progreso que se obtiene del reactor anaerobio, el estanque de algas ayuda en bastante proporción para la salida de la planta, sin embargo, al retirar estas algas aumentarán el color de agua y la eficiencia del proceso.
Los resultados que nos arrojó la PTAR DACBiol-UJAT nos muestran un alza de color en los dos últimos reactores del tren, es decir hay materia muerta en los reactores los cuales hacen que altere su color y la turbiedad aumente, esto solo equivale a dar un mantenimiento de colecta de materia muerta en los reactores.
Finalmente podemos concluir que las PTAR por HA son de alta eficiencia con el mantenimiento adecuado, la planta de la DACBiol-UJAT está, en términos generales, funcionando de una mejor manera ya que en sus procesos se ve una eficiencia de remoción mayor en comparación con la planta de la Huerta.
Rey Prada Raquel Jimena, Universidad Tecnológica De Bolívar
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
USO DE ENERGíA HíBRIDA PARA LA PROPULSIóN Y CONSUMO DE ENERGíA GENERAL EN EMBARCACIONES DE LA ARMADA NACIONAL DE COLOMBIA, TIPO NODRIZA
USO DE ENERGíA HíBRIDA PARA LA PROPULSIóN Y CONSUMO DE ENERGíA GENERAL EN EMBARCACIONES DE LA ARMADA NACIONAL DE COLOMBIA, TIPO NODRIZA
Ortegate Escobar Christian, Universidad Nacional Abierta y a Distancia. Rey Prada Raquel Jimena, Universidad Tecnológica De Bolívar. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La propulsión de embarcaciones se ha dado utilizando recursos energéticos basados en gases volátiles, carbón y petróleo, los cuales aumentan la ya marcada huella de carbono en el mundo, aumentando considerablemente al pasar de los años el calentamiento global.
Los navios por sus caracteristicas flotantes que implican horas de transporte lejos de una fuente fija de suministro de energía, deben tener una capacidad suficiente para generar y aprovechar el combustibe, plantas generadoras de electricidad. Se plantea hacer uso de energías renovables como una solucion para mitigar el impacto ambiental del consumo de los combustibles y darle un respaldo de seguridad a la navegación por parte del aprovechamiendo de la energía solar.
METODOLOGÍA
Conocidas las caracteristicas de la embarcacion, cuya forma del casco maximiza el desempeño del sistema de propulsión, siendo una embarcación de defensa; se determina el area disponible para ubicar los paneles fotovoltaicos, se considera una eficiencia del 16% y 5 horas pico de energia.
Teniendo disponibles aproximadamente 50 m2 para la instalación de paneles solares, se obtendrían aproximadamente 8kW con la instalación fotovoltaica y la planta generadora de una embarcacion tipo nodriza requiere de 58kWh, considerando que la misma no trabaja a plena carga.
Los 8kW de potencia instalada obtenida de fotovoltaicos, teniendo en cuenta que se tienen 5 horas pico de energía solar, proporcionarían al día aproximadamente 40kWh de energía, lo que puede usarse para reducir la dependencia de combustibles fósiles, supliendo una parte del suministro de energía con energía renovable.
CONCLUSIONES
Se considero un tipo de embarcacion nodriza, se tomo en cuenta condiciones de areas disponibles en la misma para ser aprovechadas en la instalacion de paneles solares. Se encontró que el aprovechamiento de energia solar es bastante viable y seria una gran manera de disminuir la contaminacion por parte del uso de combustible en un tipo de transporte bastante usado como lo es el maritimo.
Reyes Cruz Amairani, Instituto Politécnico Nacional
Asesor:Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey
REPRESENTACIóN GRáFICA AUTOMáTICA DE DATOS EXTRAíDOS DE DIFERENTES REPOSITORIOS DE ARTíCULOS DE DIVULGACIóN CIENTíFICA
REPRESENTACIóN GRáFICA AUTOMáTICA DE DATOS EXTRAíDOS DE DIFERENTES REPOSITORIOS DE ARTíCULOS DE DIVULGACIóN CIENTíFICA
Hernández Orozco Yuli, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Reyes Cruz Amairani, Instituto Politécnico Nacional. Asesor: Dr. Miguel González Mendoza, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
A través de los años, la investigación científica ha estado en constante crecimiento, pero para llevar a cabo una investigación de esa índole, los investigadores necesitaron adquirir el conocimiento científico base. Para generar conocimiento científico se requiere de un dominio profundo en diversas áreas de estudio, por lo que un investigador debe involucrarse en la lectura y producción de artículos de carácter científico; sin embargo, áreas de investigación de alto impacto, suelen contener un gran número de productos científicos, lo que conlleva un problema para el investigador, ya que necesitaría invertir una gran cantidad de tiempo y esfuerzo para leer cada uno de los artículos, sin tener la certeza de que el documento es relevante y que pueda ser de apoyo para una investigación futura.
Con el fin de apoyar a nuevos investigadores y democratizar el conocimiento científico, el propósito de este estudio es analizar nuevos métodos para la representación gráfica automática de conocimiento usando técnicas de ciencia de datos a un conjunto de metadatos extraídos de diferentes repositorios de información disponible de forma pública.
METODOLOGÍA
Primeramente, se realizó una investigación de los diferentes temas y herramientas digitales que serían utilizados para el desarrollo de este proyecto, tales como: Jupyter, Python, Pandas, APIs, etc.. Una vez adentrados en el campo, se realizó una segunda investigación donde, por medio de la Internet, se consultaron una gran cantidad de Applications Programming Interfaces (APIs) enfocadas a la recopilación de datos en el campo de la investigación científica, de las cuales se seleccionaron las siguientes 10:
Microsoft Academic Knowledge API
CrossRef
InCites API
Scopus APIs
Web of Science API Lite
Web of Science Expanded API
A partir de esta selección se revisó individualmente cada API y posteriormente se compararon entre sí a partir de los atributos que retorna cada uno, donde finalmente se seleccionó la API Microsoft Academic Knowledge API (MAK API).
Para realizar el siguiente proceso, la extracción de datos, se realizó la suscripción a la MAK API por medio de la plataforma Microsoft Research APIs y utilizando el método REST Evaluate que proporciona esta herramienta, se envió a través de Internet una solicitud de consulta GET a la API, que a su vez proporcionó un mensaje de respuesta con la información consultada en formato JSON y cuyos campos incluían elementos bibliográficos comunes e información adicional como Identificadores de Objetos Digitales (DOI) y conteo de citas.
Una vez retornado el mensaje de respuesta, se desarrolló un script de Python para almacenar esta información en un DataFrame, haciendo uso de la librería Pandas, y guardarlo en formato pickle, para usarlo en el proceso de visualización de datos. El script incluye todos los parámetros necesarios para ejecutar la solicitud de consulta e incorpora un bucle while que genera una lista para almacenar temporalmente cada uno de los artículos devueltos y sus respectivos atributos, además de un bucle for que inserta el contenido de la lista en un DataFrame.
Como uno de los objetivos del trabajo es mostrar gráficamente el comportamiento de datos por medio de gráficas, se tomó una muestra de 100 artículos publicados en revistas nacionales, internacionales o en conferencias, los cuales fueron previamente estructurados y almacenados utilizando el primer script, para utilizarlos en un segundo script de Python enfocado a la creación de gráficos dinámicos, mediante la librería de Plotly, que permitan realizar interpretaciones posteriores. El script consta de cuatro funciones principales que realizan la suma total de citas de cada revista o conferencia involucrada en la publicación de los artículos almacenados, y que convierten el DataFrame en gráficas de barras y pastel, para finalmente almacenar los gráficos en formato HTML para su uso posterior.
CONCLUSIONES
A partir de todo el proceso anterior se obtuvieron tres gráficos, las primeras dos, una de pastel y otra de barras, muestran la cantidad de artículos publicados en el área de Action Recognition por cada editor presente en la muestra, en ellos se observó que el IEEE, fue el editor que más artículos ha publicado dentro de esta área de estudio, obteniendo un 61.5% del total de la muestra; por otro lado la última gráfica de barras, representa el conteo de total de citas de los artículos publicados por cada revista y conferencia presente en la muestra, en ella se observa que la conferencia Computer Vision and Pattern Recognition cuenta con los artículos más citados, obteniendo un 23.7% del total de la muestra.
La lectura es esencial para realizar una investigación, pues todas las informaciones conviven y se enriquecen mutuamente cuando se trata de fundamentar un estudio, sin embargo, se convierte en un reto constante seleccionar lo que es relevante y acompañar los recientes desarrollos en un tema en particular, por ello a través de la investigación, se buscó ofrecer una herramienta visual que apoye a los investigadores a realizar elecciones más informadas; además, durante el proceso, se adquirieron conocimientos relacionados con la ciencia de datos, el lenguaje de programación de Python y el manejo de varias herramientas digitales las cuales fueron puestos en práctica para realizar este trabajo.
Reyes Lara Ana Valeria, Universidad de Sonora
Asesor:Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)
ALGORITMOS METAHEURíSTICOS PARA LA OPTIMIZACIóN DEL TIEMPO DE PRODUCCIóN EN UNA PLANTA DE LA INDUSTRIA METALMECáNICA
ALGORITMOS METAHEURíSTICOS PARA LA OPTIMIZACIóN DEL TIEMPO DE PRODUCCIóN EN UNA PLANTA DE LA INDUSTRIA METALMECáNICA
Alamilla López Cynthia, Instituto Tecnológico de Pachuca. Reyes Lara Ana Valeria, Universidad de Sonora. Asesor: Dr. Jonás Velasco Álvarez, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El caso de aplicación con el que se decidió trabajar es el de una industria metalmecánica de Aguascalientes dedicada a la elaboración de exhibidores metálicos. El proceso que se modeló y optimizó es el de doblado y corte de alambre, en donde las máquinas encargadas de realizar estas operaciones son paralelas no relacionadas y sus tiempos de ajuste son dependientes de la secuencia. Lo que se pretende lograr es minimizar el tiempo máximo de finalización, generando un programa de producción compacto.
Este es un caso clásico del flow shop híbrido flexible (HFS) el cual ha sido estudiado en el ámbito académico. El problema supone un conjunto de n órdenes que deben de ser procesadas por m máquinas, donde las máquinas son paralelas no relacionadas por lo que las órdenes de trabajo no pueden ser procesadas en cualquier máquina. Cada orden de trabajo tiene un tiempo de setup o ajuste en cada máquina, así como conlleva tiempos de procesamientos distintos para cada m. El tiempo que transcurre entre el inicio del primer trabajo en la primera máquina y la terminación del último trabajo en la última máquina se conoce con el término de makespan (Hojjati y Sahraeyan, 2009; Hmida et al., 2011). Teniendo en cuenta lo anterior, el objetivo será generar una programación que minimice el tiempo de makespan o tiempo máximo de finalización.
En general, el proyecto de investigación resultante tiene como objetivo principal dar avance al estado del arte en modelación y optimización con aplicaciones en problemas de ingeniería y ciencia. Estos productos de innovación tecnológica impactarán de manera directa en la generación del valor agregado en la industria.
METODOLOGÍA
Se comenzó con proponer tres métodos metaheurísticos para conseguir la optimización del proceso planteado, probando 10 instancias con las características de los sistemas de producción de la empresa en cuestión. Los algoritmos seleccionados son el de Búsqueda Aleatoria Simple (SRS), el Recocido Simulado (SA) y el Algoritmo Genético (GA). Los pseudocódigo de estos algoritmos son:
SRS
Generar un vector inicial xk
Definir k = 0
Generar un nuevo vector ŷ de acuerdo con una distribución de probabilidad. Si f(ŷ ) < f(xk), definir xk+1 = ŷ, si no xk+1 = xk
Detener el algoritmo hasta alcanzar K iteraciones; en caso contrario ir al paso 1 y definir k = k+1
SA
Elegir un vector inicial xk de manera aleatoria o determinista. Definir k = 0 y una temperatura inicial T.
Generar movimientos aleatorizados en el vector xk y con esto obtener un ŷ
Si f(ŷ) < f(xk), definir xk+1 = ŷ. En caso contrario, si U(0,1) < exp[f(xk) - f(ŷ))/T] definir xk+1 = ŷ; si no xk+1 = xk
Reducir la temperatura T de acuerdo a un programa de enfriamiento, por ejemplo, T = αT, donde α ∈ (0,1).
Detener el algoritmo hasta alcanzar K iteraciones o un valor mínimo de T. En caso contrario ir al paso 1. Definir k = k + 1
GA
Definir P = población inicial
Evaluar P
Mientras el criterio de término no se satisfaga,
Recombinar P = P'
Mutar P'
Evaluar P'
P = Reemplazar (P' U P)
Además de estos modelos, como participantes propusimos un método que consiste en generar un vector solución con la asignación aleatoria de las órdenes de trabajo de manera que cada máquina complete la misma cantidad de órdenes y, en caso de que el total de ellas sea un número impar, evaluar el vector de cada máquina para asignar la última orden a la máquina con el menor tiempo.
El siguiente paso consistió en generar una función objetivo base y codificar los algoritmos en Google Colab utilizando el lenguaje R, de manera que se obtuvieran valores para el tiempo de trabajo de las máquinas. Esto requirió el ajuste de los valores que cada parámetro tomó en las pruebas llevadas a cabo, lo cual se hizo de manera arbitraria guiadas por obtener un valor bajo en la varianza de los resultados obtenidos.
Se realizó una experimentación computacional en la cual se hicieron 30 ejecuciones independientes de cada algoritmo para cada instancia, recopilando las medias aritméticas, y con esa información se comparó el comportamiento de cada uno. Con dichos datos se realizó la prueba ANOVA donde se hizo la comparación estadística de las medias a través de la prueba de Tukey.
Tras probar los algoritmos se observó mejor desempeño en el Algoritmo Genético y el Recocido Simulado, estos tienen un rendimiento muy similar. Se observó que la programación del algoritmo del Recocido Simulado fue más sencilla, ya que los mecanismos internos del algoritmo son más simples en comparación con el Algoritmo Genético, el cual tiene una estructura más complicada de programar.
CONCLUSIONES
A manera de conclusión podemos decir que durante la estancia de verano virtual se logró conocer y aprender que existen distintos métodos metaheurísticos que pueden ser muy útiles al aplicarlos en problemas de ingeniería y ciencia. Por otra parte, desarrollamos habilidades de programación utilizando el lenguaje de R el cual se usó para codificar los algoritmos y poner en práctica métodos estadísticos como el Anova que nos ayudaron a hacer comparaciones del rendimiento de cada método.
El trabajo desarrollado puede extenderse con mayor experimentación y empleando otros algoritmos para después comprobar su funcionamiento en la industria del problema planteado y posiblemente equipararse a otros sectores.
Finalmente, el contenido aquí expuesto y su culminación se pretende llevar a una publicación con el propósito de transmitir los resultados y que se pueda generar un avance en el conocimiento científico, haciendo partícipes a industrias que tengan interés hacia este tipo de procesos de la planeación de la producción.
Reyes Melo Brenda, Instituto Tecnológico de Pachuca
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
Reyes Olivas Edgar Omar, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
MODELOS DE PRONÓSTICO DE ENERGÍA FOTOVOLTAICA UTILIZANDO INTELIGENCIA ARTIFICIAL
MODELOS DE PRONÓSTICO DE ENERGÍA FOTOVOLTAICA UTILIZANDO INTELIGENCIA ARTIFICIAL
Reyes Olivas Edgar Omar, Universidad Autónoma de Ciudad Juárez. Sánchez Quiroga Héctor Gerardo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
PLANTEAMIENTO DEL PROBLEMA
Las energías renovables han cobrado una enorme relevancia en los últimos años debido al cambio climático y el impacto negativo que han tenido las energías convencionales sobre el medio ambiente.
Si bien tienen una gran importancia, estas energías contienen una alta intermitencia y variabilidad debido a la alta dependencia de las condiciones climatológicas. Aquí es donde radica la importancia de poder predecir los valores de energía generada, para poder realizar una planeación de distribución de energía.
Es por esto por lo que en este proyecto se utilizan técnicas de aprendizaje automático para el pronostico de las series de tiempo a corto plazo. Además, se realiza una comparación con el modelo de geometría solar para determinar la precisión de nuestro modelo de aprendizaje automático.
METODOLOGÍA
Para realizar el estudio, se recopilo información de del portal del Laboratorio de Monitoreo de Radiación Solar de la Universidad de Oregón (http://solardata.uoregon.edu/).
Para poder trabajar con estos datos, se les aplicó un procesamiento en el cual fueron depurados de datos erróneos e inconsistencias. Además, se ajustaron de manera en que los datos faltantes fueron rellenados de manera automática utilizando distintos algoritmos, donde el algoritmo Last Observation Carried Forward (LOCF) fue el que tuvo más éxito y congruencia.
Una vez que los datos se encontraban listos para poder trabajar con ellos, se desarrolló un modelo de predicción de energía eléctrica a partir del sol y que se basa en los cálculos de geometría solar.
Con los mismos datos se desarrollo un modelo de aprendizaje automático utilizando el algoritmo de Máquinas de Vectores de Soporte (SVM), se optó por este algoritmo por su robustez. Se seleccionaron los mejores parámetros para obtener mejores resultados a la hora de ejecutar el modelo.
CONCLUSIONES
Al ejecutar ambos modelos y calcular el error cuadrático medio y la raíz del error cuadrático medio, se pudo observar que el modelo que utiliza el algoritmo de Máquinas de Vectores de Soporte (SVM) tiene más precisión y presenta un comportamiento más apegado a los valores reales.
Reyes Ostos Victor Manuel, Instituto Tecnológico Superior de Pánuco
Asesor:Mg. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica
LOS ESQUEMAS ANUALIZADOS Y LA POLIFUNCIONALIDAD EN LA PLANIFICACIóN DE PERSONAL EN CONTACTAMOS OUTSOURCING S.A.S, BARRANQUILLA.
LOS ESQUEMAS ANUALIZADOS Y LA POLIFUNCIONALIDAD EN LA PLANIFICACIóN DE PERSONAL EN CONTACTAMOS OUTSOURCING S.A.S, BARRANQUILLA.
Reyes Ostos Victor Manuel, Instituto Tecnológico Superior de Pánuco. Rivera Hernández Ricardo Daniel, Instituto Tecnológico Superior de Pánuco. Asesor: Mg. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica
PLANTEAMIENTO DEL PROBLEMA
El problema que se propuso estudiar en este proyecto consistió en la planificación de una fuerza laboral a nivel estratégico, considerando esquemas de anualización de horas de trabajo y empleados polifuncionales para empresas del sector servicios, con un caso aplicado en la empresa tercerizadora Contactamos Outsourcing S.A.S, que les permita una operación costo-efectiva y una adecuada mitigación de los efectos de la sobredotación y subdotación de personal.
METODOLOGÍA
La metodología propuesta del proyecto contempló 7 etapas, de las cuales, dentro de la pasantía promovida por el programa delfín, fueron abordadas en mayor detalle las etapas 3, 5 y 6.
Etapa 1. Revisión de literatura: Esta etapa implica realizar una revisión de literatura de investigaciones previas sobre las estrategias usadas hasta ahora para la incorporación y evaluación de la flexibilidad laboral en la gestión de los RRHH. El objetivo de esta etapa es mantenerse al tanto del estado del arte teórico y de la práctica a fin de encauzar de mejor manera las otras etapas a desarrollar en esta investigación, reformulándolas de ser necesario.
Etapa 2. Definición de supuestos: El objetivo de esta etapa es establecer los supuestos, las limitaciones, y los fundamentos teóricos de la investigación que serán considerados para desarrollar la modelación y diseño de una fuerza laboral flexible para la empresa Contactamos Outsourcing S.A.S, incorporando esquemas de anualización de horas y polifuncionalidad.
Etapa 3. Modelamiento del problema: El objetivo de esta etapa es diseñar, a través del modelamiento matemático (modelo matemático de programación entera mixta), una fuerza laboral a través de esquemas de anualización de horas y polifuncionalidad para la empresa Contactamos Outsourcing S.A.S.
Etapa 4. Necesidades y recolección de información: El objetivo de esta etapa es definir en detalle la información necesaria que será ingresada a manera de conjuntos o parámetros en el problema de programación matemática que será solucionado en la Etapa 5. Parte de la información necesaria es la siguiente: demanda estimada de personal por tipo de proyecto (tarea) y semana día; horarios de trabajo de la empresa; información de leyes laborales que rigen los contratos laborales de los empleados y definen las jornadas y turnos de trabajo factibles para los empleados. Estos datos serían suministrados, como caso de estudio, por la empresa Contactamos Outsourcing S.A.S, respecto a cinco de sus clientes más importantes.
Etapa 5. Implementación computacional: Una vez el modelo de programación matemática ha sido formulado (Etapa 3) y las necesidades de información han sido recolectadas (Etapa 4), es posible desarrollar la Etapa 5. El objetivo de esta etapa es escribir los modelos de programación matemática en AMPL y posteriormente obtener soluciones mediante un solver como CPLEX o GUROBI (software libre), los cuales son solvers especializados en resolver problemas de programación matemática lineales enteros, como el abordado en esta investigación. Inicialmente se utilizará un ejemplo numérico que reúna patrones de la demanda y de la oferta de personal interesantes de modelar y así ganar maniobrabilidad que permita obtener conclusiones preliminares sobre la modelación realizada. Luego se espera aplicar la metodología propuesta a un caso de estudio con información real de la empresa Contactamos Outsourcing S.A.S.
Etapa 6. Análisis de resultados: Una vez el modelo de programación matemática desarrollado en la Etapa 3 ha sido escrito en AMPL y resuelto en CPLEX o GUROBI (Etapa 5), el objetivo en esta etapa de la metodología es evaluar los resultados obtenidos. Tal evaluación permitirá identificar ventajas y desventajas de la política de flexibilidad a proponer. Adicionalmente este análisis permitirá identificar si la política de flexibilidad desarrollada es viable de implementar a nivel práctico y establecer reglas simples de decisión (i.e. políticas de flexibilidad laboral) para que los gerentes de las empresas puedan seguir e implementar. La Etapa 6 será un elemento de entrada para la etapa 7.
Etapa 7. Adicionalmente, si la calidad de los resultados no es satisfactoria, la Etapa 6 servirá como medida de retroalimentación y ajuste para la Etapa 3. Finalmente, la Etapa 6 se relaciona con los objetivos específicos 1, 2 y 3.
CONCLUSIONES
Durante la pasantía se logró la adquisición de conocimientos sobre planificación de personal, y especialmente el caso particular de la empresa colombiana Contactamos Outsourcing S.A.S., involucrando temas sobre planeación agregada, anualización de horas y la polifuncionalidad. Asimismo, se puso en práctica la definición de un modelo de programación lineal entera mixta, la utilización del lenguaje AMPL y solucionado con el paquete matemático comercial CPLEX. Esto llevándose a cabo gracias a la data real de la empresa Contactamos Outsourcing S.A.S. Si bien, este es un proyecto extenso, siendo que se encuentra en la etapa de obtención de resultados, se poseen resultados parciales que reflejan un impacto positivo de la anualización de horas y de la polifuncionalidad respecto al costo anual de planificación de personal en la empresa Contactamos Outsourcing S.A.S.
Rios Huertas Ana Maria, Universidad Antonio Nariño
Asesor:Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez
PRACTICA METODOLOGIA LEANSIX SIGMA PARA LA FABRICACION DE AVIONES DE PAPEL
PRACTICA METODOLOGIA LEANSIX SIGMA PARA LA FABRICACION DE AVIONES DE PAPEL
Rios Huertas Ana Maria, Universidad Antonio Nariño. Asesor: Dr. Adan Valles Chavez, Instituto Tecnológico de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
Los procesos de fabricación a menudo presentan problemas en sus líneas de producción que se pueden clasificar en estándares de calidad, desperdicios entre otros, para lo que se busca implementar la metodología six sigma para su pronta solución así como también la mejora continua por medio del control, en este caso se presenta la fabricación de aviones de papel con ciertos requerimientos del cliente en el ancho de las alas de los mismos con un limite superior de 62 mm y un limite inferior de 58 mm, se evidencia que es necesario la implementación de esta metodología para mejorar las estadísticas así como también la calidad de los aviones por medio de las fases mencionadas anteriormente y se espera tener una mejora estadística en el momento de las corridas de pruebas por medio del software minitab así como también plantear e implementar herramientas para la estandarización de las medidas en las hojas de papel.
METODOLOGÍA
ETAPA DEFINIR
Se realizaron 40 aviones de papel con diferentes tamaños, a los cuales se les tomo medidas de las alas como referencia para identificar las variaciones, implementando para esto una regla con unidades en centímetros para poder estudiar los resultados, por medio de diferentes gráficas y métodos utilizando el programa minitab.
Prueba de normalidad
Al conocer el valor de P el cual es 0.177 se tomó la hipótesis nula ya que el valor es mayor a 0.5
Una desviación estándar de 6.917
Un valor de la media de 60.55
Análisis de capacidad:
El valor del Cpk encontrado fue de 0.06 con un PPM total de 750.000, lo que significa que se encuentran ciertos defectos que están por fuera de la zona de tolerancia los cuales se pueden visualizar en la gráfica, el objetivo es aumentar el Cpk mayor a 2 y reducir los PPM a un valor de cero.
Diagrama de Ishikawa:
Mediante este diagrama se pudo identificar las posibles causas que ocasionaron los defectos que se encuentran fuera de la zona de tolerancia
Matriz causa y efecto
Le asigna un peso a cada una de las posibles causas del problema según los requerimientos del cliente en este caso las dimensiones es lo más importante
Diagrama de Pareto:
Se pudo identificar las 4 posibles causas más relevantes que ocasionaron las dimensiones fuera de la zona de tolerancia las cuales fueron tijeras sin filo, regla con números borrosos, lesiones, medidas incorrectas
ETAPA MEDIR
Se verificaron las medidas de la muestra de aviones utilizando una escuadra como herramienta de medida, despues de darles instrucciones precisas a los inspectores haciendo una simulación de control en una línea de producción
Grafica de corridas del sistema de medición:
Las medidas de mejora implementadas fueron efectivas ya que los tres inspectores tuvieron las mismas medidas y obtuvieron un grafico con las líneas horizontales paralelas en los mismos intentos
Estudio R&R del sistema de medición- método ANOVA
El rango de la muestra es cero en todas las oportunidades, se puede concluir que la linea es horizontal y no presenta mayor inclinación hacia ningún lado, y se podría afirmar que el sistema de medición fue preciso y es confiable.
FASE ANALISIS
Esta practica se llevo a cabo con el fin de conocer y analizar los resultados obtenidos mediante la correlación, la regresión, 2 varianzas, 2 medias . La metodología que se implemento fue en 10 tapas de botellas de gaseosa se realizaron 10 huecos de diferentes tamaños y se tomo el tiempo de vaciado de una botella segun la tapa
CORRELACION
La correlación es mayor a -0.6 lo que significa que es fuerte
REGRESION
TIEMPO AGUA SEGUNDOS = 96,27 - 11,61 DIAMETRO DE BROCA (mm)
FASE DE MEJORA
PRACTICA ANCHO DE ALAS
Se implementaron 16 hojas de papel con tamaño de ancho de hoja desde 90 mm hasta 120 y posteriormente se realizaron los aviones de papel, y se tomaron las medidas del ancho de las alas de cada uno por una misma persona, con el fin de analizar la correlacion y la regresion
REGRESION
ANCHO ALAS (Y) = - 2,360 + 0,5868 ANCHO HOJA(X)
En la ecuación se reemplaza el 60 mm correspondiente ancho de las alas para encontrar el valor final es 106.27 mm
Se implementó el uso de un vernier como herramienta de medida para que su precisión fuera mayor
Se diseño una herramienta poka yoke la cual estandarizo las dimensiones de las hojas
Se realizo un diagrama de procesos para identificar cada actividad que se debe realizar
Se realizo una hoja de instrucciones detallada con movimientos y pasos
Se diseño una distribución en planta layout de la fábrica de aviones de papel
PRUEBA DE MEDIDAS CON VERNIER
El Cpk en este informe de capacidad del proceso fue de 2.36 lo que significa que las medidas son correctas y validas ya que es mayor a 2 y el PPM total es igual a 0
FASE DE CONTROL
Las metodologías de control implementadas en relación con six sigma para la fabricación de aviones de papel por medio de las cuales el proceso de fabricación será controlado periódicamente para evitar desperdicios, demoras y aprovechar las fases anteriores ya aplicadas
Los resultados relacionados con el análisis X barra-r donde se monitorea la media y la variación del proceso con subgrupo de muestras de 3
X barra-s se analiza la media y la desviación estándar con un subgrupo de 3
CONCLUSIONES
CONCLUSIONES
Se puede concluir que el proceso de fabricación de aviones de papel mejoro notoriamente gracias a la implementación de la metodología sixsigma
Se disminuyeron las medias erróneas, así como también las dimensiones fuera de los limites
Por medio del programa minitab se pudo analizar y demostrar gráfica y estadísticamente, todas las fases de esta metodología
Se implementaron herramientas de medición mas precisas, así como también, elementos de estandarización (poka yoke) para la disminución de los errores y desperdicios
Rios Rodriguez Karla Nayeli, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
LEAN MANUFACTURING, SIMULACIóN Y MINITAB, APLICADO A PROCESO DE SERIGRAFIA SOBRE PIEZAS DE METAL
LEAN MANUFACTURING, SIMULACIóN Y MINITAB, APLICADO A PROCESO DE SERIGRAFIA SOBRE PIEZAS DE METAL
Rios Rodriguez Karla Nayeli, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. Maria Dolores Gracia Guzman, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Debido a que la aplicación de serigrafía sobre las piezas de metal que se utilizan para cajas herramentistas para la operación de huesos es aplicada de manera manual y en un espacio abierto, la serigrafía tiende a estar más expuesta a contaminarse de pelusa que está en el ambiente o producirse poros sobre la pintura. Por lo cual, el tiempo para producir un lote varía de acuerdo al personal con el que cuenta en dicho turno, ya que todo el proceso en cada uno de las estaciones se rota el personal con el que cuenta, haciendo más de una sola actividad.
El proceso y los resultados actuales, si en sí no son tan desfavorables, se puede encontrar la manera de mojar el resultado, encontrando el número óptimo de personal para poder hacer más lotes por turno, eliminando desperdicios de tiempo y aprovechando al máximo el capital humano con el que se cuenta.
Entre los principales problemas que se genera, es que las actividades que se realizan en el área no son equitativas entre todo el personal. Ya que entre más personal haya, menores son las tareas a realizar y tiempo perdido. Y entre menos personal, el proceso se hace más lento y por la presión de los operadores, la calidad llega a ser deficiente, es por ello que este estudio tiene como finalidad determinar cuál es el número óptimo de personal para poder hacer más lotes por turno conservando la calidad que debe contener cada lote.
METODOLOGÍA
Metodología de Optimización - Simulación
Para el logro de este objetivo se hace uso de un enfoque de optimización-simulación que integra la metodología de superficies de respuesta con la simulación, de esta manera con las herramientas Minitab y Arena, se desarrolló paso a paso la aplicación de los recursos con los que cuenta la producción, de ahí nos derivan los experimentos a realizar para poder integrarlos al simulador y que este nos arroje los resultados para poder obtener el número de operadores que se necesitan para poder terminar la máxima cantidad de lotes por turno.
Se construyó un esquema que explica cómo funciona el enfoque de optimización con simulación utilizando la RSM y la simulación, mostrando resultados correspondientes al escalamiento y, por último, se analizó los resultados que nos arrojan de lo que sería el punto óptimo.
1.-Definir los objetivos de la optimización
Encontrar el número óptimo de operadores para sacar el mayor número de lotes por turno.
2.-Seleccionar los factores que resultan significativos
X1=Tiempo
X2=Número de operadores
3.-Establecer la Región de Operabilidad
Apoyándonos del sistema de simulación Arena y el programa Minitab, creamos los escenarios posibles para poder experimentar y poder aplicarlos en el sistema de simulación basándonos en un modelo real.
4.-Construir el Modelo de Simulación
Basándonos en los datos ingresados en Minitab, nos arrojara una serie de experimentos que se realizaran en el simulador Arena, en el cual. Cada uno de los datos arrojados, serán capturados en Minitab de nuevo para ir identificando que factores nos resultan significativos.
5.-Seleccionar un Entorno Experimental
Se determina anteriormente, el espacio de donde vamos a realizar la simulación.
6.-Elaborar un modelo matemático
Basándonos en los datos arrojados por Arena y llevándolos a Minitab, se lleva a cabo un modelo matemático.
Repetir los pasos 4, 5 y 6 si fuera necesario
7.-Localizar el óptimo buscado para la respuesta
Después de hacer los experimentos y simularlos, se identifica cuál es modelo más óptimo
8.-Verificar experimentalmente
Confirmar el valor de la respuesta utilizando los niveles óptimos de los factores
CONCLUSIONES
La aplicación de las herramientas nos facilita identificar el número de experimentos adecuados a aplicar y a desarrollar en el ambiente más apegado a la realidad mediante un modelo de simulación, ahorrándonos tiempo en el manejo de datos, así como también poder predecir problemas que pudieran suscitarse al momento del aplicar cambios en el modelo. Quedándonos con el enfoque más importante que es encontrar el número más óptimo de recurso humano para poder terminar la mayor cantidad de lotes por turno.
El enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos. Durante la estancia virtual de investigación del programa DELFÍN XXVI verano de la Investigación Científica y Tecnológica del Pacífico, se estudió la metodología de optimización - simulación, y se esbozó su aplicación al problema Lean Manufacturan, simulación y Minitab, aplicado a proceso de serigrafía sobre piezas de metal, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
Risk Mora David Yamil, Universidad Autónoma de Manizales
Asesor:Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
DISEñO MECáNICO DE BANCO DE PRUEBAS PARA PRóTESIS DE TOBILLO
DISEñO MECáNICO DE BANCO DE PRUEBAS PARA PRóTESIS DE TOBILLO
Risk Mora David Yamil, Universidad Autónoma de Manizales. Asesor: Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Poder moverse adecuadamente es fundamental para los seres humanos. En el caso de una persona que ha tenido una amputación de miembro inferior, las prótesis de miembros inferiores le brindan nuevas oportunidades para optimizar su calidad de vida. Desafortunadamente, la accesibilidad a estos dispositivos de asistencia es un problema en países subdesarrollados y países en desarrollo. Esto trae la necesidad de diseñar nuevas prótesis de miembros inferiores; dichas prótesis deben ser resistentes, seguras, y económicas para resolver la problemática expuesta anteriormente. En el caso de tener un nuevo diseño, se debe seguir protocolos de experimentación para evaluar el modelo físico. La Organización Internacional de Normalización (ISO) ha presentado varias normas para regir el diseño y las pruebas mecánicas de prótesis y órtesis de miembros inferiores. La norma ISO 22675:2016 evalua la resistencia de dichos dispositivos: se necesita una máquina que por medio de la aplicación de fuerza en un solo punto carga la prótesis a condiciones de carga parecidas a la cinética de la marcha humana en la fase de apoyo. Por lo tanto, para poder validar el diseño de una prótesis de tobillo primero se debe utilizar un banco de pruebas para evaluar el mismo, de aquí proviene el objetivo de este proyecto: Realizar el diseño mecánico de una máquina para realizar cargas cíclicas a distintas prótesis de tobillo regido por el protocolo de ensayo establecido en la norma ISO 22675:2016 para así evaluar el rendimiento de dichas prótesis a condiciones de carga análogas a las que serán sometidas en escenarios de operación regular.
METODOLOGÍA
Se debe determinar qué tipos de factores de seguridad son relevantes y un factor de seguridad deseado a partir del criterio de Norton. Luego, las dimensiones de cada componente son representados por medio de una figura geométrica donde una dimensión en específico esta por definir. Se calcularon los esfuerzos y la resistencia de cada componente a partir de la teoría de Goodman para fatiga fluctuante (categoría II) cada componente sufre esfuerzo normal por flexión el cual se calcula. La resistencia del material también varia con las condiciones de carga cuando se diseña a fatiga, la resistencia de fatiga a vida infinita (el millón de ciclos) se calcula a partir del limite de vida teórico sin corregir que depende de la resistencia última del material y seis factores de corrección. Ahora se puede calcular el factor de seguridad a partir de los esfuerzos aplicados, el limite de resistencia calculado y la resistencia última. Se varió la geometría hasta obtener un factor de seguridad igual al factor de seguridad deseado. Posteriormente, esta solución matemática es reproducida en un software de diseño asistido por computadora como un archivo 3D de estructura ASCII (archivo .step), esto se hace para poder evaluar el modelo físico en un software de análisis por el método de elementos finitos (FEM), de acuerdo de los resultados del análisis FEM se realizan cambios respectivos en el modelo geométrico.
CONCLUSIONES
Del modelo esfuerzo-vida la altura necesaria de la plataforma era 9,8 mm, al aplicar las cargas variables por medio del Mechanical Modeler del software ANSYS se evidenciaron deflexiones no relevantes, lo cual indica que la rigidez de este componente es adecuada, el esfuerzo máximo fue de 11,3 MPa, por lo tanto, no hay riesgo de deformación permanente y finalmente al evaluar las condiciones de fatiga con el Fatigue Toolbox se pudo verificar que todo el componente resiste por lo menos un millón de ciclos, es decir llega a la vida infinita de diseño. Para el sistema tornillo-adaptador el tornillo más adecuado para resistir las cargas fatigantes, estáticas y el pandeo fue el tornillo M14 x 2 mm, el adaptador tuvo que tener un roscado M14 interno y una geometría prismática, ranurada, disco-rectangular. Al evaluar los resultados computacionales podemos hacer las mismas apreciaciones que hicimos para la plataforma: las deflexiones no son considerables y no hay falla por pandeo, los esfuerzos máximos no producen deformaciones permanentes y todo el sistema tornillo-adaptador llega a la vida infinita de diseño.
Se pudo diseñar un banco de pruebas para aplicar cargas análogas a la cinética de la marcha humana a prótesis de tobillo denominado BanPro21 que consiste de tres componentes principales que garantizan su buen funcionamiento de acuerdo a la norma ISO 22675:2016. El diseño global se dividió en el diseño mecánico de cada componente de acuerdo a la teoría de resistencia a la fatiga de esfuerzo-vida y la teoría de falla a fatiga fluctuante categoría II de Goodman. Cada solución analítica fue analizada computacionalmente por medio de un modelo FEM para garantizar que la rigidez (deflexión), resistencia (esfuerzos) y resiliencia (vida útil) de cada componente fuera adecuado.
Risk Ruiz Alán, Universidad de Sonora
Asesor:Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente
PROPUESTA DE UNA HERRAMIENTA METODOLóGICA EN LA PRIORIZACIóN Y DEFINICIóN DEL áRBOL DE PROBLEMA PARA LA FORMULACIóN Y EVALUACIóN DE PROYECTOS BAJO LA METODOLOGíA DE MARCO LóGICO.
PROPUESTA DE UNA HERRAMIENTA METODOLóGICA EN LA PRIORIZACIóN Y DEFINICIóN DEL áRBOL DE PROBLEMA PARA LA FORMULACIóN Y EVALUACIóN DE PROYECTOS BAJO LA METODOLOGíA DE MARCO LóGICO.
Risk Ruiz Alán, Universidad de Sonora. Asesor: Mg. Diego Andrés Aguirre Cardona, Universidad Católica de Oriente
PLANTEAMIENTO DEL PROBLEMA
Dentro de la metodología del marco lógico, se pueden encontrar distintas y diversas deficiencias que pueden obstaculizar el desarrollo adecuado y eficiente de un proyecto planteado bajo esta metodología. Entre estas, se puede encontrar dificultades en la priorización del problema, que en consecuencia puede entorpecer la definición de los objetivos y las metas que establezca el proyecto, a su vez, la secuencia lógica de investigación o de proyección, especialmente en la perfilación y la evaluación económica de las alternativas a seleccionar. El resultado es un carácter de proyecto con falta de detalle y de criterios bien planteados para utilizar como base y evitar que se estimen los problemas al azar, debido en precisión, a esta falta de metodología técnica para la definición del árbol problemático.
Es por esto, que la metodología de marco lógico, al presentar deficiencias en la definición y priorización de las causas, problema y consecuencias (árbol del Problema), conllevan a estimarlos al azar, debido a que no cuentan con criterios metodológicos planteados, lo que dificulta la efectiva ejecución del proyecto.
METODOLOGÍA
La metodología por utilizar en el proyecto de investigación se basa en el desarrollo de cada objetivo. Para el primer objetivo se pretende recurrir a la revisión literaria y resumir las condiciones de la formulación y elaboración de proyectos, buscando medir las tipologías y pasos del método para lograr la elaboración de un mapa conceptual o mental. Se llevará a cabo en un salón u oficina determinados, con el uso de computadora y documentos entre investigador y estudiante de apoyo.
Para el segundo objetivo, se utilizará como método el enfoque sistémico para buscar la forma en que los datos se analizan para la elaboración del árbol de problema, siguiendo el esquema de la teoría general de sistemas. De igual manera que en el primer objetivo, se desarrollará en un salón u oficina entre investigador y estudiante, utilizando computadoras y documentos.
Para el tercer objetivo se utilizará la metodología MIC MAC, buscando con un sentido lógico, elaborar una propuesta y avalarla. También se desarrollará en salón u oficina, entre investigador y estudiante, utilizando equipo como computadoras y documentos seleccionados como materiales.
En el cuarto objetivo, se trabajará con la metodología MIC MAC en conjunto con la metodología del Marco Lógico. En este objetivo se buscará definir las variables a medir y el tamaño de la muestra, así como elaborar el instrumento de medición, realizar una prueba a partir de un tamaño de muestra y finalmente realizar un análisis de los resultados obtenidos. Este objetivo se busca desarrollar en la Universidad Católica de Oriente (Colombia) en conjunto con la Universidad de Sonora (México). Se utilizarán tablets y/o computadoras como equipo de trabajo y un software estadístico como material de desarrollo. Finalmente, este objetivo se llevará a cabo entre investigador y estudiante.
CONCLUSIONES
La formulación y evaluación de proyectos puede ser realizada bajo varias metodologías. Una de ellas es la Metodología del Marco Lógico, la cual inicia con la elaboración de un esquema problema bajo la metodología del Árbol Problema, sin embargo, esta metodología presenta diversas dificultades, en la definición y en la priorización de estos problemas, de sus causas y también de sus consecuencias. Por esta razón, es necesario realizar una propuesta que permita a los formuladores captar herramientas probabilísticas o prospectivas que apoyen la formulación de las problemáticas basadas precisamente en elementos más técnicos.
Rivas Sosa Frida Michelle, Instituto Tecnológico de Tapachula
Asesor:Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes
USO DE BIOMASAS LIGNOCELULóSICAS PARA LA PREPARACIóN DE CATALIZADORES SóLIDOS VíA HIDROTERMAL Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE ACEITES.
USO DE BIOMASAS LIGNOCELULóSICAS PARA LA PREPARACIóN DE CATALIZADORES SóLIDOS VíA HIDROTERMAL Y SU APLICACIóN EN LA TRANSESTERIFICACIóN DE ACEITES.
Rivas Sosa Frida Michelle, Instituto Tecnológico de Tapachula. Asesor: Dra. Didilia Ileana Mendoza Castillo, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
El biodiesel actualmente ha ganado interés como combustible alternativo debido a la disminución en las fuentes de petróleo y al impacto negativo que este último ha tenido sobre el medio ambiente. Este biocombustible es una mezcla de ésteres monoalquílicos y es considerado renovable, biodegradable y amigable con el medio ambiente (He y col., 2017).
Entre los principales métodos de producción de biodiesel se encuentra la pirólisis (craqueo térmico), microemulsificación, dilución y transesterificación (Gebremariam y col., 2017). La transesterificación es considerada como uno de los mejores métodos para producir biodiesel de alta calidad y con un bajo costo de instrumentación. La transesterificación (también llamada alcoholisis) es la reacción de un aceite vegetal o grasa animal con un alcohol de cadena preferentemente corta en presencia de un catalizador para formar alquil ésteres de ácidos grasos (biodiesel) y glicerol (Adekunle y col., 2020).
Los catalizadores son esenciales en la reacción de transesterificación porque aceleran la velocidad de reacción y el rendimiento de biodiesel (Mahlia y col., 2020). Los catalizadores se clasifican según su presencia física en la reacción de transesterificación como catalizadores homogéneos y heterogéneos (ácidos y básicos). Los catalizadores heterogéneos son los que se encuentran en un estado diferente a la de los reactantes (aceite y alcohol) (Adekunle y col., 2020). En particular, los materiales a base de carbono obtenidos generalmente a partir de residuos agrícolas, urbanos o biomasas forestales, han demostrado ser eficaces como soporte catalítico en la producción de biodiesel (Abdullah y col., 2017).
La carbonización hidrotermal (HTC por sus siglas en inglés) es un proceso útil de conversión termoquímica que opera a bajas temperaturas (180-250 °C) y presión autógena (2-10 MPa) en el que la biomasa se convierte en un material sólido rico en carbono (Chaparro-Garnica y col., 2020).
METODOLOGÍA
Para la síntesis de los catalizadores heterogéneos se emplearon diversas biomasas lignocelulósicas (endocarpio de coco, cáscara de nuez de macadamia y cáscara de naranja) como precursores de soportes a base de carbono. Las biomasas se molieron para reducir el tamaño de partícula y se tamizaron utilizando un número de malla de 40-100. Posteriormente, se lavaron con agua desionizada hasta que el pH de agua de lavado fue constante y se secaron en el horno a 100 °C durante 24 h.
Para la preparación de los catalizadores heterogéneos se planteó un diseño experimental tipo Taguchi L9 para cada una de las biomasas, las variables empleadas fueron: temperatura de HTC (180, 200, 220 °C), tiempo de HTC (12, 15, 18 h), concentración del agente modificador (1, 2, 4 M) y tiempo de impregnación (12, 18 y 24 h). El proceso de HTC se llevó a cabo en un reactor marca BAOSHISHAN cuyo volumen es de 100 mL. Se determinaron los rendimientos de HTC a cada uno de los soportes obtenidos.
Posteriormente, el soporte fue sometido a un proceso de impregnación húmeda empleando una solución de H2SO4 y una de KOH para la preparación de los catalizadores heterogéneos ácidos y básicos respectivamente, a las diferentes concentraciones planteadas en el diseño experimental. Específicamente, se pusieron en contacto 3 g de soporte con 30 mL del agente modificador en agitación constante a temperatura ambiente durante 24 h. Posteriormente, el catalizador se separó de la solución por medio de filtración, se lavó con agua desionizada para eliminar el exceso de los agentes modificadores en cada caso y se secó en un horno a 100 °C durante 24 h. Para evaluar el desempeño de los catalizadores, se llevó a cabo la transesterificación del aceite de cártamo comercial empleando una relación metanol: aceite de 15:1, una carga de catalizador con respecto al aceite del 10 %, a una temperatura y tiempo de reacción de 60 °C y 4 h respectivamente.
La cantidad de ésteres metílicos obtenida en la reacción se determinó de acuerdo con la norma europea EN 14103 por cromatografía de gases usando un cromatógrafo Thermo Scientific modelo Trace 1300 GC. El heptadecanoato de metilo como estándar interno se utilizó como base para el cálculo del porcentaje de formación de FAMEs.
CONCLUSIONES
Los catalizadores preparados a través de la HTC a partir de las diferentes biomasas lignocelulósicas empleadas y tratados químicamente con KOH presentan un gran potencial para la producción de biodiésel económica y sostenible alcanzando porcentajes de conversión de biodiesel mayores al 95%, mientras que los modificados con H2SO4 presentaron un pobre desempeño debido a que requieren condiciones de operación más drásticas en comparación con los catalizadores básicos. La selección de la ruta de preparación es primordial para obtener catalizadores adecuados y competitivos para ser utilizados en la producción de biodiesel.
Rivera del Villar Moisés, Universidad de Guadalajara
Asesor:M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
PROYECTO CHANAKUA
PROYECTO CHANAKUA
Rivera del Villar Moisés, Universidad de Guadalajara. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
De acuerdo al INEGI, existen 68 pueblos indígenas en México divididos en 11 familias lingüisticas y 364 varianates dialectales, siendo los indígenas aproximadamente el 10% de la población.
La cultura Purépecha es el pueblo indígena predominante del estado de Michoacán y actualmente cuenta con aproximadamente 117,221 hablantes del idioma Purépecha.
Actualmente existen muchos esfuerzos para preservar y mostrar la cultura Purépecha al mundo, tanto por medios tradicionales como por medios digitales, siendo estos últimos una herramienta valiosa debido al gran alcance que poseen.
El propósito de este proyecto es el de preservar y mostrar aspectos de la cultura Purépecha a través de los medios digitales, siendo los videojuegos el canal a utilizar.
METODOLOGÍA
Utilizando el motor gráfico Unity, junto con las herramientas de diseño Blender y Adobe Illustrator se busca crear una experiencia virtual que permite al usuario poder conocer diversos aspectos de la cultura Purépecha, permitiendo que sin importar origen, edad o grado de estudios pueda acercarse a la historia de este pueblo a través de los videojuegos.
Se está desarrollando un videojuego para dispositivos móbiles de tipo "Game Room", o sea que desde un menú principal se pueden seleccionar diversos minijuegos, cada uno abordando un aspecto de la cultura Purépecha. Los aspectos que se buscan abordar son:
- Música: mediante un videojuego de ritmo que ayude a memorizar los patrones ritmicos de las Pirekuas.
- Idioma: mediante el uso de la lengua Purépecha para la totalidad del juego pero utilizando ayudas visuales que ayuden al entendimiento de las palabras.
- Gastronomía: mediante un juego de cocina que ayude a memorizar los distintos platos e ingredientes de la cultura Purépecha.
- Vestido: mediante un juego que permita personalizar a un personaje con distinta ropa propia de la cultura Purépecha.
- Flora y fauna: mediante un juego en el que se tengan que cuidar a distintos animales y plantas de la región Purépecha para conocer más acerca de ellos.
CONCLUSIONES
Durante la estancia se logró generar la planificación completa del proyecto así como la estructuración completa del videojuego junto con algunos modelos 3D que van a ser utilizados dentro del juego.
El desarrollo de un proyecto complejo como lo es este videojuego requiere de una cantidad considerable de tiempo, por lo que no fue posible en el lapso de 2 meses generar un producto completo, sin embargo se creó la base para continuar con el proyecto para en aproximadamente 1 año tener un videojuego completo que permita mostrar al mundo a través de los medios digitales la belleza de la cultura Purépecha.
Rivera Hernández Ricardo Daniel, Instituto Tecnológico Superior de Pánuco
Asesor:Mg. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica
LOS ESQUEMAS ANUALIZADOS Y LA POLIFUNCIONALIDAD EN LA PLANIFICACIóN DE PERSONAL EN CONTACTAMOS OUTSOURCING S.A.S, BARRANQUILLA.
LOS ESQUEMAS ANUALIZADOS Y LA POLIFUNCIONALIDAD EN LA PLANIFICACIóN DE PERSONAL EN CONTACTAMOS OUTSOURCING S.A.S, BARRANQUILLA.
Reyes Ostos Victor Manuel, Instituto Tecnológico Superior de Pánuco. Rivera Hernández Ricardo Daniel, Instituto Tecnológico Superior de Pánuco. Asesor: Mg. Andres Felipe Porto Solano, Corporación Politécnico de la Costa Atlántica
PLANTEAMIENTO DEL PROBLEMA
El problema que se propuso estudiar en este proyecto consistió en la planificación de una fuerza laboral a nivel estratégico, considerando esquemas de anualización de horas de trabajo y empleados polifuncionales para empresas del sector servicios, con un caso aplicado en la empresa tercerizadora Contactamos Outsourcing S.A.S, que les permita una operación costo-efectiva y una adecuada mitigación de los efectos de la sobredotación y subdotación de personal.
METODOLOGÍA
La metodología propuesta del proyecto contempló 7 etapas, de las cuales, dentro de la pasantía promovida por el programa delfín, fueron abordadas en mayor detalle las etapas 3, 5 y 6.
Etapa 1. Revisión de literatura: Esta etapa implica realizar una revisión de literatura de investigaciones previas sobre las estrategias usadas hasta ahora para la incorporación y evaluación de la flexibilidad laboral en la gestión de los RRHH. El objetivo de esta etapa es mantenerse al tanto del estado del arte teórico y de la práctica a fin de encauzar de mejor manera las otras etapas a desarrollar en esta investigación, reformulándolas de ser necesario.
Etapa 2. Definición de supuestos: El objetivo de esta etapa es establecer los supuestos, las limitaciones, y los fundamentos teóricos de la investigación que serán considerados para desarrollar la modelación y diseño de una fuerza laboral flexible para la empresa Contactamos Outsourcing S.A.S, incorporando esquemas de anualización de horas y polifuncionalidad.
Etapa 3. Modelamiento del problema: El objetivo de esta etapa es diseñar, a través del modelamiento matemático (modelo matemático de programación entera mixta), una fuerza laboral a través de esquemas de anualización de horas y polifuncionalidad para la empresa Contactamos Outsourcing S.A.S.
Etapa 4. Necesidades y recolección de información: El objetivo de esta etapa es definir en detalle la información necesaria que será ingresada a manera de conjuntos o parámetros en el problema de programación matemática que será solucionado en la Etapa 5. Parte de la información necesaria es la siguiente: demanda estimada de personal por tipo de proyecto (tarea) y semana día; horarios de trabajo de la empresa; información de leyes laborales que rigen los contratos laborales de los empleados y definen las jornadas y turnos de trabajo factibles para los empleados. Estos datos serían suministrados, como caso de estudio, por la empresa Contactamos Outsourcing S.A.S, respecto a cinco de sus clientes más importantes.
Etapa 5. Implementación computacional: Una vez el modelo de programación matemática ha sido formulado (Etapa 3) y las necesidades de información han sido recolectadas (Etapa 4), es posible desarrollar la Etapa 5. El objetivo de esta etapa es escribir los modelos de programación matemática en AMPL y posteriormente obtener soluciones mediante un solver como CPLEX o GUROBI (software libre), los cuales son solvers especializados en resolver problemas de programación matemática lineales enteros, como el abordado en esta investigación. Inicialmente se utilizará un ejemplo numérico que reúna patrones de la demanda y de la oferta de personal interesantes de modelar y así ganar maniobrabilidad que permita obtener conclusiones preliminares sobre la modelación realizada. Luego se espera aplicar la metodología propuesta a un caso de estudio con información real de la empresa Contactamos Outsourcing S.A.S.
Etapa 6. Análisis de resultados: Una vez el modelo de programación matemática desarrollado en la Etapa 3 ha sido escrito en AMPL y resuelto en CPLEX o GUROBI (Etapa 5), el objetivo en esta etapa de la metodología es evaluar los resultados obtenidos. Tal evaluación permitirá identificar ventajas y desventajas de la política de flexibilidad a proponer. Adicionalmente este análisis permitirá identificar si la política de flexibilidad desarrollada es viable de implementar a nivel práctico y establecer reglas simples de decisión (i.e. políticas de flexibilidad laboral) para que los gerentes de las empresas puedan seguir e implementar. La Etapa 6 será un elemento de entrada para la etapa 7.
Etapa 7. Adicionalmente, si la calidad de los resultados no es satisfactoria, la Etapa 6 servirá como medida de retroalimentación y ajuste para la Etapa 3. Finalmente, la Etapa 6 se relaciona con los objetivos específicos 1, 2 y 3.
CONCLUSIONES
Durante la pasantía se logró la adquisición de conocimientos sobre planificación de personal, y especialmente el caso particular de la empresa colombiana Contactamos Outsourcing S.A.S., involucrando temas sobre planeación agregada, anualización de horas y la polifuncionalidad. Asimismo, se puso en práctica la definición de un modelo de programación lineal entera mixta, la utilización del lenguaje AMPL y solucionado con el paquete matemático comercial CPLEX. Esto llevándose a cabo gracias a la data real de la empresa Contactamos Outsourcing S.A.S. Si bien, este es un proyecto extenso, siendo que se encuentra en la etapa de obtención de resultados, se poseen resultados parciales que reflejan un impacto positivo de la anualización de horas y de la polifuncionalidad respecto al costo anual de planificación de personal en la empresa Contactamos Outsourcing S.A.S.
Rivera Quintero Maryi Julieth, Universidad Antonio Nariño
Asesor:Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA, EN COLOMBIA, CASO DE ESTUDIO: (RUBIALES, META - GRANADA, META)
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA, EN COLOMBIA, CASO DE ESTUDIO: (RUBIALES, META - GRANADA, META)
Ceron Acosta Luz Karina, Universidad Antonio Nariño. Rivera Quintero Maryi Julieth, Universidad Antonio Nariño. Asesor: Mtro. Ervin Durantes Cueto, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
La dureza del agua se mide con base en la cantidad de compuestos de calcio y magnesio presentes en ella, con la aplicación de la distribución muestral y guiados por la normativa que compara la Clasificación de las aguas según el valor de la dureza total, estableciendo como valor orientador de calidad desde un contenido en calcio de 0 mg/l y como límite máximo tolerable 300 mg/l, se procedió a realizar diferentes muestras en dos pueblos ubicados en el departamento del meta en Colombia, tanto a empresas purificadoras de agua como a pozos subterráneos para determinar en que nivel de clasificación se encuentran; obteniendo resultados interesantes al evidenciar que el agua del pozo subterráneo a pesar de no ser tratada presentó el nivel de dureza más blando con respecto a las empresas que si realizan el proceso, teniendo en cuenta que el pozo se encuentra ubicado en una zona petrolera, donde se esperaría que debido a las operaciones que se desarrollen allí relacionadas con la extracción de hidrocarburos tenga efectos negativos en el agua, por otra parte de las pruebas tomadas en el municipio de Granada Meta se obtuvieron resultados un poco más altos que los obtenidos en Rubiales.
METODOLOGÍA
El procedimiento que se efectuó para determinar a que nivel de dureza de agua pertenece cada lugar y/o empresa al que se le realizó el muestreo fue a travez de la distribución muestral en la que se realizaron
pruebas a 5 lugares diferentes entre esos empresas de purificación y un pozo de agua subterráneo, mediante un medidor de TDS se tomaron distintas pruebas diariamente a diferentes muestras de agua, por cada lugar se realizaron 25 pruebas para un total de 125.
Una vez obtenidos lo resultados se procedió a realizar el análisis estadístico de la distribución muestral, que nos permitió determinar la media y la desviación estándar para cada caso, con estos resultados se logra calcular la probabilidad que tiene cada lugar de pertenecer a que tipo de agua en la clasificación de dureza.1
CONCLUSIONES
1. Se logró determinar a que nivel de dureza pertenece el agua de cada lugar.
2. Según los resultados obtenidos en Granada, Meta, el agua presenta mayor concentración de calcio y magnesio, llevandolo a ser un tipo de agua blanda.
3. En rubiales, Meta, se obtuvieron resultados con niveles más bajos en concentración de calcio y magnesio, siendo el agua de tipo muy blanda.
Rivera Ruiz Jose Humberto, Universidad de Sonora
Asesor:Dr. José Roberto Flores Hernández, Instituto Nacional de Electricidad y Energías Limpias
ESTUDIAR EL EFECTO DE USAR MEMBRANAS DE DIFERENTE GROSOR EN EL DESEMPEñO DE UN ELECTROLIZADOR TIPO PEM PARA LA GENERACIóN DE HIDRóGENO
ESTUDIAR EL EFECTO DE USAR MEMBRANAS DE DIFERENTE GROSOR EN EL DESEMPEñO DE UN ELECTROLIZADOR TIPO PEM PARA LA GENERACIóN DE HIDRóGENO
Rivera Ruiz Jose Humberto, Universidad de Sonora. Asesor: Dr. José Roberto Flores Hernández, Instituto Nacional de Electricidad y Energías Limpias
PLANTEAMIENTO DEL PROBLEMA
El uso de combustibles fósiles genera emisiones de gases que permanecen en la atmósfera, tales como el dióxido de carbono, monóxido de carbono, óxido de azufre, óxido de nitrógeno, hidrocarburos y partículas, que han contribuido a generar e incrementar el efecto invernadero, la lluvia ácida, la contaminación del aire, suelo y agua, reflejándose totalmente en el cambio climático. Es importante recalcar que estos combustibles fósiles no son perdurables y el uso excesivo que se le da, lo ha llevado a límites de agotamiento prematuro, la situación se agrava cuando se considera la creciente demanda de energía, bienes y servicios, debido al incremento de la población mundial y las pautas de consumo.
Ante este escenario, muchos países están buscando urgentemente cómo resolver sus necesidades energéticas sin seguir dañando al medioambiente. Una de las soluciones que están desarrollando algunas naciones es la del hidrógeno verde, también conocido como hidrógeno renovable.
En el INEEL se tiene una línea de investigación para la generación de hidrógeno mediante la electrólisis del agua utilizando electrolizadores diseñados y fabricados en el instituto. El presente trabajo consiste en investigar el desempeño de un electrolizador de 9 cm2 de área activa, cuando se utilizan membranas comerciales de diferentes grosores (Nafion 117, de 183 µm; Nafion 115, de 127 µm y Nafion 212 de 50.8 µm) en la fabricación de los ensambles membrana-electrodos (MEAs) que serán utilizados en la caracterización del electrolizador.
METODOLOGÍA
Fabricación de MEAs: Las membranas de 183 y 127 µm se sometieron a un proceso de activación ya establecido en el INEEL. La membrana de 50.8 µm, se utilizó tal como es enviada por el proveedor. Posteriormente, mediante la técnica de atomización se depositaron 0.5 mg/cm2 de Pt/C (catalizador catódico) sobre un lado de la membrana y 2mg/cm2 de IrO2 (catalizador anódico) sobre el otro lado. Este procedimiento fue similar para las 3 membranas. Se realizaron actividades de mejoras tanto en el sellado como en la sujeción del electrolizador de 9 cm2 de área activa a utilizar. Cada MEA fabricado fue integrado al electrolizador y caracterizado a las temperaturas de 80, 60, 50 y 30 °C. La caracterización consistió en hacer incrementos escalonados de corriente hasta llegar a 9 A o hasta que el voltaje del electrolizador no superará un voltaje de 3.4 V (para evitar daño en los componentes del electrolizador).
CONCLUSIONES
PRIMER MEMBRANA (Nafion 117 de 183 µm)
En una primera caracterización el desempeño obtenido fue muy bajo debido a que los sellos que se estaban utilizando eran muy gruesos, impidiendo así, un buen contacto del MEA. Por esta razón, se colocaron 2 telas de carbón en el compartimento catódico para mejorar el contacto. En esta segunda caracterización el desempeño mejoró sustancialmente al anterior.
SEGUNDA MEMBRANA (Nafion 115 de 127 µm)
En la caracterización de este MEA, se utilizaron sellos más delgados, por lo que se decidió no usar tela de carbón como en el caso anterior. El desempeño aquí obtenido fue similar al de la membrana de 183 µm, no observándose una mejora sustancial al usar una membrana más delgada.
TERCER MEMBRANA (Nafion 212 de 50.8 µm)
Al igual que con la membrana de 127 µm, en esta caracterización tampoco se utilizó tela de carbón para mejorar el contacto del ensamble. Sin embrago, este MEA fue el que dio el mejor desempeño de los tres estudiados.
CONCLUSIONES
Como conclusiones parciales se puede comentar que el MEA fabricado con la membrana más delgada (Nafion 212 de 50.8 µm) dio el mejor desempeño, mientras que el desempeño de los otros MEAs (membranas de 183 y 127 µm) fue similar. Es importante resaltar que queda pendiente volver a caracterizar los MEAs fabricados con las membranas de 127 y 80.3 µm, empleando tela de carbón en el lado catódico para poder hacer una comparación real de los desempeños de los MEAs, donde la única variable sea el grosor de la membrana empleada.
Riveros Ponce Josselin, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
DISEñOS 3D EN BLENDER PARA USO EN REALIDAD VIRTUAL EN MATERIA DE HISTORIA
Carballo Gutiérrez José Adolfo, Instituto Tecnológico Superior de Huauchinango. Cruz Romero Maricarmen, Instituto Tecnológico Superior de Huauchinango. Riveros Ponce Josselin, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Dar a conocer la historia de una forma divertida y dinámica es un tema difícil así que este proyecto se enfoca en enseñar un poco de la historia, centrándonos en nuestro propio municipio y haciéndolo por medio de una forma poco peculiar y pensamos en los juegos virtuales, dado que es un tema de interés en las nuevas generaciones.
La Realidad Virtual (RV) es un entorno de escenas y objetos de apariencia real generado mediante tecnología informática que crea en el usuario la sensación de estar inmerso en él, uno de los softwares en el que se pueden crear estas escenas y objetos es Blender este es un programa informático multiplataforma, dedicado especialmente al modelado, iluminación, renderizado, la animación y creación de gráficos tridimensionales.
Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás. Nosotros queremos mostrarle un poco lo que es Huauchinango al mundo, es por ello que estamos diseñando en el programa Blender, la iglesia de Huauchinango, así como la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro).
METODOLOGÍA
Para hacer el personaje del danzante se investigaron referencia de todos los ángulos posibles para poder empezar a hacer un modelo boceto, este consta de esculpir con la herramienta metabolas. Una vez teniendo un molde se le dio más delineado en detalles como ojos, orejas, dedos, y músculos, una vez teniendo el modelo deseado, se empezó a hacer el diseño de ropa; para ello se utilizó la herramienta de capas, o caras, para poder hacer un objeto sólido a partir del modelo, como se hizo varias capas fue necesaria aplicar un solidificador y así pudiera tener una textura más cercana a tela. Para hacer la parte de faldas y penacho junto con las cintas se hicieron objetos formadas por mallas para no deformar al diseño. Una vez terminada la parte del diseño, se pasó a hacer la animación unidad con los huesos con cada extremidad del cuerpo humano.
Para el diseño de la iglesia de nuestra señora de la asunción, primero se llevó a cabo una investigación sobre las medidas de esta en cuanto a su estructura, pero no se obtuvieron muchos datos ya que no existen muchos registros sobre las medidas, pero se logró encontrar medidas de la cúpula, así como se hizo uso de la página de Google Maps para tener ligeras referencias sobre las medidas de la iglesia, entonces, una vez que se tenía una idea de como eran estas medidas se procedió al diseño en el programa Blender.
El primer paso para el diseño 3D fue el diseño de la estructura principal de la iglesia, que tiene una forma circular y que al elevarse reduce su tamaño como un cono, para esto se usó un plano circular que se extruyó y que se redujo su área mientras este se elevaba.
Luego se usó el mismo principio para el diseño de la cúpula de la Iglesia, solamente que para esta parte de la Iglesia al final no se hizo una superficie plana, sino que se siguió extruyendo y reduciendo el tamaño hasta que al final que tenía una superficie circular que emulaba la cúpula de la Iglesia. Después de esto se realizó la cruz que tiene en la parte superior de la cúpula. Esto se realizó con un cubo que se editó para que tuviera una forma más alargada después de esto se dividió para que pudiera extruirse solamente una zona de sus lados esto para hacer los brazos de la cruz.
Las últimas 2 zonas que se diseñaron fueron la estructura donde se encuentra la Virgen María que a su vez es el lugar donde los sacerdotes ofician la misa, también se diseñó la entrada haciendo uso de planos rectangulares que se modificaron a una forma mas parecida a un rombo.
Por último se agregaron texturas y color a la iglesia para que tuviera su color verde, así como sus vitrales característicos.
CONCLUSIONES
En este verano de investigación, se adquirieron una gran variedad de conocimientos en torno a el manejo de softwares multiplataforma de diseño y de animación. Algunos de estos conocimientos o habilidades adquiridas son el modelado de objetos 3D, así como la articulación de cuerpos y su animación para el movimiento de estos en animaciones 3D, desarrollando a su vez la capacidad de trabajo en equipo y la enseñanza desde un nuevo enfoque de la materia de historia, en este caso de la historia y las costumbres de Huauchinango, Puebla.
Roa García Daniela, Corporación Universitaria Minuto de Dios
Asesor:Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
PROPUESTA DE ESTRATEGIAS PARA LA IMPLEMENTACIóN DE LA METODOLOGíA 5´S DURANTE LA PANDEMIA COVID-19 EN LAS EMPRESAS MANUFACTURERAS DEL SECTOR INDUSTRIAL EN COLOMBIA Y MéXICO
Aguilar Morales Luis Alejandro, Instituto Tecnológico de Comitán. Ariza Carbonó Geraldin Paola, Corporación Universitaria Americana. Roa García Daniela, Corporación Universitaria Minuto de Dios. Asesor: Mtro. Mario Alberto Morales Rodríguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Desde la alerta de la Organización Mundial de la Salud (OMS) acerca de la pandemia del virus SARS-CoV-2 (COVID-19), en donde la interrupción de muchas actividades productivas, ha generado problemas también en la provisión de insumos, nacionales e importados, para las empresas que han seguido operando (CEPAL, 2020); México se encuentra inmerso en una grave crisis económica como consecuencia de la pandemia por SARS-CoV-2 (COVID-19). De acuerdo a los resultados de la encuesta telefónica de ocupación y empleo (ETOE) con cifras oportunas de abril de 2020 que emitió el INEGI, la tasa de participación económica en abril de 2020 fue del 47.5% respecto a la población de 15 años y más, cifra inferior en 12.3 puntos porcentuales a la de marzo del mismo año. Esta disminución representa una variación a la baja de 12.5 millones de personas económicamente activas, formales e informales, principalmente por encontrarse en un estado de suspensión laboral temporal ocasionado por la cuarentena (Senado de la República , 2020) .Proposición con punto de acuerdo de urgente y obvia resolución, por el que se exhorta al poder ejecutivo federal a implementar un programa de carácter nacional que otorgue un ingreso básico universal de apoyo económico a los trabajadores formales e informales de nuestro país, que permita mitigar los efectos de la crisis económica provocados por la pandemia del SARS-CoV-2 (COVID-19), ante el terrible impacto económico de la contingencia y los alarmantes datos de desempleo informados por el INEGI, en México la actividad de la industria manufacturera se redujo un 10,9% en los primeros cuatros meses del año y los sectores más afectados han sido los de cuero y calzado (-29,5%) y equipo de transporte (-26,9%), mientras que la industria de alimentos registró un aumento del 2,5% (CEPAL, 2020).En Colombia, el 96% de las empresas tuvieron una caída en sus ventas (el 75% registró una disminución superior al 50%) así como el 82% de las empresas formales podrían subsistir solo entre uno y dos meses con sus propios recursos (CEPAL, 2020)
METODOLOGÍA
El tipo de investigación desarrollada es teórica-practica donde se busca por medio de la revisión bibliográfica profundizar en la diversas temáticas implementadas para llevar a cabo el proceso investigación y de esta manera por medio de la práctica de cada una de las encuestas conocer la información práctica de la metodología 5s en las diferentes industrias donde se obtuvo una población objeto de estudio de los países de México y Colombia, con un total de 100 encuestados de tal manera que se organice de forma adecuada la información de la metodología y la forma de llevar a cabo el procedimiento en los distintos países.
Por consiguiente, la encuesta implementada es de vital importancia en el objeto de estudio de la metodología de tal manera que la encuesta tiene preguntas puntuales (cerradas) sobre la información general de las empresas y preguntas abiertas donde los participantes relatan la implementación de las 5s en el proceso de la pandemia del SARS-CoV-2 (COVID-19) en los diferentes países.
En este artículo se basó en el desarrollo de una encuesta con el fin de evaluar el comportamiento de las 5s en las industrias colombianas y mexicanas durante la pandemia del SARS-CoV-2 (COVID-19) donde se busca determinar los resultados sobre la aplicación de dicha metodología en las diferentes industrias, la investigación en curso es de tipo investigativa de tal manera que por medio de dicho instrumento se buscó analizar la herramienta en las diversas compañías.
CONCLUSIONES
La aplicación de las 5s, conlleva a un ajuste rutinario y el análisis de estrategia de implementación para las empresas que lo apliquen, las cuales deben de introducirlo de manera gradual para poder garantizar una correcta adopción de la nueva forma de trabajo a los trabajadores, con esto se puede asegurar el vínculo entre el compromiso y la responsabilidad mismas que conllevan a un bien entre trabajadores, administrativos, directivos y área de trabajo, lo cual ante la presente pandemia del SARS-CoV-2 (COVID 19) , se considera como un elemento crucial para poder sobrellevar las actividades laborales sin recurrir al ausentismo o la disminución del rendimiento, por medio del compromiso de los empleados con el orden, la limpieza y el seguimiento de las medidas sanitarias establecidas.
El grado de implementación de las 5s, se establece en Colombia hay 74% de aplicabilidad de los principios de las 5s, comparándolo con México que es del 65% en donde los encuestados de cada país, responden que el hecho de tener estas herramientas les permite agilizar sus actividades, en una proporción del 91% con respecto a Colombia y un 76% en México; en el grado de consideración de la limpieza, ambos países denotaron un 70% de aplicabilidad de métodos.
En última instancia del presente documento, se recalca que las 5s son un conjunto de herramientas y estrategias, las cuales han hecho presencia como herramienta para enfrentar la actual pandemia de SARS-CoV-2 (COVID 19) y han mostrado el impacto que estas pueden tener si se implementan de manera correcta, no solo para mejorar la productividad y garantizar un clima ambiental seguro para los trabajadores, también son fundamentales para crear conciencia en todos los rangos jerárquicos de las empresas y estos puedan seguir los lineamientos establecidos para obtener una organización controlada, misma que puede ser medida y analizada para evaluaciones y ajustar acciones correctivas, en caso de necesitarlas.
Robledo Morales Jennifer, Instituto Politécnico Nacional
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
MODELAMIENTO DE UN AEROGENERADOR DE EJE VERTICAL PARA LA GENERACIóN DE ENERGíA AUXILIAR EN VIVIENDAS
MODELAMIENTO DE UN AEROGENERADOR DE EJE VERTICAL PARA LA GENERACIóN DE ENERGíA AUXILIAR EN VIVIENDAS
Neri Vega Edgar Josue, Instituto Politécnico Nacional. Robledo Morales Jennifer, Instituto Politécnico Nacional. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El asentamiento humano Sector Cerro Cachito ubicado en el distrito de ventanilla es una zona caracterizada por ser habitado por un gran porcentaje de personas discapacitadas, según datos del periódico La República, en junio del 2020 contaba con una población aproximada de 250 habitantes de los cuales 30 se encuentran en condiciones de discapacidad.
Debido a las malas condiciones del terreno en que se ubica el asentamiento, así como el gran porcentaje de discapacidad, los pobladores de esta zona cuentan con ingresos reducidos que provocan que su calidad de vida sea un tanto deficiente.
Si bien se cuenta con alumbrado público existen lugares que cuentan con escasez de iluminación que pone en riesgo la seguridad de los habitantes y transeúntes pues son tomados como lugares de riñas y lugares que se prestan para incurrir en delitos hacia los transeúntes. En cuanto a las viviendas un 97.8% de estas cuentan con un sistema eléctrico, que debido a que las viviendas en su mayoría son de auto construcción, el sistema eléctrico también lo es, haciendo que no sea tan eficiente y elevándose de esta forma el costo del servicio.
A pesar de contar con la mayoría de los servicios públicos, la posición económica de los pobladores no siempre es suficiente para cubrir los gastos que se generan del uso de todos estos servicios públicos (Electricidad, agua potable, etc.).
Para dimensionar sus recursos económicos es necesario mencionar que el ingreso per cápita de los pobladores de esta zona no asciende a más de 754 soles.
METODOLOGÍA
Para esta investigación se desarrolló un enfoque tecnológico, no experimental, exploratorio y cuantitativo. Partiendo de los datos meteorológicos de la zona, se detectó que las corrientes de viento no eran las óptimas para instalar enormes aerogeneradores como suelen verse, por lo que se decidió optar por el desarrollo de un aerogenerador de eje vertical que presenta muchas ventajas respecto a los comunes de eje horizontal y que se adaptaba de mejor manera al objetivo del proyecto, obtener un aerogenerador de pequeñas dimensiones y que aproveche bajas corrientes de aire.
Una vez elegido el tipo, llegamos a una gran cuestión, ¿Cómo aplicar los conocimientos aeronáuticos en este proyecto? a partir de esta, se llegó a la propuesta de utilizar perfiles alares para maximizar la eficiencia del aerogenerador, lo que llevó a pensar en un aerogenerador de eje vertical tipo Darrieus H, que emplea precisamente lo anterior, pero se buscaba aún más y luego de una larga lluvia de ideas, se acordó en mejorar el modelo tradicional, a través de un modelo por etapas pensado en el principio que usan las turbinas de los motores de aviones, en el que gracias a las etapas, los resultados que se obtienen de potencia son mayores a si fueran construidos sin esta sección por etapas.
Fue así que apoyados de trabajos de tesis de universidades reconocidas como el Instituto Politécnico Nacional, artículos publicados de proyectos de investigación realizados en esta área y además siempre de la mano de gráficos y tablas que nos permitieran entender el funcionamiento de cada una de las partes del aerogenerador, se logró establecer los parámetros esenciales del diseño del aerogenerador (Longitud, Radio, TSR) y a partir de estos fue posible obtener ciertas variables teóricas sobre el funcionamiento del mismo (Presión y Fuerza del viento, Potencia del aerogenerador, par motor, cuerda del perfil, velocidad angular), para finalmente conocer su funcionamiento y diseño con apoyo de softwares como SolidWorks y ANSYS, a través de los cuales se lograría el objetivo del proyecto de investigación realizado.
CONCLUSIONES
Se desarrolló un aerogenerador de eje vertical del tipo Darrieus H con la implementación de un perfil NACA 0025 de 1.7 metros de diámetro, 2 metros de altura, cuyo perfil cuenta con una cuerda de 0.4 metros ubicado a un ángulo de ataque de 9°, a través del cual se espera obtener una potencia de aproximadamente 20 Watts que los habitantes de la población del Sector Cerro Cachito pueden aprovechar para utilizar como una fuente auxiliar de energía eléctrica para sus hogares, a través de la cual podrán ser alimentados sus dispositivos electrónicos y eléctricos que no requieran de una gran demanda de energía, es decir, puede ser empleada en aparatos de uso diario como licuadoras, focos, cargadores de teléfono, entre otras, pero no puede ser usado en dispositivos de uso prolongado como el refrigerador, ya que las condiciones del viento no son las óptimas para generar una potencia que permita mantener en funcionamiento este dispositivo durante periodos largos de tiempo.
De esta manera al implementarlo, se verá un beneficio económico en el uso de este servicio y además la eficiencia de su red doméstica podría verse beneficiada por la implementación de una energía renovable.
Rocha Muñiz Anahí, Instituto Tecnológico de Matamoros
Asesor:Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
OBTENCIóN DE LA CINéTICA DE ADSORCIóN MEDIANTE UN MODELO BASADO EN TRANSFERENCIA DE MASA EXTERNA, CONSIDERANDO UNA ISOTERMA LINEAL EN EL ARTíCULO "ADSORPTION ISOTHERM AND KINETIC MODELING OF 2,4-D PESTICIDE ON ACTIVATED CARBONDERIVED FROM DATE STONES"
OBTENCIóN DE LA CINéTICA DE ADSORCIóN MEDIANTE UN MODELO BASADO EN TRANSFERENCIA DE MASA EXTERNA, CONSIDERANDO UNA ISOTERMA LINEAL EN EL ARTíCULO "ADSORPTION ISOTHERM AND KINETIC MODELING OF 2,4-D PESTICIDE ON ACTIVATED CARBONDERIVED FROM DATE STONES"
Rocha Muñiz Anahí, Instituto Tecnológico de Matamoros. Asesor: Dra. Nancy Elizabeth Davila Guzman, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
El artículo habla sobre la adsorción del ácido 2,4-Diclorofenoxiacético sobre carbón activado derivado de los dátiles con respecto al pH y la concentración inicial de 2,4-D. Los datos experimentales fueron analizados por:
La isoterma de Freundlicnh,
La isoterma de Langmuir, y
La isoterma de Temkin.
Por lo tanto, el propósito de este trabajo fue evaluar el potencial de adsorción de carbón activado a base de cálculos y se estudiaron los datos cinéticos y de equilibrio del proceso de adsorción para comprender el mecanismo de adsorción de las moléculas de 2,4-D sobre el carbón activado.
Materiales
El ácido 2,4-Diclorofenoxiacético (2,4-D) es un pesticida que se utiliza en el sector agrícola para el control de malezas en cultivos, se considera moderadamente tóxico y tiene una concentración máxima permitida de 100 partes por millón en el agua potable y es un contaminante poco biodegradable.
Los dátiles es un fruto obtenido de la palmera datilera (Phoenix dactylifera), en este estudio se utilizó como precursor de bajo costo, ya que se puede encontrar de manera abundante y es un material renovable para la producción de carbón activado como absorbente para la remoción de pesticidas de soluciones acuosas. Los dátiles representan aproximadamente el 10% de su peso, por lo tanto, anualmente se genera una cantidad considerable de biomasa.
Modelo matemático
Para obtener la máxima capacidad de adsorción, se utilizaron los siguientes modelos:
𝐿𝑎𝑛𝑔𝑚𝑢𝑖𝑟: 𝑞𝑒=(𝑞𝑚*𝑘𝐿*𝐶𝑒)/(1+𝑘𝐿* 𝐶𝑒 ) (1)
𝐹𝑟𝑒𝑢𝑛𝑑𝑙𝑖𝑐ℎ: 𝑞𝑒=𝐾𝐹* Ce^(𝑛𝐹 ) (2)
𝑇𝑒𝑚𝑘𝑖𝑛: 𝑞𝑒= 𝛽𝐼𝑛 𝐴+β𝐼𝑛𝐶e (3)
METODOLOGÍA
El modelado de la cinética de adsorción de 2,4-D en DSAC fue investigado por dos modelos, llamados:
El modelo de Lagergren pseudo primer orden, y
El modelo de Largergren pseudo segundo orden.
Largergren propuso un método para el análisis de adsorción, la cuál es la ecuación cinética del modelo de pseudo primer orden (4).
log(𝑞𝑒−qt )=log𝑞𝑒−(𝐾1/𝑞𝑒)𝑡 (4)
El segundo modelo de pseudo segundo orden de expresa como, (5).
𝑡/𝑞t =1/(𝑘2*𝑞𝑒^2)+(1/𝑞𝑒 )𝑡 (5)
Resultados
El artículo muestra que el carbón activado preparado a partir de dátiles se puede utilizar como adsorbente para la eliminación de 2,4-D en soluciones acuosas. Los datos de equilibrio se ajustaron a los modelos de isotermas de Langmuir, Freundlich y Temkin y los datos de equilibrio se describieron mejor mediante el modelo de isoterma de Langmuir.
Modelo de transferencia de masa externa
Se propuso el modelo de isoterma lineal o bien, desde la isoterma de Henry.
Para ello se calculó la pendiente, con los datos de la isoterma, algunos datos fueron proporcionados por el artículo y otros fueron calculados
𝑞𝑒=𝐻𝐶𝑒 (6)
Al obtener el valor de la pendiente, se calcula el valor de la capacidad de adsorción inicial (𝑞𝑜)
𝑞𝑜=(𝐶𝑜−𝐶𝑒 )(𝑉𝑙/𝑚𝐿 ) (7)
Se utilizaron las siguientes ecuaciones:
𝐷𝐵=(𝑚𝑎*𝑞𝑜)/(𝑉𝐿*𝐶𝑜 ) (8)
𝑇𝐵=(3𝑘𝐿 (1−𝜀𝐵))/(𝑟𝑝*𝜀𝐵*𝐷𝐵) 𝑡 (9)
𝑋=1/(𝐷𝐵+1)+𝐷𝐵/(𝐷𝐵+1) 𝑒^(−(𝐷𝐵+1)∗𝑇𝐵 ) (10)
CONCLUSIONES
Se partió de un modelo de isoterma lineal en el cuál se trabaja con concentraciones diluidas.
El modelo de transferencia de masa externa es poco acertado como se pudo apreciar en la gráfica donde representan los datos experimentales y los datos del modelo.
Si se puede llegar a usar los dátiles como absorbente.
Aprendizaje
En este verano cientifico tomé el curso de modelo en 3D, para poder hacer ciertas figuras y cada una tenía su grado de complejidad, también aprendí a como hacer un infografía para divulgar la ciencia en forma de imágenes con información clara pero precisa y vistosa a la vez.
Rodríguez Aguilar Juan Carlos, Universidad de Guadalajara
Asesor:Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DE LENGUAJE DE PROGRAMACIóN PYTHON
SOLUCIóN DE PROBLEMAS DE LA INGENIERíA QUíMICA CON EL APOYO DE LENGUAJE DE PROGRAMACIóN PYTHON
Olvera Flores Démian Josué, Universidad de Guadalajara. Rodríguez Aguilar Juan Carlos, Universidad de Guadalajara. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Se plantea estudiar, probar y dar solución a manera de cálculo de escritorio y e implementación en software de programación Python, a problemas de obtención de datos PvT (Presión, volumen, Temperatura) termodinámicos como lo son: factor de comprensibilidad z, volumen especifico, desviación de entalpia, desviación de entropía y fugacidad. El fin es cimentar lo que será una plataforma educativa para el futuro.
METODOLOGÍA
Se realizó el estudio de la ecuación de estado de Lee-Kesler, principalmente del articulo Generalized Thermodynamic Correlation Based in Three-Parameter Corresponding States. (Lee-Kezler 1975) y se separaron los temas por semana, para su fina comprensión, llevando la teoría antes de la resolución de problemas para poder llevarlos en práctica a la programación.
Se definieron los siguientes temas
Ecuación de estado Lee-Kesler
Desviación de entalpia
Desviación de entropía
Fugacidad
Posteriormente se realizaron las pruebas, de ejercicios del libro Engineering and Chemical Thermodynamics 2nd ed 2013. (Milo D. Koretsky) contestados y sin contestar.
Una vez realizadas las pruebas en papel, se procedió a programar el código y probarlo con los datos del problema.
Las constantes pruebas con datos de especies y procesos químicos reales, relatados en el libro, hicieron notar que la obra del autor Koretsky tiene una pequeña falla en una constante que habría corregir.
Otro detalle es que se notó que el libro se diferencia del artículo en el que se basa (Lee-Kezler 1975), con datos con signo invertido, es decir, negativos en lugar de positivos y viceversa.
No obstante, se consideró sobre la metodología que sí varió el resultado y es normal, debido a la prioridad del uso de las constantes y no del hecho de simplemente interpolar linealmente y el redondeo utilizado.
La ecuación de Lee-Kesler involucró en la programación el recurso spicy.optimize import newton para realizar el método numérico para la obtención de la ecuación cubica del volumen.
Además se programó de tal forma que el usuario solo tenga que ingresar:
Temperatura critica [K]
Presión critica [bar]
Factor acéntrico [adimensional]
Temperatura [K]
Presión [bar]
Al finalizar el código y las pruebas satisfactoriamente se cumplieron los objetivos del programa y como extra, se reunió cada método (Ecuación de estado, llamada así en Python) se unificó en un solo menú (archivo base, llamado así en Python) cual bastará con solo abrirlo para acceder a un panel de opciones que enlazará a cualquier método disponible, automáticamente a elección del usuario (siendo la opción 9 Metodo_Lee el método estudiado principalmente en el programa Delfín).
Como parte de la metodología, se muestra a continuación cada prueba realizada en escritorio y posteriormente comprobada, probada y evaluada en Python.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos prácticos de la programación de ecuación de estado, como teóricos en la formulación y comprensión de los mismos.
Se logró desarrollar el código para la ecuación de estado de Lee-Kesler, realizando problemas en la teoría tanto como en el programa, con el fin de comparar resultados y garantizar el funcionamiento del código.
Los resultados con el programa se calculan exageradamente más rápido que la forma tradicional, difiriendo de los datos tabulados en graficas que provienen de regresiones lineales, que, en retrospectiva, son menos exactos que los programados.
Además, se logró reunir más ecuaciones de estado previamente desarrolladas por el asesor en un solo menú, con la finalidad de hacer la experiencia más agradable al usuario.
Se está trabajando en dar seguimiento al programa con la parte visual y grafica al conjunto de ecuaciones que favorecerían la facilidad de uso aún más con la inclusión de tablas con datos reales sobre Presiones críticas y Temperaturas críticas de diversas especies orgánicas e inorgánicas, por lo que de esto último no hay evidencias hasta el momento.
Rodríguez Amaya Karla Patricia, Universidad de Sonora
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE SONORA, MÉXICO.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE SONORA, MÉXICO.
García Valenzuela Fátima Adaluz, Universidad de Sonora. Rodríguez Amaya Karla Patricia, Universidad de Sonora. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0, también conocida como la Cuarta Revolución Industrial, contemplada por los antecedentes históricos se integra como un método para cambio tecnológico y social, con la finalidad de fabricar una máquina ideal que sea cognitiva para la digitalización de los procesos industriales. Se busca determinar el estado actual del contexto regional (Sonora) para la formación de recursos humanos para el perfil laboral de la industria 4.0, haciendo hincapié en las ciudades de Hermosillo y Caborca.
La problemática más grande es conocer como las capacidades tecnológicas educativas de las Instituciones de Educación Superior públicas y privadas de Sonora influyen en la realización de personal apto para la industria 4.0.
METODOLOGÍA
Para la realización de la presente investigación de Industria 4.0 se aplicaron dos tipos de estudio: documental y campo. El primero se llevó a cabo para la construcción del marco contextual en el cual se realizó una revisión del estado general de la industria 4.0 en el mundo, en los países desarrollados, en los países emergentes, en México y de forma específica en Sonora. De la misma manera se indaga en la oferta educativa de las Instituciones de Educación Superior públicas y privadas a nivel internacional y nacional que influyen en la realización de personal apto para la industria 4.0.
En el estudio de campo se aplicó un instrumento diagnóstico de industria 4.0, en el cual se estableció recopilar un mínimo de 40 respuestas como muestra significativa. Este fue diseñado en dos secciones, la primera es para obtener una información más detallada de los expertos a quienes va dirigida la encuesta y otra cerrada con escala tipo Likert.
El instrumento se aplicará a profesores o docentes relacionados con la industria 4.0, profesionistas relacionados con la industria 4.0 o directivos con conocimientos generales de la industria 4.0 u otros participantes con conocimientos relacionados, con escolaridad mínima técnico. Esto con la finalidad de ahondar en las capacidades tecnológicas disponibles en el estado de Sonora desde la perspectiva de profesionistas en el ámbito. Manteniendo el anonimato la información y utilizar la información para fines académicos.
La segunda sección indaga en los factores relacionados a la suficiencia, pertinencia, perfil de la planta docente requerida para los programas de educación continua, de licenciatura y/o posgrado en industria 4.0. Los factores considerados son los siguientes:
Factor Planta Docente: En este factor se busca conocer la opinión del encuestado acerca de la suficiencia de los profesionales en el área de la industria 4.0, sus perfiles, participación en la región, disposición en cuanto a la enseñanza, incentivos económicos y sociales y capacitación en el área.
Factor estudiantes y estudiantes potenciales: En este factor se busca conocer la opinión del encuestado acerca del interés de la comunidad estudiantil en el ámbito antes descrito.
Factor Planes de estudio: En este factor se busca conocer la opinión del encuestado acerca de los planes de estudio actuales en las instituciones de educación superior del estado de Sonora. Su oferta educativa, si estos se encuentran relacionados con la industria 4.0, si se encuentran actualizados, las competencias que aportan y su vinculación con el sector productivo.
Factor Infraestructura y Equipo: En este factor se busca conocer la opinión del encuestado acerca de las instalaciones actuales de las instituciones de educación superior en Sonora, su suficiencia, calidad, mantenimiento, así como el acceso a la información afín a la industria 4.0.
Mercado Laboral: En este factor se busca conocer la opinión del encuestado acerca de los aspirantes capacitados, los programas de educación continua, la remuneración del mercado, posibilidades de crecimiento, oferta y promoción de capacitación.
Liderazgo y políticas públicas regionales: En este factor se busca conocer la opinión del encuestado acerca de la participación política y académica de la industria 4.0 en Sonora.
Factor Sostenibilidad: En este factor se busca conocer la opinión del encuestado acerca de los programas de apoyo, perfiles laborales, oportunidades de desarrollo y promoción nacional y extranjera en el ámbito en cuestión.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las necesidades que presenta México en cuanto a educación referente a la industria 4.0. Con la información recabada acerca de los planes de estudio que presentan universidades tanto nacionales como internacionales identificamos una necesidad de actualización, pues México tiene el potencial para emplear los conocimientos de la industria 4.0, se entra apto en distintas áreas de conocimientos.
Se tomó en cuenta los diversos requisitos que permiten tener una mayor confiabilidad al realizar la encuesta que se mencionó anteriormente, considerando las teorías y conceptos que se emplean en la industria 4.0 que emplean expertos en la materia. Se espera que con los resultados obtenidos y con una efectiva el 100% sean la partida de proyectos innovadores para los planes de estudio, de esta manera los egresados de las universidades tengan las bases y puedan desarrollar con mayor eficiencia su trabajo, con un desempeño eficiente.
Haciendo un énfasis en el estado de Sonora, con la información recopilada se destaca que tiene un alto potencial para desarrollar programas de integración de industria 4.0. De la misma manera se puede establecer continuidad de los niveles educativos, es decir, desarrollar especialidades.
Rodríguez Casas Cinthia Karina, Instituto Tecnológico de Tepic
Asesor:Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
USO DE DEEP LEARNING PARA MEJORAR LA DETECCIóN Y SEGUIMIENTO DE BICICLETAS DURANTE LA CONDUCCIóN DE AUTOS AUTóNOMOS A ESCALA
USO DE DEEP LEARNING PARA MEJORAR LA DETECCIóN Y SEGUIMIENTO DE BICICLETAS DURANTE LA CONDUCCIóN DE AUTOS AUTóNOMOS A ESCALA
Rodríguez Casas Cinthia Karina, Instituto Tecnológico de Tepic. Asesor: Mtro. Carlos Abraham Carballo Monsivais, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En los últimos años, se han logrado avances significativos en el cuidado y la protección de los usuarios vulnerables de la carretera (VRU) donde actualmente el uso de la bicicleta se ha convertido en una gran opción de movilidad gracias a las ventajas que su uso conlleva. Sin embargo, su uso también representa una vulnerabilidad por la exposición riesgosa, ya que una gran parte de los ciclistas cuenta con poca o nula protección en el cuerpo. Esta problemática se ve reflejada particularmente en zonas urbanas, donde el número de muertes en ciclistas ha incrementado exponencialmente.
En este aspecto, el auge de los vehículos autónomos gracias a la incorporación de sensores y cámaras que permiten detectar el entorno podría ayudar a disminuir los accidentes, no obstante, las técnicas empleadas como la detección basada en la visión y redes neuronales convolucionales siguen teniendo un problema desafiante debido a la gran variabilidad en apariencia, postura corporal, oclusión y fondos desordenados que se presentan.
Actualmente existen grandes avances en la implementación de nuevas técnicas y modelos que involucran aprendizaje profundo, donde la precisión y tiempo de respuesta son la pieza clave para mejorar la detección y seguimiento evitando accidentes. Se busca generar una comparativa entre dos métodos de aprendizaje profundo implementado en dos bases de datos PASCAL y CIMAT-Ciclyst y se discute al final, cual es el mejor método y las diferencias entre los resultados obtenidos, así como sus limitaciones.
METODOLOGÍA
En primera instancia es necesario llevar a cabo la revisión sistemática de literatura (SLR), la cual permite establecer el contexto de búsqueda y abre el panorama de investigación, a través del cual se desarrolla el estado de duda y por consecuencia nos lleva a realizar preguntas de investigación y generar cadenas de búsquedas objetivas.
Al contar con demasiada información es de suma importancia identificar los estudios primarios con los que podemos dar un primer paso en la búsqueda de respuestas, por lo que hay que seleccionar fuentes de extracción de estudios primarios acorde a criterios de inclusión y exclusión que debemos establecer, y al finalizar desarrollar una evaluación de la calidad del estudio a manera de verificación donde podamos comprobar que se cumpla la siguiente información:
Determinar el estado del arte de las principales arquitecturas para la detección de ciclistas.
Identificar el estado del arte de los principales extractores de características para la detección de ciclistas.
Comparar de los métodos NAS-FPN y FasterRCNN con las bases de datos CIMAT-Cyclist y PASCAL
Seleccionar el mejor método para la detección de ciclistas, en base a la precisión promedio y tiempo de respuesta.
Una vez obtenida la información base, el siguiente paso consiste en la obtención de conocimientos de programación en el lenguaje de programación Python, donde por medio de cursos en Machine Learning se adquirieren las habilidades necesarias para comenzar a desarrollar programas que incluyen modelos de regresión lineal, corrección de imágenes, importación de librerías de Deep Learning como Tensor Flow y Keras, entre otros.
Al adquirir los conocimientos de programación ahora es posible realizar una comparativa entre las bases de imágenes de CIMAT-Cyclist y PASCAL, donde para la primera se concluye que el mejor modelo fue FasterRCNN mientras que para para PASCAL el mejor modelo es NAS-FPN. Así mismo, a modo de prueba se decidió implementar el modelo YOLOv4, donde en este caso al contar con limitaciones de recursos computacionales (GPU) se buscó la manera de realizar el experimento mediante la Nube de Google (Google Colaboratory) realizando una comparativa de funcionamiento con las bases de datos previamente mencionadas.
CONCLUSIONES
Se logró una comparación satisfactoria entre las bases de datos CIMAT-Cyclist y PASCAL en imágenes y video donde se analizaron los mejores modelos de entrenamiento propuestos, FasterRCNN y NAS-FPN respectivamente y se concluye que la base de datos de CIMAT-Cyclist es mejor en referencia al número de clases que contiene dado que se incluyen una gran variedad de posiciones del ciclista, mientras que para la base de datos de PASCAL se debe realizar una segmentación en las clases objetivo a considerar.
Así mismo se realizó la comparativa en el modelo de entrenamiento YOLOv4 con las bases de datos ya mencionadas, la cual es una estrategia de detección más sencilla pero igual de eficaz donde se obtuvieron resultados de detección muy similares.
Rodríguez Martínez Estefania, Universidad Politécnica de Atlacomulco
Asesor:Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
EL TRÁNSITO DE LAS ORGANIZACIONES AL ENFOQUE DE INDUSTRIA 4.0: UNA MIRADA A LAS VARIABLES DE DESEMPEÑO ORGANIZACIONAL
EL TRÁNSITO DE LAS ORGANIZACIONES AL ENFOQUE DE INDUSTRIA 4.0: UNA MIRADA A LAS VARIABLES DE DESEMPEÑO ORGANIZACIONAL
Rodríguez Martínez Estefania, Universidad Politécnica de Atlacomulco. Asesor: Esp. Josefina Mayra de Llano Feliu, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
El problema que afecta la competitividad en las organizaciones parte en gran medida de la falta de conocimiento de las tecnologías y la adaptación de estas mismas, por ellos es importante conocer ¿Cuáles son las variables de desempeño organizacional para transitar a la industria 4.0?, es necesario conocer cuáles son estas variables y comprender cada una de ellas para poder implementarlas dentro de la organización, hablamos de una serie de factores, modelos y protocolos estándares, donde proveedores de diversas giros tienen la posibilidad de interactuar y participar con desarrollos que se caracterizan por la digitalización y novedad, por medio de tecnologías de vanguardia como: el internet de las cosas , la automatización; la adhesión, estudio, procesamiento y averiguación de gran proporción de datos mediante la nube informática entre otros.
METODOLOGÍA
Se abordo una revisión sistemática de literatura , para ello se analizaron diferentes artículos científicos y educativos, obtenidos de la biblioteca digital de la Universidad Cooperativa de Colombia así como otros sitios web Scopus, Science Direct, Google académico, relacionados con las variables de desempeño organizacional para transitar a la industria 4.0, madurez e innovación en empresas de Latinoamérica, evolución de la industria 4.0 en países desarrollados, donde al obtener varios documentos, se hace un procesamiento y análisis de la información , realizando un resumen de cada uno de los artículos, considerando las variables de desempeño organizacional que se tiene que entender para el tránsito de la industria 4.0.
Se realizo la investigación de la industria 4.0 para entender el termino el cual se describió como una nueva visión de la fábrica del futuro o fábrica inteligente, lo cual Implica la transformación digital de la industria y de las empresas con la integración de las nuevas tecnologías disruptivas.
Se realizó la investigación de las tecnologías de la industria 4.0:
LoT
Big Data
Robots Autónomos
Inteligencia Artificial
Fabrica inteligente
Aprendizaje automatizado
Computación en la nube
Ciberseguridad
Cabe resaltar que para transitar al Enfoque de la industria 4.0 es necesario evaluar el grado de preparación de la organización para el manejo del cambio tecnológico, para ello se designaron 4 niveles:
Producción de rutina, con tecnología existente
Tecnología básica de innovación
Tecnología intermedia de innovación
Tecnología avanzada de innovación.
Cada uno de estos cuatro niveles se relaciona con tres funciones básicas tecnológicas que realiza la empresa.
Capacidad de inversión en tecnología
Capacidad en tecnología de producción
Capacidad de vinculación
Analizando la información se toman en cuenta las siguientes variables de desempeño organizacional para el enfoque a la industria 4.0 de las organizaciones
Visualizar
Habilitar
Representar
❖VISUALIZAR: Se deben conocer los conceptos relacionados con la industria 4.0, y así relacionarlos con objetivos y procesos de la organización, esta fase consta de 2 fases a la vez:
Fase de entrada: una serie de conceptos son definidos por expertos externos y así los accionistas de la organización exponen el diagnóstico de la empresa.
Se da evalúa para saber en qué nivel de madurez esta para poder transitar a la industria 4.0.
Fase de salida: Tener una visualización de cómo se quiere que sea la empresa en el futuro.
❖HABILITAR DESARROLLOS TECNOLOGICOS: Para este punto ya se tiene que tener un mayor conocimiento; el nivel es más alto y es aquí donde se detalla una hoja de ruta en la que se plasman tácticas de manera clara y ordenada. En esta hoja de ruta existe un eje horizontal de tiempo en el que se diferencia entre el corto, medio y largo plazo, y un eje vertical con diferentes perspectivas como pueden ser de mercado, producto, proceso y de red, para ello se toman en cuenta tres etapas:
Prototipado
Validación tecnológica
Escalamiento tecnológico
❖ALINEACION ORGANIZACIONAL: Se espera que los proyectos sean llevados a cabo, por lo tanto, se deben definir objetivos, equipos de trabajos, plazos, prioridades o riesgos. Debe existir comunicación entre las áreas involucradas para que se puedan colaborar y así el proyecto pueda adecuarse al máximo.
Esto requiere formular en cuatro áreas clave:
Planeación estratégica
Estrategia de innovación
Propiedad intelectual
Modelo de negocio
CONCLUSIONES
Durante esta estancia de verano se logró comprender las variables de desempeño organizacional a través de diferentes etapas para que las organizaciones puedan lograr transitar al enfoque de la industria 4.0, por ello es fundamental comprender el potencial de esta cuarta revolución industrial y gracias a esto se pueden mejorar las operaciones de comercio y el incremento de las ganancias, transformado los productos, la cadena de abastecimiento y las expectativas de los consumidores. Se adquirieron conocimientos sobre la forma en la que estas variables de desempeño pueden impulsar a las empresas a transitar a la industria 4.0, sobre todo las micro, pequeñas y medianas empresas.
Es por ello que es muy importante Involucrar a todas las áreas dentro de la organización, una producción industrial totalmente automatizada e interconectada cambia no solo la metodología de trabajo sino también la forma de pensar y gestionar la empresa. Antes de una revolución tecnológica, las empresas tienen que plantearse una revolución cultural en la cual el centro son las personas, Para poder ser eficiente y productivo en el futuro y adaptarse al mercado cambiante al que nos enfrentamos hay que empezar por la profesionalización y actualización del equipo humano en cada uno de los puestos de trabajo.
Rodríguez Mendoza Jesús, Universidad de Guadalajara
Asesor:Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar
CONTROL AUTOMáTICO
CONTROL AUTOMáTICO
Orozco Trinidad Ulises, Instituto Tecnológico de Tuxtla Gutiérrez. Rodríguez Mendoza Jesús, Universidad de Guadalajara. Asesor: Dr. José Villa Ramirez, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
Los principios de la Industria 4.0 son la conectividad de máquinas, productos y sistemas a internet y esto se ve reflejado en un alto nivel de organización y control para las propias empresas lo que nos trae a resaltar un concepto muy sonado en la actualidad que es la automatización ya que involucra cambios drásticos en las condiciones de producción, distribución y consumo de bienes y servicios.
Es una realidad la implementación de estas nuevas tecnologías que incluso se piensa llegaron para quedarse y son incontables la cantidad de casos en los que este concepto ha sido clave en el crecimiento exponencial de grandes empresas, sin embargo, existe la contra parte que son las pequeñas y medianas empresas ya que estas por situaciones económicas se han estancado en temas relacionados con la Industria 4.0, esto debido al alto costo de implementación.
Es por ello la necesidad de crear una guía de apoyo para ese sector de empresas que aún no puede implementar estos conceptos, cabe mencionar que esta guía se hará con el motivo de que el empresario de pequeñas y medianas empresas tenga la posibilidad de implementarla con una inversión de bajo costo.
METODOLOGÍA
Como primera instancia realizamos una revisión bibliográfica exhaustiva en diversas bases de datos científicas donde lográramos encontrar artículos científicos los cuales nos documentaran sobre lo que es la Industria 4.0, cabe resaltar que esta búsqueda es orientada a las pequeñas y medianas empresas ya que es el objetivo general de esta investigación. Los artículos científicos encontrados nos permitieron documentar desde los comienzos de la Industria 4.0 hasta las últimas tecnologías que hasta el día de hoy se están implementando, al igual que darnos cuenta de la gran importancia que esta tiene para el desarrollo económico de los países.
Una vez teniendo estos conocimientos impregnados nos pasamos a buscar y averiguar sobre herramientas Open Source y Freeware que nos permitieran realizar una aplicación práctica del concepto, sin olvidar que las herramientas deben tener un bajo costo ya que serán implementadas para empresas de pequeña y mediana escala. Las que más se ajustaban a estos términos son:
Prosys OPC UA Simulation Server
Node-Red
IBM Watson IoT
XAMPP
Prosys nos permite tener un servidor OPC UA local donde podremos almacenar o bien generar datos que posteriormente con Node-Red nos permitirá extraerlos y manipularlos de una manera muy sencilla ya que este implementa una estructura de bloques que le permite al usuario reducir en gran medida la programación y dentro de la misma podremos hacer una conexión con la nube de IBM Watson IoT y la base de datos de XAMPP para mandar los datos obtenidos y así poderlos visualizar de manera gráfica desde cualquier lugar sin importar el dispositivo tecnológico que estés usando solo teniendo conectividad a internet.
El software XAMPP nos permitirá hacer nuestra computadora un servidor al integrarle lenguajes de programación de páginas web como es HTML, PHP y base de datos MySQL, este conjunto de lenguajes nos permitirán almacenar los datos para posteriormente de manera gráfica observarlos.
El conjunto de cada una de ellas nos permitirá una implementación y visualización de datos generados por un sensor o bien sea simulados, sin embargo, nosotros los generaremos con una placa de desarrollo llamada Arduino y un sensor DHT11.
Por último, realizamos una guía en la cual detallamos de forma precisa los pasos a seguir para que así los empresarios de este sector empresarial mencionado puedan implementar dicho concepto de una manera más sencilla y sobre todo con un bajo costo.
CONCLUSIONES
En el transcurso de nuestra pasantía logramos adquirir nuevos conocimientos que nos ayudaran a lo largo de nuestras carreras como en el ámbito laboral ya que la Industria 4.0 es un nuevo concepto que llego para quedarse por un largo tiempo y el amplio campo laboral trae a más y más personas a fijarse en él.
Durante nuestra investigación nos pudimos percatar de la gran necesidad de la implementación de la Industria 4.0 en pequeñas y medianas empresas ya que esto trae consigo un crecimiento exponencial, así como una productividad más eficiente dándole un valor agregado a los productos y servicios que dichas empresas ofrecen, sin embargo no ha podido ser implementada por el alto costo que conlleva, pero en este proceso logramos crear una pequeña guía, que nos permitiese ofrecer implementación de bajo costo para estas empresas.
El tan amplio y variante concepto provoca que está guía aún se encuentre en constante desarrollo, sin embargo, se espera lograr ofertar a este sector empresarial una guía que les permita la implementación de la Industria 4.0 con un bajo costo para que así puedan hacer uso de estas nuevas tecnologías.
Rodriguez Perez Alexis Javier, Instituto Tecnológico de Matamoros
Asesor:Mtra. Verónica Petra Hernández Pastrana, Instituto Tecnológico de Iguala
MEJORA CON LEAN SIX SIGMA EN UNA MAQUILADORA
MEJORA CON LEAN SIX SIGMA EN UNA MAQUILADORA
Rodriguez Perez Alexis Javier, Instituto Tecnológico de Matamoros. Asesor: Mtra. Verónica Petra Hernández Pastrana, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
La Maquiladora del estado de Guerrero dedicada a confeccionar sacos y pantalón de caballero, maquila para marcas como Aldo Conti y LOB. Cuenta con 195 trabajadores, los cuales laboran 10 horas al día de lunes a viernes.
Actualmente tienen la problemática de un alto porcentaje de rotación de personal. Esto ha provocado que la cantidad de defectos producidos se haya incrementado debido a la inexperiencia de los operarios en el proceso.
La empresa tiene una producción de 720 sacos y 840 pantalones al día, cuenta con 5 secciones, desglosadas de la siguiente manera: primera sección, forro, segunda sección, tercera sección y plancha, además de almacén. De este total de sacos producidos, se tiene un 1.07% de defectos diarios, siendo el objetivo del proyecto el de reducir este porcentaje. Centrándonos específicamente en la Primera sección.
METODOLOGÍA
Para atacar este problema, se hizo uso del método Lean Six Sigma, el cual se compone de cinco etapas: definir, medir, analizar, mejorar y controlar.
Se realizó un diagrama de Pareto que refleje cuales son los defectos que mayor frecuencia tienen en la Primera sección. Obteniendo como resultado que el defecto de Costados es el que tiene el mayor porcentaje de frecuencia con un 29%, siendo este y el defecto de Vivos, con un 22.6% de frecuencia, los dos defectos que mayor repercusión tienen en nuestros sacos.
Posteriormente se sacaron los cálculos de 12 días, del 20 de junio al 01 de julio de 2021, del total de piezas producidas al día y total de piezas con defectos, así como el porcentaje que este representaba en el total de piezas producidas, obteniendo un promedio de 1.07% de defectos producidos al día, también conocida como línea base. Cabe destacar que menor porcentaje de defectos producidos se dio el día 01 de julio de 2021, con un 0.27%, siendo este nuestro mejor resultado. La diferencia entre la línea base y el mejor resultado nos da como resultado la brecha, en este caso 0.8%.
Para definir el objetivo a alcanzar, se hizo el cálculo de la diferencia entre la línea base y el producto de la multiplicación entre la brecha y 0.9%, obteniendo 0.35% como el objetivo a alcanzar en cuanto a promedio de piezas defectuosas diarias.
Una vez que se definió nuestro objetivo, podemos pasar a la siguiente fase: Medir, en la cual se entiende y cuantifica la magnitud del problema.
Comenzando por el cálculo del Takt Time, el cual nos permite tener conocimiento del tiempo total disponible para producir y entregar nuestro producto, siendo la demanda un factor clave para este cálculo. Después de haber hecho el cálculo correspondiente, se obtuvo que nuestro tiempo disponible total es de 32,400 segundos, restando los paros programados en los cuales no se están produciendo piezas. Si tomamos en cuenta que la demanda es de 750 piezas por día y dividimos los segundos entre el total de la demanda, obtenemos que el nuestro Takt Time es de 43 segundos.
Después se hizo toma de tiempos a todas las operaciones de la Primera sección, durante 12 ciclos, para poder sacar el promedio de tiempo que toma realizar cada operación.
Estos cálculos se usaron posteriormente para la capacidad de producción, en la cual se calcula la producción de piezas diarias, así como la capacidad de proceso o porcentaje de carga.
Una vez hecho este cálculo, se descubrió que 9 de las 26 operaciones estaban por debajo de la demanda diaria de 750 piezas, causando que se tenga números negativos en el inventario de piezas.
Además, se realizó una gráfica de barras en la cual se tomaron en cuenta dos factores:
Tiempo manual: Promedio de tiempo para realizar una operación
Tiempo ciclo total: Tiempo total tomando en cuenta tanto recorridos como tamaños de lotes.
Esta grafica de barras nos permite ver que 8 operaciones están por encima de nuestro Takt Time establecido, esto nos quiere decir que existe un posible cuello de botella.
Para finalizar con la fase de medición, se realizó un gráfico de control de Medias y Rangos. En dicha grafica de control se encontraron dos puntos por encima del límite de control superior, lo cual nos indica que nuestro proceso no es estable.
Una vez medido y cuantificado el problema, se pasa a la fase Analizar, en la cual identificamos y confirmamos las causas.
Ya identificadas las raíces del problema, se puede realizar un plan de acción, en el cual se delega la responsabilidad de la mejora a un equipo multidisciplinario.
El plan de acción centra su atención en los siguientes hallazgos:
Material desorganizado en almacén
Falta de capacitación y método de trabajo
Maquinas con ajustes rápidos
Una vez identificados los hallazgos más significativos y habiendo desarrollado planes de acción correctivos para su mejora, se puede pasar a la siguiente fase: Mejorar, la cual consiste en la implementación de las acciones correctivas previamente establecidas.
Mantenimiento Productivo Total: Para evitar tiempos muertos por paros inesperados
Metodología 5´s: Como medida precautoria para evitar el desorden de materia prima en el almacén.
Trabajo Estándar: Se mejorará la productividad, ayuda al balanceo de los tiempos de ciclo en la línea de producción.
Con la implementación de las mejoras, viene la fase más complicada: Controlar, y es que en esta fase se debe generalizar, estandarizar y hacer permanente la mejora implementada.
En este caso se diseñaron manuales de procedimientos para poder seguir los estándares que se plasman en el manual para que el trabajo se repita con la misma calidad en todas las operaciones.
CONCLUSIONES
Se puede concluir que el verdadero poder de Lean Manufacturing y Seis Sigma reside en descubrir todas aquellas oportunidades de mejora que se encuentran escondidas o que no se quieren retomar, pues siempre habrá desperdicios que pueden ser eliminados, variaciones o procesos descentrados que pueden ser mejorados con la metodología DMAIC, que nos lleve a obtener un Just in Time de forma eficiente adaptándose rápidamente a los cambios y así poder cumplir con las metas planteadas.
Rodríguez Plata Juan Pablo, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
MODELO DE GENERACIóN DE IDEAS INNOVACAMPING
Cruz Garcia Victor, Tecnológico de Estudios Superiores de Jocotitlán. Rodríguez Plata Juan Pablo, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las pymes son una pieza fundamental para la economía del país, debido a que estas son generadoras tanto de riqueza como de empleos, siendo así de vital importancia para impulsar el progreso de una sociedad ya que estas pueden hacer incluir a varios sectores económicos.
Según la Secretaria de Economía de México, las Pequeñas y Medianas Empresas son las grandes generadoras de empleo en el país, 7 de cada 10 empleos en México componen alrededor del 50 por ciento del Producto Interno Bruto (PIB).
Según el último Censo Económico del INEGI, el 95% de las empresas tiene entre uno y 10 trabajadores, y el 99.8% de estas en México son PyMEs.
Por tal motivo se percibió la necesidad de realizar un modelo para generar ideas de negocios que finalicen con procesos de incubación efectivos. Enfocados también en promover el correcto intercambio de información dentro de un sistema ya sea individual o social y partiendo de los conceptos fundamentales homeostasis y sinergia; durante el verano de investigación se trabajará en estos conceptos en temas de Desarrollo Humano, para lograr el equilibrio que existe entre las necesidades y satisfacción de un individuo y así poder desarrollar plataformas las cuales puedan apoyar tanto en la creatividad como en la innovación de proyectos.
METODOLOGÍA
InnovaCamping fue un campamento virtual de innovación y desarrollo de la creatividad, que tiene por objetivo:
Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas y retos físicos, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos de alto impacto tecnológico y social.
Mediante ejercicios de creatividad, tormenta de ideas y trabajo en equipo descubren la importancia de tener un espíritu emprendedor e innovador en todo aquello que se propongan en la vida.
InnovaCamping TM trabaja de acuerdo a la siguiente estructura:
Generar a través de la metodología I+C=Entrepreneur, ideas con impacto tecnológico y social que permitan ser desarrolladas y evaluadas a través de procesos de incubación empresarial.
Gracias a la estructura del programa, trabajan, aprenden y disfrutan durante más de 6 horas por semana, diseñando un producto/servicio que resuelva un caso planteado.
Las funciones y responsabilidades de los que integran el Equipo Técnico, Instructores y Auxiliares se rigen bajo el MaC. (Manual de Funciones).
Formulación de la Idea de Proyecto
Los equipos desarrollarán una idea de negocio en los siguientes rubros:
I+C=Entrepreneur
Desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Durante el Paso 1
Mi Modelo de Emprendimiento, el participante identificará sus principales características que lo definen como un emprendedor, en relación a sus gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
En el Paso 2
Mi Modelo de Creatividad e Innovación, el participante determinará su nivel de creatividad e innovación para el emprendimiento.
Durante el Paso 3
Mi Modelo de Negocio, el participante describirá su idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Ultimo paso
Este último paso, se caracteriza por que el participante desarrollará un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Premiación
Al finalizar se premiará a los 2 primeros lugares de acuerdo a lo siguiente:
Primer Lugar: Idea de Proyecto más Innovadora (Diploma y Trofeo a la Innovación)
Segundo Lugar: Equipo Talentoso (Cantidad Mayor en Bonos) (Diploma y Trofeo del Trabajo en Equipo)
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos relacionados con el tema de emprendimiento, de igual manera se pusieron en práctica a lo largo de la realización del modelo, de igual manera se promovieron Acuerdos entre empresas regionales como Guardianes del Arco del municipio de Cintalapa de Figueroa, Chiapas. Se espera que este modelo de generación de ideas de negocio pueda capacitar a mas de 500 alumnos universitarios de 4 escuelas. (Universidad Politécnica de Chiapas, Universidad Autónoma de Chiapas, Instituto Tecnológico de Tuxtla Gutiérrez y la Universidad Valle del Grijalva.
Rodriguez Pumarino Britany, Universidad Autónoma de Tamaulipas
Asesor:Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
Aguilar Ramírez Carlos Francisco, Instituto Politécnico Nacional. Cruz González René Francisco, Universidad Autónoma del Estado de México. Rodriguez Pumarino Britany, Universidad Autónoma de Tamaulipas. Romero Díaz Alma Daniela, Universidad Autónoma del Estado de México. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metalmecánico hasta la bioingeniería médica.
Hoy día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con un amplio catálogo de tecnologías de impresión 3D y sus procesos periféricos, así como el manejo de diversos materiales y aleaciones, que lo convierte en el único Hub a nivel Latinoamérica con la capacidad de ofertar servicios con las tecnologías de (MA) más novedosas. (Un Hub se puede definir como un espacio para aprender, trabajar, crear y tiene características que la diferencian y que brindan oportunidades para unir a las personas). Otro organismo al cual se recurrió fue La Sociedad Estadounidense para Pruebas y Materiales (ASTM), esta es una de las mayores organizaciones en el mundo que desarrollan normas voluntarias por consenso.
La ASTM, además brinda un foro para el desarrollo y publicación de normas voluntarias por consenso, aplicables a los materiales, productos, sistemas y servicios.
Un recurso tecnológico indispensable en el desarrollo de este proyecto es la inteligencia artificial (IA), esta es empleada en algunas funciones propias del asistente virtual Alexa, de Amazon, tales como el procesamiento de lenguaje natural y el aprendizaje automático (machine learning).
Para una mejor comprensión de lo expuesto anteriormente, cabe señalar que los asistentes de voz son programas de software basados en IA, son capaces de reconocer con elevada precisión y responder a comandos de voz para ejecutar una serie de tareas y preguntas según las fuentes de información disponibles. Una de sus grandes ventajas hoy en día es que, hacen posible a los usuarios interactuar con diferentes plataformas de hardware mediante la voz. Esta es una de las razones por las cuales esta tecnología es una parte medular del proyecto.
Aunado a lo anterior, Alexa es el asistente virtual controlado por voz creado por Amazon, y lanzado en noviembre de 2014 junto a su línea de altavoces inteligentes Echo. Empiezas invocandolo diciendo su nombre, momento en el que el altavoz o dispositivo en el que esté integrado se pondrá a escuchar.
Por lo que se busca desarrollar un sistema basado en procesamiento de voz aplicado a la asistencia en la industria de la manufactura aditiva en México.
Derivado de ello es que existe la necesidad de concentrar toda esta información en un medio digital. Para que así, pueda ser consultada por los usuarios previo al depósito para garantizar las mejores condiciones de impresión y la calidad adecuada en la impresión de sus piezas.
Se pretende resolver un problema existente que se ha estado manifestando al consultar los diferentes parámetros de proceso en la manufactura aditiva, los cuales impactan en las propiedades térmicas, mecánicas, químicas por mencionar algunas. Dichos parámetros de proceso son consultados a través de diferentes fichas técnicas o manuscritos de divulgación científica. Por lo cual se requiere que dicha información se almacene en una base de datos para agilizar el proceso y utilizarlos en los diferentes instrumentos de la compañía. Así como también información relacionada con las propiedades microestructurales que caracterizan a las aleaciones utilizadas en procesos de fabricación aditiva.
METODOLOGÍA
Con base en la versión anterior del proyecto, el cual se trabajó en ediciones anteriores del programa Delfín y que nos sirvió de base para seguir haciendo mejoras debido a que lo que se tenía hasta el momento eran casos que si bien ya eran funcionales, aún hacía falta agregar nuevas funciones al desarrollo y con esto alcanzar la versión 3.0 del proyecto.
Tomando en cuenta las herramientas utilizadas en el desarrollo de versiones anteriores, las cuales fueron Amazon Web Services (AWS) y Amazon Alexa Skills. Se optó por seguir una metodología de división de tareas en los aspectos de mayor importancia en el desarrollo del proyecto:
Población de Base de Datos
Desarrollo de software
En la cual cada integrante desarrolla actividades que se complementan,de manera paralela con las actividades de los demás integrantes, para posteriormente presentar dichos avances al equipo.
No sin antes haber dado una breve introducción a las tecnologías utilizadas en el ciclo anterior y comprender el proyecto del cual se disponía, todo esto para detectar algunas de las vulnerabilidades del sistema y durante el transcurso del verano científico ir optimizando para un uso más preciso y sencillo.
En el caso particular de la Base de Datos, se busca optimizar el diseño de ésta, para evitar la redundancia de datos, ampliar los casos de uso y disponer de la información de una manera más precisa y concisa.
Por otro lado, el caso particular de la investigación radica en recopilar información útil para cubrir el proceso de la manufactura aditiva, dicha información se basa en las propiedades de las aleaciones, tales como propiedades térmicas, sus composiciones y datos mecánicos. Además, también se recopiló información de los distintos proveedores que hay en el mercado tanto nacional como internacional.
Por último, en el caso particular del software se busca aplicar reingeniería para optimizar los procesos de software desarrollados en veranos anteriores, así como crear nuevas funciones en el proyecto (casos de uso), esto con la finalidad de enriquecer la utilidad del programa de asistencia.
CONCLUSIONES
Durante esta estancia de verano se busca obtener los conocimientos necesarios para entender el proceso de la manufactura aditiva y la importancia de su presencia en la industria hoy en día. Dando la posibilidad de conocer más el lenguaje de programación Python y poner en práctica su aplicación en el desarrollo de servicios sustentados por Amazon, además de las propiedades térmicas, mecánicas y químicas de las Aleaciones utilizadas en el proyecto y el diseño de experimentos para el testeo de la Skill. Se espera que en próximos años se implementen más casos de uso al proyecto y pueda ser lanzado.
Rodríguez Rodríguez José Ricardo, Universidad de Guadalajara
Asesor:Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
SISTEMA SCADA IMPLEMENTADO EN LABVIEW Y FACTORY IO
Barajas Casillas Carlos Adrian, Universidad de Guadalajara. Franco Orzuna Daniel Adan, Instituto Tecnológico de Ciudad Juárez. Rodríguez Rodríguez José Ricardo, Universidad de Guadalajara. Asesor: Dr. Luis Carlos Méndez González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 ha impulsado en los últimos años a las empresas a aplicar nuevas tecnologías a sus líneas de producción que les permitan adaptabilidad, interconectividad y aumenten su eficiencia. La pandemia por COVID-19 aceleró la visibilidad de esta nueva tendencia debido a que el control y monitoreo remoto se volvieron componentes fundamentales para continuar los procesos de producción mientras se combate este problema de salud mundial.
Se busca abordar en este proyecto de investigación la aplicación de un sistema SCADA, el cual representa en sí mismo el control y la supervisión de procesos industriales a distancia, e involucra tecnologías completamente establecidas en la mayoría de las empresas nacionales como la automatización o la robótica, así como modelos de transición presentes ya en distintas industrias a lo largo del mundo como el internet de las cosas (IoT) o big data.
METODOLOGÍA
Inicialmente se definió el proceso industrial sobre el cual se basaría la fábrica a simular en el software de Factory IO, consiste en la producción automatizada de tarjetas electrónicas, específicamente las etapas de clasificación de material, maquinado, ensamblaje, paletización y almacenaje. Definido lo anterior, se realizó el diseño de la planta industrial, buscando apegarse lo más posible a la realidad. Se utilizaron elementos como máquinas CNC, brazos robóticos, bandas transportadoras, sensores de visión, sensores infrarrojos, racks de almacenamiento, entre otros.
La automatización de la fábrica se realizó a través de un PLC Siemens virtualizado, el cual se programó en el entorno de TIA Portal mediante lenguaje escalera (Ladder), se utilizó un modelo S7-1500 con módulos I/O agregados para manejar todas las señales de entrada y salida de la línea de producción.
Luego de comunicar el PLC con la planta industrial, se realizó el diseño de la interfaz de monitoreo en el software de LabVIEW, dicha interfaz permite la visualización remota del estado de los procesos en la fábrica, brindando la posibilidad de acceder las categorías principales (producción, almacenaje y base de datos) por separado para facilitar la lectura de los datos. Para conectar las señales que controla el PLC con la interfaz, se utilizó un servidor OPC. Finalmente se programó el sistema de rastreo de las piezas para guardar esta información en la base de datos.
CONCLUSIONES
Al final del programa de investigación se logró finalizar la implementación del sistema SCADA, desde la construcción, programación y simulación de la línea de producción hasta el diseño, programación y conexión de la interfaz (HMI). Se trabajó utilizando la dualidad de teoría y práctica para poder aplicar conceptos de diseño y manejar distintos softwares requeridos durante todo el proceso.
Rodríguez Salas Alejandra, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
ESTANDARIZACIÓN DE PROCESO ARTESANAL DE CERVEZA GASIFICADA NATURALMENTE MEDIANTE MIEL DE AGAVE.
ESTANDARIZACIÓN DE PROCESO ARTESANAL DE CERVEZA GASIFICADA NATURALMENTE MEDIANTE MIEL DE AGAVE.
Rodríguez Salas Alejandra, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Mtro. José Luis Rivera Cruz, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
La cerveza artesanal es un vasto terreno repleto de interesantes y complejas experiencias que han dado lugar a una bebida tan apreciada que está integrada en la cultura e identidad de muchas comunidades. Egipcios, barbaros y romanos gozaron de sus beneficios, más tarde convirtiéndose en un negocio con factorías y gremios. Siendo esta una de las bebidas más consumidas a nivel mundial contando con suculentos aromas y sabores volviéndola más allá de una bebida refrescante.
Por su fascinante elaboración de cuatro ingredientes principales, siendo una bebida fermentada a partir de varios cereales germinados, principalmente la cebada (malta), aromatizada y dando el sabor amargo mediante el lúpulo, utilizando agua y la levadura, dichos ingredientes permaneciendo inalterables. Aunque con el tiempo se han realizado muchas variedades y algunas cervezas imaginativas en el que se le ha añadido especias, frutas o hierbas dándoles un sabor original, así como también se han empleado nuevos métodos para gasificarla, incluso creando nuevas variedades de cervezas para que personas celiacas puedan consumirlas.
La fabricación de la cerveza artesanal cuyos procesos bioquímicos llevan a cabo:
1.La formación de enzimas en el grano de cereal germinante.
2.La degradación de almidón a azúcar por parte de estas enzimas.
3.La fermentación del azúcar a alcohol y CO2 en esta ocasión utilizando miel de agave para su gasificación.
La carbonatación adecuada de la cerveza es uno de los determinantes para la calidad de esta ya que le añade sabor, cuerpo e influye en el modo en que los aromas del lúpulo y la malta serán percibidos. Los niveles de carbonatación se expresan en volúmenes de CO2, una medida de gas disuelto en el mismo volumen de líquido, en este caso es un litro de CO2 disuelto en un litro de cerveza. La mayoría de las cervezas cuentan con 2-3 de volumen, aunque hay algunas excepciones. Normalmente se ajustan los niveles al estilo de cerveza que se desee elaborar. En esta investigación se tomó en cuenta cinco factores a la hora de carbonatar la cerveza los cuales son: la levadura, los azúcares (miel de agave y dextrosa), el tiempo, la temperatura y a la hora de embotellar la cerveza.
METODOLOGÍA
MACERACIÓN.
Se colocaron 3 lts de agua a una temperatura de 65 - 70°C, después de obtener la temperatura adecuada se agregó la malta mezclándose bien, deshaciendo los grumos y evitando que la temperatura disminuyera por un tiempo de hora y media.
LAVADO DE GRANO.
Se calentó en una olla 2.5 lts de agua a 78 - 79°C para agregarse litro por litro a la olla en donde se encuentra el mosto.
Con ayuda de un hidrómetro se mide la densidad del mosto que se va filtrando, obteniendo una densidad de mosto de 1.045, la densidad del mosto no debe ser menor a 1.010 o 1.014. Se tiene que hacer de manera sucesiva para así ir recolectando el mosto
COCCIÓN.
El mosto se coloca en una cacerola y se llevó a ebullición, en cuanto rompió a hervir se añadió el lúpulo (10 g x 1 lt) para obtener un sabor amargo, si se hubiera querido obtener un sabor menos amargoso el lúpulo se añade a mitad de ebullición. Después de haber añadido el lúpulo se dejó hervir durante una hora a fuego lento.
FERMENTACIÓN.
Se volvió a filtrar el mosto y se dejó enfriar a 18 - 22°C manteniendo la olla tapada hasta que alcance la temperatura favorable para añadir la levadura (0.5 o 0.8 g/L por litro de mosto) y cerramos herméticamente. El fermentador se colocó en un lugar oscuro y con temperatura constante a 19 - 20°C de 4 a 8 días.
FERMENTACIÓN SECUNDARIA.
Se observó la cerveza primaria o verde y se dejó reposar, para después trasvasar a otro fermentador para que tenga una fermentación secundaria y se dejándolo reposar una semana más
ENVASADO.
En un embace se añadió 6 ml de agave por cada litro de cerveza, rellenando la botella con un embudo y dejando 3 cm desde el borde sin rellenar. Mientras que en otro embace se añadió 5 g por litro de cerveza y se disolvió en 15 mililitros por cada litro, llevando a ebullición por 10 minutos. se enfrió a temperatura ambiente y se añadió a la cerveza.
Ambos embaces fueron mezclados lentamente.
ALMACENAMIENTO.
Se dejó reposar la cerveza verticalmente durante dos semanas, sin que les de la luz a 22 - 25°C.
Terminada la carbonatación, se almacenó y se está dejando madurar a una temperatura de 12 - 15°C. A las dos semanas ya se puede catar la cerveza.
CONCLUSIONES
Se logró producir una muy buena cerveza artesanal mediante está técnica realizada. Obtuve buenos conocimientos durante el proceso y resultados puesto que muchos instrumentos que son más sofisticados para su elaboración se encuentran a altos costos en el mercado por lo que tuve que sustituirlos y transformarlos con cosas que se encontraban en casa, específicamente como lo fue el fermentador y para el filtrado y lavado de granos obteniendo así un buen resultado.
No interfirió el clima en su elaboración puesto que el lugar en donde fue realizado este proyecto (Tonalá, Chiapas) se encuentra a una temperatura superior a los 35°C debido a que, en el momento de la fermentación primaria y secundaria, el fermentador fue colocado en una tina con hielos suficientes y llevando un control constante de la temperatura requerida para su elaboración.
Se observo que la cerveza que contenía dextrosa logró dar más gasificación a comparación de la cerveza que contiene miel de agave, sin embargo, la miel de agave logró mantener un mejor cuerpo de la cerveza y mantuvo mejor sus sabores.
Rodriguez Silva Nathalia, Universidad de Santander
Asesor:Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
INGENIERíA CONCEPTUAL Y BASES DE CáLCULO DE LOS PROCESOS PRODUCTIVOS DE UNA BIORREFINERíA DE LA PLANTA SACHA INCHI(PLUKENETIA VOLUBILIS).
INGENIERíA CONCEPTUAL Y BASES DE CáLCULO DE LOS PROCESOS PRODUCTIVOS DE UNA BIORREFINERíA DE LA PLANTA SACHA INCHI(PLUKENETIA VOLUBILIS).
Rodriguez Silva Nathalia, Universidad de Santander. Asesor: Dr. Jorge Alberto Mendoza Perez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En los últimos años en países como Colombia y Perú se ha venido introduciendo a los diferentes mercados gastronómicos y farmacéuticos algunos derivados del Sacha Inchi (Plukenetia volubilis) por sus famosos beneficios y su alto valor nutricional, debido que este cuenta con un alto contenido ácidos grasos poliinsaturados, por ello es de interés en este proyecto establecer procesos en una biorrefinería que aproveche gran parte del Sacha Inchi (Plukenetia volubilis) que no se utiliza en otras industrias y es seleccionado como un residuo, para eso se aplican bases de cálculo de procesos que puedan utilizarse en una biorrefinería y se establece la ingeniería conceptual de la misma.
METODOLOGÍA
Seleccionar los productos aprovechables de la biomasa de Sacha inchi (Plukenetia volubilis) es el primer paso para este proyecto. La biomasa de Sacha Inchi se puede definir como toda la materia que se obtiene de la planta Sacha inchi inchi (Plukenetia volubilis) que se pueda considerar como una potencial fuente de energía limpia, en este proyecto se establece como productos aprovechables del sacha inchi como Holocelulosa, Hemicelulosas, Ligninas, Resinas, Pigmentos, Flores, Esencias, Frutos, y Semillas. Nos enfocamos en el aprovechamiento del material lignocelulósico, Semillas para la obtención de lignina, bioetanol, biogás y biocombustible respectivamente. Luego la clasificación de tipos de maderas, se realizo una investigación bibliografía en bases de datos para búsqueda científica de artículos y libros utilizando palabras claves como: Biorrefinería, Sacha inchi, tipos de maderas, hardwood y softwood, y se realizó una identificación del tipo de madera en el la que se puede llegar a clasificar la madera de Sacha inchi (Plukenetia volubilis). Se realiza el balance de dendro energía donde se tienen en cuenta las entalpias de los diferentes procesos en la biorrefinería planteada, la ley de Hess se basa en la evaluación de las propiedades térmicas tanto de los reactivos como de los productos. Se describen cada proceso empezando por el pretratamiento Organosolv se tomó como guía de investigación (Kim et al., 2019) llevó a cabo un pretratamiento orgánico de etanol para eliminar la lignina, se toma como base de cálculo (50 g) biomasa de tallo de Sacha inchi con y disolvente (50% etanol y 1.25 de ácido sulfúrico) al reactor donde se disolvieron parcialmente lignina y hemicelulosas. La temperatura de reacción fue de 160◦C y la presión fue de 10 bar. Otro proceso fue la hidrólisis es el proceso por el cual a altas presiones y temperaturas producen compuestos de bajo peso molecular, en donde se toma el residuo sólido del proceso Organosolv para de conversión de celulosa en glucosa. Los resultados también proporcionaron referencia antes de la fermentación.(Islam et al., 2021). Para la obtención de biodiesel se emplea el proceso de transesterificación, se toman como referencia los cálculos empleados en (Marquínez Marquínez et al., 2020) y se toma como base de cálculo que el rendimiento del aceite obtenido de sacha inchi a partir de su semilla es del es 35.4% (Wang et al., 2018) en el proceso de transesterificación es ideal que su temperatura máxima que alcance el proceso sea de 60ºC, y para la obtención de biogás se emplea el proceso de gasificación y la selección del gasificador depende del tipo de materia prima que se maneje, en este caso, son importantes exigencias de limpieza del gas, con bajos contenidos de alquitrán del biogás obtenido a partir de la madera blanda de Sacha inchi para que pueda ser utilizado en un motor de combustión interna, por esto se seleccionó un gasificador de flujo concurrente tipo Downdraft Imbert. La producción específica de biogás por kg de materia prima es de 0,037 - 0,04 m3 / kg.(Zhang et al., 2021). Por ultimo se establece la ingeniería conceptual donde se especifica la normatividad correspondiente para biocombustibles en Colombia.
CONCLUSIONES
Este proyecto da un modelo alternativo de procesos en una biorrefinería a partir Sacha inchi (Plukenetia volubilis) para la producción de biocombustibles, biogás y lignina aumentando considerablemente la proporción de energía renovables en el conjunto de fuentes energéticas.
Se identifico que la biomasa de sacha inchi se puede clasificar como madera suave y nos permite orientar los procesos de aprovechamiento de esta biomasa para madera suave en el cual sean eficientes para la producción de biocombustibles, biogás y lignina en una biorrefinería a partir de Sacha inchi (Plukenetia volubilis).
Se establecieron los balances teóricos de masa y dendro energía de cada proceso para el aprovechamiento de la planta de Sacha inchi (Plukenetia volubilis) en una biorrefinería donde se establecieron bases de cálculo para su futura aplicación experimental estos balances son importantes, ya que nos dan una base significativa de datos para el diseño conceptual de un biorrefinería de Sacha inchi (Plukenetia volubilis) y gracias a estos se pudieron establecer los procesos de una biorrefinería aplicados a la producción de biocombustibles y otros, dándole un valor agregado a la planta y un reutilización de la biomasa que las industrias consideraban residuos.
Rodríguez Toríz Juan, Instituto Tecnológico de Tláhuac
Asesor:Dra. Luisa Fernanda Mónico Muñoz, Fundación Universitaria Los Libertadores
ANáLISIS DE LOS MOTORES DIESEL
ANáLISIS DE LOS MOTORES DIESEL
Rodríguez Toríz Juan, Instituto Tecnológico de Tláhuac. Asesor: Dra. Luisa Fernanda Mónico Muñoz, Fundación Universitaria Los Libertadores
PLANTEAMIENTO DEL PROBLEMA
Cuando se habla del motor Diesel probablemente mucha gente no se da cuenta del impacto y aporte que tuvo en el sector industrial y agrícola, pero que más adelante estaría adentrándose en la rama automotriz, en el años de 1893 tomando los principios de los motores de combustión interna y la presión que se podía generar en bombas neumáticas, se crea el motor Diesel que cambió la industria drásticamente ya que desplaza a la famosa máquina de vapor y empieza a ser un auge a nivel mundial por su rendimiento térmico y el par motor que podía generar, sin mencionar que la invención de este fue una medida alternativa de combustible. Lo que ofrece el motor diésel fue revolucionario e incluso se mantiene vigente a día de hoy no solo en el sector industrial o automotriz, también en el marítimo puesto que no hay algún motor o alguna otra forma de reproducir las ventajas que el motor Diesel otorga.
METODOLOGÍA
Se realizo una investigación de forma general hasta una más específica, desde la historia e inicios del motor Diesel, cómo fue la forma en la que se creó y el por qué, cuál fue el impacto de su creación, para más adelante centraron en términos más técnicos como lo es el ciclo Diesel, este siendo comparado con el motor a gasolina para resaltar las diferencias que podía llegar a tener, esto únicamente en el sector automotriz, con el fin de demostrar datos más precisos y ver las prestaciones que tienen uno sobre el otro. Así pues, también se realizó una investigación sobre lo que compone la combustión y la química del combustible. Finalmente, se investigó sobre los efectos que pueden tener la quema del combustible que utiliza el motor Diesel, así como algunas prácticas para disminuir su impacto ambiental y que, por otro lado, la sobreexplotación de extracción de recursos no renovables, en este caso el petróleo de dónde se obtiene el carburante del motor Diesel, qué es lo que le depara en unas décadas más adelante cuando se empiece a agotar y algunas posibles consecuencias sí no hay una distribución bien planeada de este.
CONCLUSIONES
Desde la creación del motor Diesel hasta la primera aplicación en el sector automotriz, y que poco a poco se fue expandiendo a diferentes usos y aplicaciones, así como el mismo combustible es utilizado en diferentes ámbitos, nos hace darnos cuenta del gran impacto que tuvo el motor Diesel, desde la forma en cómo trabaja, en cómo se le puede aplicar y el rendimiento que tiene, es por eso que hay que mantenernos al tanto del futuro de este motor y ya sea utilizar biodiesel o algún otro carburante que aun permita mantener vigente al motor Diesel.
Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Omar Antonio Vega, Universidad de Manizales
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit. Asesor: Dr. Omar Antonio Vega, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Dentro de un mundo globalizado como el actual donde cada vez se observan mayores avances tecnológicos y por tanto una evolución cultural que conlleva también a la de pensamiento, es necesario incentivar la participación de las nuevas generaciones haciendo que se fortalezcan sus habilidades y sean actores activos en la sociedad. El modo de hacerlo está al alcance y es la educación donde el uso de los recursos TIC resulta indispensable para alcanzar dichas competencias tecnológicas ya que el acercamiento a dispositivos digitales permite crear múltiples actividades que incentivan la transformación social.
La presente investigación indaga la manera cómo se hace uso de los diversos medios tecnológicos y de comunicación dentro de las aulas antes de la pandemia y desde los hogares durante la pandemia.
METODOLOGÍA
El tipo de investigación usada es la investigación acción participativa de tipo cualitativa y cuantitativa, que busca obtener resultados fiables y útiles para el análisis de situaciones colectivas, basando la investigación en la participación de los propios colectivos a investigar
Está fundamentado en la crítica social que promueve la auto- reflexión, considera que el conocimiento se da por el interés que parte de las necesidades de los grupos y se consigue mediante la capacitación de los sujetos para la participación y transformación social.
Se realizó una serie de preguntas que estaban contenidas en el cuestionario aplicado y que estas se dividían en dos apartados:
Utilización de las TIC antes de la pandemia por Covid-19
Utilización de las TIC durante la pandemia.
ANÁLISIS DE LOS DATOS: se interpretó la información de las preguntas contenidas en la encuesta con ayuda de graficas explicativas y comparativas así como de un documento en Excel como apoyo para interpretar los resultados de manera más clara y precisa.
Los docentes no pueden estar lejos de los avances tecnológicos, al contrario deben aprovecharlos para el aprendizaje de los alumnos ya que esta herramienta despierta gran interés en ellos y al darle un buen uso genera un aprendizaje significativo, por ende los docentes pueden utilizarla para favorecer el desarrollo de los alumnos.
RESULTADOS
Una vez obtenido los resultados del instrumento de investigaciòn se obtuvieron los siguientes Resultados:
La muestra está constituida por 24 docentes, con una edad promedio de 37,4 años, donde el más joven tiene 24 años de edad y 56 el mayor, con 35 años como la edad más común y una desviación estándar de 0,707.
En cuanto al género, hay una distribución de 50% para mujeres y el otro 50% para hombres, en tanto el 70,8% tiene una formación de pregrado (licenciado), 20,8% de maestría y el 8,3% restante ostenta el título de doctor.
Todos los docentes, con excepción de uno, laboran en instituciones del orden público, que se ofrecen educación primaria en el 45,8%, secundaria 37,5% y 16,7 educación media o bachillerato.
Las edades registradas en este estudio fueron en una variante de los 24 hasta los 56 años. Esto ayuda a comprender que docentes de edades variables llegaron a participar y se tomaron en cuenta para la investigación. Así mismo se obtuvo el dato que el genero en este caso fue igualitario ya que de 24 muestras 12 eran hombres y 12 mujeres, esto refiere que tanto hombres y mujeres aportaron sus ideas e ideales al estudio científico.
En esta investigación, de los 24 profesores encuestados 18 de ellos cuentan con un grado de licenciatura, 4 cuentan con maestría y 2 con doctorado.
CONCLUSIONES
Al tener en cuenta las competencias TIC para el desarrollo profesional docente se analizaron las encuestas teniendo en cuenta las competencias que deben desarrollar los docentes dentro del aula así como de su uso ahora en pandemia desde sus hogares. Ya que el propósito de la integración de TIC en la educación es mejorar los procesos de enseñanza y aprendizaje, dando un uso pertinente y responsable permitiendo así dinamizar tales procesos.
Según las respuestas dadas por los docentes en las encuestas se resalta que algunos tienen dudas del manejo de las TIC, debido a que varias de las preguntas enfocadas al conocimiento que ellos poseen de las TIC se evidencian respuestas donde nos dan a conocer que su conocimiento es mediano.
Durante el desarrollo de la presente investigación se resaltan importantes hallazgos que contribuyen al conocimiento de la realidad en cuanto al manejo de las TIC de las instituciones mexicanas públicas y privadas donde se logró identificar cuál es la apropiación y aplicación de las TIC por parte de los docentes.
Respecto al proceso enseñanza- aprendizaje, se observa que los docentes de las instituciones han asimilado el uso de TIC, tanto en su cotidianidad como en su labor profesional, es fundamental que los docentes estén actualizados y logren dinamizar el proceso de enseñanza
De lo anterior se concluye que es necesario incentivar el uso de los recursos tecnológicos y la mejor manera de hacerlo es fortaleciendo el conocimiento de estos, donde la capacitación juega un papel relevante de esta manera los docentes sienten la confianza del uso de las TIC y pueden transmitir esta motivación a los estudiantes quienes poseen la facilidad del manejo. De esta manera se conjugan saberes, formando una fusión interesante que permite aprovechar al máximo las bondades de los recursos TIC.
Rojo Cabrera Mauro Antonio, Instituto Politécnico Nacional
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
Moreno Cruz Julia Audrey, Instituto Politécnico Nacional. Rojo Cabrera Mauro Antonio, Instituto Politécnico Nacional. Sagrero Guzman Jessica Yuridia, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Según los datos presentados en la Gaceta LXII/3PP0-15, se establece que de la población mexicana al menos el 5.1% presenta algún tipo de discapacidad, la cual en el 2014 representaba a 6.7 millones de mexicanos, de estos, 1.5millones tienen discapacidad y dentro de este grupo 145 mil son niños. En México sufrir de esta discapacidad representa todo un reto, pues los programas de enseñanza son escasos, si se considera que al igual que todos, las personas ciegas necesitan aprender a leer y escribir como parte de su proceso educativo, se vuelve imprescindible encontrar un método de lectura y escritura útil para ellos. Tan solo en México este sector ha sido puestos a un lado ya que se desconoce la cantidad de mexicanos invidentes con acceso a la educación y/o conocedores de braille. Los recursos disponibles son poco accesibles y costosos para la mayoría de la población, el desarrollo de este dispositivo permitirá a los niños con ceguera iniciar su aprendizaje en el Braille de manera divertida y autodidacta abriéndoles la oportunidad de acceder a una educación de calidad inclusiva y equitativa, para en un futuro promover estas oportunidades de aprendizaje para todos de manera permanente.
METODOLOGÍA
Para el diseño de las patas se consideró mantener la ergonomía del dispositivo,y se vuelve imprescindible asegurar la adaptabilidad del dispositivo a los problemas y necesidades del consumidor, llevando consigo la responsabilidad de tomar en cuenta las exigencias físicas, psicológicas y sociales de los niños que usarán este dispositivo para la lecto-escritura del braille.
Para alcanzar el diseño de un dispositivo ergonómico es necesario tomar en cuenta las dimensiones del cuerpo que interactúan con el dispositivo, de esta manera entra en función la antropometría. Según Villareal se puede definir la antropometría como el estudio de las medidas del cuerpo en sus distintas posiciones al realizar distintas actividades.
Antes de realizarse la recogida de datos fue necesario entender el propósito de la medida que se buscaba, pues esta debía resolver alguna incógnita del diseño, si no lo hacía dicho dato se volvía innecesario en el modelo, de esta manera se desechan la información menos significativa y se generan patrones antropométricos de diseño.
Para la reingeniería se cambiaron medidas y texturas, por lo que antes de ser impresas los cambios fueron expuestos a un niño de 8 años el cual conoce la lecto-escritura Braille, y aprobaba o rechazaba los cambios según las experiencias adquiridas durante su propio proceso de aprendizaje.
Las medidas patrón para realizar el diseño se basaron el trabajo titulado Dimensiones Antropométricas de la población mexicana de Rosalío y Prado el cual proporcionó las medidas básicas para niños de 2 a 17 años. Sin embargo, no era tan especifico como para proporcionar el diámetro de cada uno de los dedos por lo que se complementó la escala con el estudio de José Melo titulado Ergonomía desde el punto de vista de la Higiene y seguridad Industrial, el cual nos proporciona las medidas de cada uno de los metacarpianos de las palmas de las manos, aunque con la desventaja de que su población muestra es mayor a 20 años, así que se buscaron dos métodos, el Método A es dividiendo el ancho de la palma de la mano entre 4 asumiendo que el diámetro de todos los dedos es el mismo y el método B fue deducir medidas conocidas en ambos estudios y encontrar las desconocidas al re-escalarlas. Los datos obtenidos por el método B las medidas de los dedos medio e índice son iguales, mientras que el del anular es ligeramente menor, sin embrago, cuando se emplea el método A las medidas quedan por arriba de la tendencia, de manera que se decidió emplear el método B como patrón para el diseño del dispositivo.
Para el diseño de las patas que conforman el dispositivo se realizó un análisis para considerar si un modelo se podía adaptar a las necesidades de toda la gama de usuarios o si era necesario realizar dos modelos. Se observan los datos que son resultado de la diferencia entre la edad superior y la menor para cada rango de edad. Se observa que la diferencia de diámetros se aproxima a los 10 mm lo cual es una magnitud grande ya que el dispositivo podría resbalarse de las manos de los niños más pequeño. Se procedió a dividir las edades en dos bloques, considerando la edad media los 9 años, se observa que la diferencia mayor es de 4.59 mm, y deducimos que después de los 15 años el crecimiento comienza a ser menor, de manera que la división de dos bloques es aceptable.
Se tomaron en cuenta distintas texturas a partir de figuras geométricas que pudieran ser implementadas en la impresión 3D.
Parecería una tarea sencilla, pero existen técnicas y consideraciones en el diseño de PCB’s. Antes de crear una tarjeta electrónica fue esencial realizar un circuito base para verificar la correspondencia en tamaño entre componentes considerando interconexiones. Una vez obtenidas las medidas entre componentes se puede empezar el diseño. En diseño de PCB’s se exige exactitud y precisión, por lo que fue necesario emplear un software de diseño asistido por computadora.
CONCLUSIONES
El proceso de optimización de este dispositivo fue dirigido hacia la ergonomía, la parte electrónica y las texturas que pueden favorecer el entrenamiento de la yema de los dedos para el aprendizaje del Braille. Se indagó sobre la antropometría de los dedos de las manos recuperando estudios previos enfocándose en las medidas en los metacarpianos. Al mostrar los avances a un posible usuario se establecieron nuevos parámetros a observarse, como la calidad de material y las diferentes angulaciones del dispositivo tiflotécnico, permitiendo dirigir la investigación hacia el cubrimiento de las necesidades del usuario.
El producto obtenido es una tarjeta electrónica simulada en un software de diseño electrónico sujeta a cambios con el fin de ofrecer la mayor efectividad posible. Eventualmente la PCB va evolucionando y se hacen correcciones a lo largo de las semanas, se continúa trabajando en modificaciones a la actualidad para pasar a la etapa de pruebas de funcionamiento.
Román Reynoso Ofelia, Universidad Mexiquense del Bicentenario
Asesor:Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
CLASIFICACIóN DE IMáGENES POR MEDIO DE DEEP LEARNING
CLASIFICACIóN DE IMáGENES POR MEDIO DE DEEP LEARNING
Pastrana Morales Angel de Jesús, Instituto Tecnológico de Iztapalapa III. Román Reynoso Ofelia, Universidad Mexiquense del Bicentenario. Asesor: Dra. Daniela Alejandra Moctezuma Ochoa, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Con el avance de la tecnología en los últimos años, se ha detectado un gran aumento en las cantidades de datos generados por algunas ramas como la cartografía, astronomía, diagnósticos médicos, etc; por lo tanto se ha vuelto bastante complicado clasificar toda esta información de manera manual, esto nos lleva a hacer uso de algoritmos de aprendizaje automático, con el objetivo de poder reconocer y clasificar todo este gran banco de información de manera eficiente.
Por ejemplo el problema que se plantea en el presente trabajo, en el que se propone desarrollar un modelo que sea capaz de clasificar distintas imágenes en sus respectivas categorías utilizando el conjunto de datos Caltech 101 que consiste en Imágenes de objetos pertenecientes a 101 categorías. Aproximadamente 40 a 800 imágenes por categoría. La mayoría de las categorías tienen alrededor de 50 imágenes, para llevar a cabo esta tarea de clasificación de imágenes, se hace uso de aprendizaje profundo (Deep Learning en inglés) a través de la utilización de redes neuronales.
METODOLOGÍA
Para la presente investigación se realizaron experimentos de manera cuantitativa, para lograr detectar de mejor manera la eficiencia de un modelo para la clasificación de imágenes, se usaron diferentes librerías basadas en python, como los son keras: que nos permite hacer uso de redes neuronales, logrando crear modelos muy simples con el mínimo de capas, también se utilizó entre otras la librería de tensorflow: que nos permite adaptar de mejor manera la librería de keras facilitando la creación de los modelos con redes neuronales.
Para la elaboración de este modelo se utilizó un ejemplo encontrado en internet y se modificó para que funcionara con el conjunto de datos de CIFAR100, analizando el algoritmo usado para su clasificación, una vez comprendido el modelo se incentivó a la problemática actual de mejorar la clasificación de imágenes en la base de datos Caltech 101 mediante la experimentación con las redes neuronales.
CONCLUSIONES
Después de varios experimentos se utilizó un modelo con una red neuronal de 6 capas, la primera con la instrucción flatten la cual convierte los elementos de la matriz de imágenes de entrada en un array plano, luego se añadieron capas ocultas, la primera capa tendría 1100 neuronas, la segunda 800, la tercera 600 , la cuarta 200 y la última, la capa de salida 100 neuronas.
Una vez teniendo en cuenta las capas y las neuronas a utilizar, se realizó el modelo secuencial correspondiente para calcular los parámetros totales que estarán moviéndose entre las capas de la red neuronal; para la función de activación, tanh fue el encargado de todas las capas ocultas que se crearon y para la capa de salida softmax, obteniendo una cantidad de parámetros resultantes de 75 752 800.
Se realizaron diferentes experimentos variando la cantidad de epochs que se ejecutarán, la primera fue de 10 epochs, obteniendo un resultado de 45.83% de predicción en la clasificación de imágenes, esto lo tomamos en que de todas las imágenes de la base de datos, el modelo está seguro de que acertó en su totalidad el 45.83% de las veces que se ejecutó.
El segundo experimento fue con 20 epochs, obteniendo un resultado de 53.70% de predicción en la clasificación de imágenes, en comparación del experimento anterior se logra notar un ligero aumento en el porcentaje total de predicción, aumentando la eficiencia de la clasificación de imágenes.
El tercer experimento fue con 25 epochs , obteniendo el resultado de 76.99% donde podemos observar claramente el aumento que va obteniendo, ya que usa como valor principal los resultados anteriores.
Como cuarto experimento, se modificó para que trabajara con 30 epochs, obteniendo el resultado de 91.35% de eficacia al predecir la clasificación de una imagen, recordemos que solamente estamos trabajando con 4 capas ocultas sin contar la capa de entrada y la capa de salida.
Se logró apreciar el incremento en la eficiencia del modelo mientras más se iba entrenando, notando la diferencia pasando de un 45.83% a un considerable 91.35% con la ejecución solamente de 4 veces.
Como conclusión final si queremos obtener resultados llegados a la precisión casi exacta se deberá de modificar el modelo para que trabaje con más capas, aumentando el número de parámetros a ejecutarse y así lograr tener una mejor eficiencia en la clasificación de imágenes.
Romero Amaro Jesus Ismael, Instituto Politécnico Nacional
Asesor:Mg. Santiago Murillo Rendon, Universidad Autónoma de Manizales
TRATAMIENTO DE CINOFOBIA MEDIANTE TRATAMIENTO DE EXPOSICIóN A TRAVéS DE UN ENTORNO DE REALIDAD VIRTUAL.
TRATAMIENTO DE CINOFOBIA MEDIANTE TRATAMIENTO DE EXPOSICIóN A TRAVéS DE UN ENTORNO DE REALIDAD VIRTUAL.
Mercado Alvarez Fernando, Tecnológico de Estudios Superiores de Valle de Bravo. Romero Amaro Jesus Ismael, Instituto Politécnico Nacional. Asesor: Mg. Santiago Murillo Rendon, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Una fobia es un miedo incontrolable, irracional y persistente a un objeto, actividad o situación que pueden desatar respuestas extremas, tales como ataques de pánico. Una fobia específica se refiere a un miedo extremo por algo que en circunstancias normales no es dañino y se es diagnosticado cuando esto interfiere en las actividades diarias de una persona.
La fobia a los perros o cinofobia provoca ansiedad en las personas cuando están cerca de ellos, cuando sólo piensan en encontrárselos o al miedo a una respuesta de pánico. Algunos síntomas físicos, cognitivos y conductuales son pánico, aceleramiento del ritmo cardiaco, hiperventilación, temblores, desorientación, sudoración excesiva, tensión muscular, angustia, entre otros. No existe un tratamiento único a base de medicación, sin embargo, existe una terapia cognitivo-conductual llamada desensibilización o de exposición, en la que los pacientes son expuestos de forma repetida, gradual y sistemática a aquello que los aterroriza hasta que su miedo desaparezca o que pueda ser manejado por el paciente.
La terapia de exposición a realidad virtual o ERV, va auxiliada por pantallas binoculares, sonido estéreo y seguimiento del movimiento. Se ha mostrado que la ERV resulta efectiva como tratamiento a fobias específicas como a cucarachas y arañas, al igual que en fobias sociales y agorafobia, según un estudio publicado por la Revista de Psiquiatría y Salud Mental del 2012.
METODOLOGÍA
Se seleccionó software Unity para el desarrollo de un entorno virtual propuesto y para implementar la conectividad con la tarjeta electrónica BITalino, para la elaboración de distintos entornos para distintos niveles de inmersión, así como la adquisición de señales corporales para el monitoreo de la frecuencia cardiaca del usuario, respectivamente.
De primera instancia se familiarizó con la interfaz del software Unity, el uso de prefabs, assets y cámaras en un entorno virtual. Este software emplea el lenguaje C#, para programar videojuegos y entornos virtuales. La primera tarea en desarrollarse fue una propuesta de menú en la que el usuario pueda registrar y seleccionar el nivel de inmersión deseado. Posteriormente se procedió a la creación de distintos entornos virtuales que serán usados en distintos niveles de inmersión de acuerdo con una terapia de exposición normal para cinofobia, que podrá ser desde presentar situaciones que provoquen un recuerdo o evoquen a un perro a la mente del usuario hasta tener un paseo en una ciudad virtual en medio de un parque con diversos perros y diferentes reacciones, así como el poder instanciar nuevos perros en la escena virtual de acuerdo a la respuesta que se vaya a registrar en la frecuencia cardiaca del usuario.
Una vez teniendo distintos niveles de inmersión propuestos, se consiguió la conexión Unity - BITalino (es un kit electrónico para la adquisición de señales biológicas) para la adquisición de la frecuencia cardiaca del usuario y su despliegue en pantalla mediante una interfaz que sea agradable al usuario, de forma que se cuente con las bases necesarias para empezar con el proceso de gamificación de esta ERV tomando en cuenta la teoría del Flow, que señala que para mantener la concentración justa al realizar una tarea dependerá de qué tan inmersa esté una persona y de la tarea que se le presente, pues esta no debe ser altamente complicada, al grado que provoque ansiedad, ni que exija un bajo nivel de habilidad que cause aburrimiento, por lo que se debe tener una relación con el nivel de complicación - nivel de habilidad requerido.
Posteriormente se revisaron los frameworks Octalysis y MDA (Mechanics, Dynamics and Aesthetics) como guía para el proceso gamificación, pues teniendo una dinámica de juego que mantenga la atención y motivación del usuario durante una terapia, en lugar de verlo como algo complicado de realizar. Para esto considerar distintas modalidades de juego que pueden ser empleadas como el sentido de aventura, fantasía y drama, el colocar retos que muestren al usuario su crecimiento y logros, el contacto con la comunidad para compartir avances, recibir retroalimentación y la sensación de empoderamiento para mantener la sensación de curiosidad por continuar con la ERV.
De igual manera, se realizó el registro y ponencia sobre los avances del proyecto en este verano investigativo en el VII Encuentro Internacional de Pasantías de Investigación Delfín 2021, este evento es organizado por el capítulo Colombia Delfín, el cual tuvo lugar los días 22 y 23 de julio 2021 de forma online.
Finalmente se realiza la adaptación de los entornos virtuales construidos en Unity a un visor de realidad virtual Google Cardboard, que presentan una opción accesible y de fácil uso para la implementación de aplicaciones para VR, en las que solo se necesita un teléfono inteligente para poder colocar en el visor para comenzar con una experiencia de terapia de ERV.
CONCLUSIONES
A lo largo de la pasantía de investigación se desarrollaron habilidades prácticas para la elaboración de entornos visuales implementados para realidad virtual que puedan ser implementados en terapias, así como se adquirió conocimiento teórico sobre qué es y cómo tratar la cinofobia, de igual manera el cómo hacer un proceso de gamificación con los frameworks adecuados para que el usuario pueda mantener la motivación y atención de este sin que pueda llegar a sentirse aburrido o presionado.
Romero Díaz Alma Daniela, Universidad Autónoma del Estado de México
Asesor:Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
ASISTENTE DE VOZ BASADO EN SOLUCIONES AWS PARA LA INDUSTRIA DE LA MANUFACTURA ADITIVA
Aguilar Ramírez Carlos Francisco, Instituto Politécnico Nacional. Cruz González René Francisco, Universidad Autónoma del Estado de México. Rodriguez Pumarino Britany, Universidad Autónoma de Tamaulipas. Romero Díaz Alma Daniela, Universidad Autónoma del Estado de México. Asesor: Dr. Ángel Iván García Moreno, Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La manufactura aditiva (MA) es una tecnología disruptiva en México. La impresión volumétrica de componentes metálicos personalizados la vuelve muy atractiva para sectores industriales. Se pueden concebir aplicaciones tan variadas que pueden abarcar desde el sector metalmecánico hasta la bioingeniería médica.
Hoy día, el Consorcio Nacional en Manufactura Aditiva (CONMAD) cuenta con un amplio catálogo de tecnologías de impresión 3D y sus procesos periféricos, así como el manejo de diversos materiales y aleaciones, que lo convierte en el único Hub a nivel Latinoamérica con la capacidad de ofertar servicios con las tecnologías de (MA) más novedosas. (Un Hub se puede definir como un espacio para aprender, trabajar, crear y tiene características que la diferencian y que brindan oportunidades para unir a las personas). Otro organismo al cual se recurrió fue La Sociedad Estadounidense para Pruebas y Materiales (ASTM), esta es una de las mayores organizaciones en el mundo que desarrollan normas voluntarias por consenso.
La ASTM, además brinda un foro para el desarrollo y publicación de normas voluntarias por consenso, aplicables a los materiales, productos, sistemas y servicios.
Un recurso tecnológico indispensable en el desarrollo de este proyecto es la inteligencia artificial (IA), esta es empleada en algunas funciones propias del asistente virtual Alexa, de Amazon, tales como el procesamiento de lenguaje natural y el aprendizaje automático (machine learning).
Para una mejor comprensión de lo expuesto anteriormente, cabe señalar que los asistentes de voz son programas de software basados en IA, son capaces de reconocer con elevada precisión y responder a comandos de voz para ejecutar una serie de tareas y preguntas según las fuentes de información disponibles. Una de sus grandes ventajas hoy en día es que, hacen posible a los usuarios interactuar con diferentes plataformas de hardware mediante la voz. Esta es una de las razones por las cuales esta tecnología es una parte medular del proyecto.
Aunado a lo anterior, Alexa es el asistente virtual controlado por voz creado por Amazon, y lanzado en noviembre de 2014 junto a su línea de altavoces inteligentes Echo. Empiezas invocandolo diciendo su nombre, momento en el que el altavoz o dispositivo en el que esté integrado se pondrá a escuchar.
Por lo que se busca desarrollar un sistema basado en procesamiento de voz aplicado a la asistencia en la industria de la manufactura aditiva en México.
Derivado de ello es que existe la necesidad de concentrar toda esta información en un medio digital. Para que así, pueda ser consultada por los usuarios previo al depósito para garantizar las mejores condiciones de impresión y la calidad adecuada en la impresión de sus piezas.
Se pretende resolver un problema existente que se ha estado manifestando al consultar los diferentes parámetros de proceso en la manufactura aditiva, los cuales impactan en las propiedades térmicas, mecánicas, químicas por mencionar algunas. Dichos parámetros de proceso son consultados a través de diferentes fichas técnicas o manuscritos de divulgación científica. Por lo cual se requiere que dicha información se almacene en una base de datos para agilizar el proceso y utilizarlos en los diferentes instrumentos de la compañía. Así como también información relacionada con las propiedades microestructurales que caracterizan a las aleaciones utilizadas en procesos de fabricación aditiva.
METODOLOGÍA
Con base en la versión anterior del proyecto, el cual se trabajó en ediciones anteriores del programa Delfín y que nos sirvió de base para seguir haciendo mejoras debido a que lo que se tenía hasta el momento eran casos que si bien ya eran funcionales, aún hacía falta agregar nuevas funciones al desarrollo y con esto alcanzar la versión 3.0 del proyecto.
Tomando en cuenta las herramientas utilizadas en el desarrollo de versiones anteriores, las cuales fueron Amazon Web Services (AWS) y Amazon Alexa Skills. Se optó por seguir una metodología de división de tareas en los aspectos de mayor importancia en el desarrollo del proyecto:
Población de Base de Datos
Desarrollo de software
En la cual cada integrante desarrolla actividades que se complementan,de manera paralela con las actividades de los demás integrantes, para posteriormente presentar dichos avances al equipo.
No sin antes haber dado una breve introducción a las tecnologías utilizadas en el ciclo anterior y comprender el proyecto del cual se disponía, todo esto para detectar algunas de las vulnerabilidades del sistema y durante el transcurso del verano científico ir optimizando para un uso más preciso y sencillo.
En el caso particular de la Base de Datos, se busca optimizar el diseño de ésta, para evitar la redundancia de datos, ampliar los casos de uso y disponer de la información de una manera más precisa y concisa.
Por otro lado, el caso particular de la investigación radica en recopilar información útil para cubrir el proceso de la manufactura aditiva, dicha información se basa en las propiedades de las aleaciones, tales como propiedades térmicas, sus composiciones y datos mecánicos. Además, también se recopiló información de los distintos proveedores que hay en el mercado tanto nacional como internacional.
Por último, en el caso particular del software se busca aplicar reingeniería para optimizar los procesos de software desarrollados en veranos anteriores, así como crear nuevas funciones en el proyecto (casos de uso), esto con la finalidad de enriquecer la utilidad del programa de asistencia.
CONCLUSIONES
Durante esta estancia de verano se busca obtener los conocimientos necesarios para entender el proceso de la manufactura aditiva y la importancia de su presencia en la industria hoy en día. Dando la posibilidad de conocer más el lenguaje de programación Python y poner en práctica su aplicación en el desarrollo de servicios sustentados por Amazon, además de las propiedades térmicas, mecánicas y químicas de las Aleaciones utilizadas en el proyecto y el diseño de experimentos para el testeo de la Skill. Se espera que en próximos años se implementen más casos de uso al proyecto y pueda ser lanzado.
Romero Lambraño Teresa de Jesus, Universidad de la Costa
Asesor:M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala
OPTIMIZACIóN DE OPERACIONES DE PROCESO DE RECUPERACIóN DE METALES VALIOSOS
OPTIMIZACIóN DE OPERACIONES DE PROCESO DE RECUPERACIóN DE METALES VALIOSOS
Romero Lambraño Teresa de Jesus, Universidad de la Costa. Asesor: M.C. Agustín Acevedo Figueroa, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
La industria minera a pesar de contar con grandes cantidades de inversiones requiere la optimización de los procesos en la recuperación de metales valiosos haciéndolos más eficaces, menos costosos y agresivos con el medio ambiente.
Por eso es necesario la optimización de las operaciones del proceso de recuperación de minerales con contenido metálico valioso (oro y plata). Para ello, se desarrolló un proyecto que optimizó la obtención de metales valiosos a través de la recuperación de estos por procesos electroquímicos. Se realizó un diseño experimental hasta encontrar el óptimo.
METODOLOGÍA
Esta es una investigación de tipo experimental con diseño y pruebas de hipótesis que se realizó con la siguiente descripción:
La celda electrolítica se llevó acabo en un recipiente de tamaño de 20 cm de largo por 30 cm de ancho, con 15 cm de alto, el ánodo utilizado es un cable de cobre, una micro celda electroquímica estática de 1000 ml de volumen, Cianuro de sodio de 200 mg/L, Regulador de corriente eléctrica AC corrientes de salida de 3.6 V ~ 600 mA y Corrientes de entrada de 120 V ~ 60 Hz o 0,1 y un kilogramo de oro y plata al estar en la celda electrolítica.
Con base a lo anterior en un recipiente se preparó el cianuro de sodio, donde se aforó en un litro de este con un kilogramo del mineral previamente pasado por el proceso de molienda - plata y oro molidos, siendo pesado y reducido a 200 mg/L en base a la recomendación establecida de estos minerales. Luego se le agregó una cucharadita de cal, esto con el fin de que su pH 12 este pH fue vigilado en el transcurrir de los tres días en que realizó el procedimiento. Al observa que bajaba el líquido al pasar el tiempo se le agregó agua hasta volver a la medida inicial, al dejar transcurrir los tres días se obtiene el cianuro de sodio con carga valiosa de metales de oro y plata.
Luego de la preparación de cianuro de sodio, se agrega a la celda electrolítica donde está el cable de cobre con la batería en este caso y una placa metálica donde se va adherir el metal, se hará el proceso desde 5 minutos donde transcurrido este tiempo se extrae la placa de aluminio y se limpia posteriormente con una espátula el mineral obtenido y se coloca en un recipiente, se repetirá el proceso en un intervalo de 5 minutos hasta llegar a 30 minutos se agregará con el fin de oxigenar la mezcla agregándole agua hasta llegar a la medida inicial y luego hasta varios días esto con el fin de que el cianuro de sodio agote todo los minerales valioso.
Teóricamente mediante la ley de Faraday se hallaron los gramos de plata depositados en el electrodo dentro de la solución de cianuro de sodio con una corriente suministrada de 600mA.
Ag+ + e- à Ag
600mA à 0,6 A
Al realizar el procedimiento matemático esté nos dice que en 96500 Coulomb se depositan 107,87 g/Equi-g, luego se deberá hallar la cantidad de electricidad empleada; donde se implementó la primera ley de Faraday, está expresa que la cantidad de electricidad se define como la corriente (Amperes), multiplicada por el tiempo t (segundos).
En el caso de la Ag (Plata) en 5 minutos.
Q=0,6 A * 300 seg = 180 Coul
Obteniendo la cantidad de electricidad empleada se procedió a establecer la cantidad de gramos de plata depositado en el electrodo con el siguiente cálculo
96500 coulomb --------------- 107,87 g/Equi-g
180 coulomb ------------------ X
Se deposita en el electrodo 0,20 g de plata en 300 segundos a una corriente continua de 0,6 A, se realizará el siguiente procedimiento hasta los 30 minutos y se hallará el porcentaje del mineral depositado.
Luego se obtuvo los gramos del Au - Oro depositados en el electrodo dentro de la solución de cianuro de sodio a una corriente de 0,6 A.
Au+ + e- à Au
Al realizar el procedimiento matemático está nos dice que en 96500 Coulomb se depositan 196,96 g/Equi-g, se procede hallar la cantidad de electricidad empleada; donde se implementó la primera ley de Faraday, se define como la corriente (Amperes), multiplicada por el tiempo t (segundos).
En el caso de la Au (Oro) en intervalos de 5 minutos
Q=0,6 A * 300 seg = 180 Coul
Obteniendo la cantidad de electricidad empleada se procedió a establecer la cantidad en gramos de oro depositado en el electrodo.
Se deposita en el electrodo 0,36 g de oro en 300 segundos a una corriente continua de 0,6 A, se realizará el siguiente procedimiento hasta los 30 minutos y se observará cuando porcentaje del mineral depositado se obtuvo.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos en la recuperación de minerales con contenido metálico valioso donde se utilizan diversas técnicas y procedimientos para lograr una recuperación alta.
En ese sentido el método utilizado para la recuperación de plata y oro a partir de la disolución de los valores y usando una celda electrolítica, ha reducido muchos de los procesos que se llevaban a cabo al utilizar un proceso de flotación de minerales y este ha proporcionado una serie de ventajas en la recuperación de los mismos.
Aunque en el proceso de flotación se obtienen elementos metálicos valiosos, estos se encuentran más sucios que en la recuperación electrolítica y por eso es necesario someterlos a otro proceso de refinación lo cual no se lleva a cabo en el proceso electrolítico.
En ese sentido se recomienda utilizar el proceso electrolítico para la recuperación de metales usando una celda electrolítica con electrodos de carbono y metal, ya que se obtiene plata y oro de alta pureza y de gran valor comercial. El procedimiento es rápido y preciso sin muchos riesgos. Se recomienda solamente que el lugar sea bien ventilado, debido a los humos que se producen en la reacción electroquímica y al momento de realizar la fundición del metal obtenido, estos son tóxicos. No es recomendable usarlo con minerales cuyas leyes en contenido de oro y plata sean altas, debidos a que pueden estos minerales fundirse de manera directa.
Romero Márquez Gustavo Adolfo, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Mònica Marcela Suárez Pradilla, Escuela Colombiana de Ingeniería Julio Garavito
INTERVENCIóN DE URBANISMO TáCTICO EN EL BARRIO EL ALTO PUEBLA MéXICO
INTERVENCIóN DE URBANISMO TáCTICO EN EL BARRIO EL ALTO PUEBLA MéXICO
Romero Márquez Gustavo Adolfo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Mònica Marcela Suárez Pradilla, Escuela Colombiana de Ingeniería Julio Garavito
PLANTEAMIENTO DEL PROBLEMA
El incremento de los siniestros viales ha potenciado el desarrollo de herramientas que consideran la articulación del entorno construido (urbanismo) y el manejo del tránsito (ingeniería de transporte). Uno de los principales elementos del paisaje urbano que requiere una intervención urgente en las ciudades es el espacio público. Actualmente, en la mayoría de las ciudades el espacio público es para la circulación de los vehículos, sin embargo, las consecuencias de su uso traen externalidades que afectan ampliamente la calidad de vida de los habitantes. Por ello, la mayoría de los gestores urbanos locales están promoviendo actuaciones de urbanismo táctico que ayudan a recuperar el espacio público e involucra a los afectados directamente. Estas intervenciones son económicas, incluyentes, permanentes o temporales, de rápida implementación y de alta impacto para la comunidad pues dan respuesta a necesidades reales.
El urbanismo táctico humaniza los espacios de la ciudad, e incluye diferentes actuaciones como: vegetación urbana, mobiliario urbano, iluminación urbana, tránsito calmado, entre otros. A partir de lo anteriormente explicado, el urbanismo táctico es una herramienta muy importante en las ciudades Latinoamericanas para mejorar la calidad de vida de sus habitantes. Por ello, se plantea un proyecto de Intervención de Urbanismo Táctico en el Barrio el Alto de la ciudad de Puebla en México. Se eligió un sector central que actualmente está expuesto a un proceso de renovación urbana y tiene una alta conectividad con el centro de la ciudad, la zona cuenta con una reciente intervención urbana en el boulevard Xonaca con la incorporación de una ciclovía confinada que da prioridad al ciclista, y existe una línea de BRT en el boulevard 5 de mayo que requiere intermodalidad, elementos que justifican la investigación en temas de movilidad y espacio público.
METODOLOGÍA
Se realizó una revisión bibliográfica y se hizo un análisis de artículos mediante los portales Scopus y Web of Science para identificar casos de estudio que utilizaran el Urbanismo táctico como una fuente de pacificación de tránsito y de recuperación de espacio público en diferentes ciudades del mundo, con un enfoque específico en los casos de estudio en Latinoamérica
Con la información recabada de los portales antes mencionados se pudo constatar los efectos de estas intervenciones en la calidad de vida de los habitantes y la importancia de la pacificación de tránsito en la recuperación de espacio público. Además, se identificó un proceso metodológico que permitió desarrollar la intervención propuesta.
Para realizar la intervención, se hace un diagnóstico del área de estudio, se socializa con el comité vecinal El Alto para ajustar la propuesta a las necesidades reales de los habitantes del barrio. Se aplica una encuesta para conocer el comportamiento de los desplazamientos del sector, en esta encuesta se realizaron 7 preguntas en las cuales se les pregunto a los colonos sobre datos referentes a su percepción frente a temas de movilidad y espacio público en el barrio, además de preguntar sobre datos estadísticos tales como grupo de edad, género y si cuenta con alguna discapacidad.
Complementando la encuesta se realizaron visitas de campo para conocer el lugar y exponer las ideas con vecinos y se generó un archivo fotográfico que ayuda a identificar los sectores a intervenir. A partir de allí, se hace un diseño en base a tráfico calmado y elementos urbanos que busca recuperar el espacio público y generar una revitalización urbana del sector.
CONCLUSIONES
La realización de esta investigación fortaleció los siguientes aspectos en la formación del investigador:
Le aportó herramientas de investigación y le mostró que desde ese campo se pueden formular procesos metodológicos para desarrollar proyectos de aplicación.
El estudiante amplio sus conocimientos respecto a un nuevas tendencias de formación en su carrera profesional
Particularmente, respecto al proyecto realizado se concluye lo siguiente:
Es necesaria la peatonalización mediante urbanismo táctico, bolardos y macetones con vegetación de baja altura en la calle 16 Norte entre las calles 10 y 12 oriente debido a que, es un espacio que no se utiliza desde el sismo de septiembre de 2017 y que está próximo a una zona de gran volumen de transporte público.
La semi peatonalización delimitada por bolardos, urbanismo táctico y macetones en la calle 16 norte entre 8 y 10 oriente se plantea mixta dejando un carril para el tránsito de automóviles que vengan de la calle 10 oriente.
La creación de un parque de bolsillo en la intersección entre 16 norte y 8 norte donde ya existe el espacio es necesaria para generar un lugar de protección a los peatones.
La adecuación de un parque de bolsillo en la intersección de 6 oriente y 14 norte, donde existe el espacio para poder implementar bancas y vegetación para la zona,
La creación de un corredor que abarque el Teatro popular JOSÉ RECEK SAADE hasta Casa de la 14 en el que se implemente banquetas, espacios seguros para uso de ciclistas y peatones y la adecuación para vegetación de baja altura para promover la actividad cultural de la zona.
Romo Ruiz Jade Itzel, Instituto Tecnológico de Piedras Negras
Asesor:Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
García Quiroz Carolina, Instituto Tecnológico de Piedras Negras. Romo Ruiz Jade Itzel, Instituto Tecnológico de Piedras Negras. Turrubiate Pérez Claudia Verónica, Instituto Tecnológico de Piedras Negras. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la ciudad de Piedras Negras, Coahuila han surgido a lo largo del tiempo varios negocios dedicados a las tortillas de harina de trigo tradicionales. A través de una consulta en la página web del INEGI (2021), se recabo que existe un total de 79 tortillerías de harina de trigo tradicional en la ciudad de Piedras Negras, de las cuales el 74% han surgido a partir del año 2019, de esta manera se ve el incremento a través de los años de las tortillerías de harina de trigo en la ciudad. Por ser pequeñas empresas que surgen sin contar con suficiente inversión, son tortillerías que muchas veces no logran adquirir máquinas que les permitan aumentar su producción y disminuir el desgaste físico.
Se tomó como referencia a la Tortillería Frontera para el estudio de esta investigación donde se observó que al momento de elaborar los testales (porción de masa de harina de trigo), no se cuenta con una dosificación estandarizada, cada empleada suele medir el testal conforme a su mano ocasionando que no resulte de una medida exacta, causando pérdidas de la materia prima (masa), equivalente a 41 testales, ya que elaborarán menos tortillas de las establecidas.
Aunque ya existe maquinaria especializada para el corte y dosificación de testales en el mercado, suelen ser de elevados costos o inalcanzables para las micro y pequeñas empresas en la localidad, es por ello que se pretende diseñar un prototipo de manufactura para la elaboración y estandarización de testales tomando como referencia a la tortillería Frontera en base a sus requerimientos y especificaciones, conjunto a las opiniones de otras tortillerías, que marcaran el rumbo del diseño del prototipo.
METODOLOGÍA
La metodología está basada y guiada de la Tesis de Delgado (2015), donde determina el proceso de su investigación en tres etapas.
Se generó una lluvia de ideas sobre diferentes bienes de consumo regional para de estos bienes presentados elegir uno, el cual será el producto a investigar, una vez que se seleccionó el bien a indagar se empezó a analizar el proceso de elaboración de las tortillas de harina de trigo para obtener la problemática. Una vez encontrada la problemática, se siguió con la lluvia de ideas para encontrar una solución a la interrogante presentada, así como también donde encontrar información que sea de utilidad para la investigación como las diversas máquinas que ya existen, comparando sus características, componentes y precios en el mercado.
Posteriormente se realizó una encuesta a las tortillerías de harina de trigo de Piedras Negras para recabar información que será de utilidad para la obtención de las características necesarias para el diseño del prototipo de la dosificadora de testales, de acuerdo a lo que el productor realmente necesita, así como también se mantuvo una estrecha comunicación con una de las tortillerías de harina de trigo, Tortillería Frontera, para la obtención de la información requerida para el proyecto.
Se hizo uso de un Diagrama Bimanual del proceso actual para analizar los movimientos que se realizan en la elaboración de testales, siendo esta parte del proceso donde se encontró la problemática, mostrando así la realización de movimientos repetitivos. Como menciona García (2005), el diagrama bimanual nos permite llegar a conocer a fondo los por menores de trabajo y gracias a él se puede estudiar cada elemento con los demás.
Se realizó un QFD (Quality Function Deployment) para obtener los atributos que el diseño debe tener para satisfacer las necesidades del cliente, como menciona Villas (2020), el QFD es una herramienta que se utiliza principalmente en la gestión del desarrollo de productos. Teniendo las características solicitadas por el cliente se procedió a compartir ideas para bosquejar el diseño, después se continuó con la obtención de la cantidad y peso de la masa a dosificar para obtener las medidas para el prototipo. Ya una vez obtenidos todos los datos necesarios se procedió a la realización del diseño del prototipo en el software SketchUp en su versión portable el cual brinda la facilidad de uso y, además, cuenta con licencias gratuitas de prueba que permiten realizar grandes proyectos con mucha rapidez. (García, Deco, Bender, & Collazos, 2017).
CONCLUSIONES
En el trabajo realizado se logró implementar y diseñar un nuevo prototipo de una máquina dosificadora de testales, la cual estandariza el proceso, logrando la optimización de tiempos y movimientos, problemática que fue observada a través del análisis del diagrama bimanual.
Con la implementación de la nueva máquina dosificadora de testales, realizada de acuerdo a las especificaciones del cliente y distintas opiniones de las tortillerías de Piedras Negras conocidas por medio de una encuesta, se logró diseñar el prototipo ideal con un tamaño que ayuda a optimizar los espacios en pequeños locales siendo sus medidas de 65 cm de largo, 50 cm ancho y 40 cm de alto.
Logrando así de tal manera afirmar nuestra hipótesis: La máquina dosificadora de testales para las tortillas de harina de trigo tradicionales, tendrá un diseño enfocado en las opiniones de las distintas tortillerías de la localidad, así como a los requerimientos del cliente, logrará estandarizar el proceso de la elaboración de los testales disminuyendo los movimientos y esfuerzos en su elaboración, reduciendo los desperdicios y optimizando el tiempo.
Tal máquina dosificadora de testales queda aún expuesta para próximas mejoras en cuanto a su funcionamiento, pues es una máquina manual pero en un futuro podría adaptarse a un mecanismo automatizado.
Este trabajo de investigación nos benefició de tal manera que se adquirieron conocimientos acerca de herramientas de la ingeniería industrial, como son el Diagrama Bimanual y el QFD, así como también se aprendió a utilizar el Software SketchUp, además de conocer a fondo el proceso de la elaboración de las tortillas de harina de trigo tradicionales de tal forma contribuyendo con las micro y pequeñas empresas al compartir nuestros conocimientos para su desarrollo.
Rosales Alarcón Olimpia Nohemi, Universidad de Guadalajara
Asesor:Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
Niño Merchán Julián José, Universidad Autónoma de Bucaramanga. Rosales Alarcón Olimpia Nohemi, Universidad de Guadalajara. Solorio Huerta Elvira Alejandra, Instituto Tecnológico de Morelia. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardíacas afectan a la población en general de México tal que representan el 19.74% de las causas de defunciones para ambos sexos, de acuerdo con el Instituto Nacional de Cardiología Ignacio Chávez (2020). La isquemia miocárdica es parte de estas enfermedades, y según la Comisión Nacional de Arbitraje Médico (CONAMED) la principal patología causal de muerte prematura tanto en hombres como mujeres siendo el 58% y 42% respectivamente. La isquemia miocárdica se produce cuando se reduce el flujo sanguíneo al corazón, impidiendo que reciba suficiente oxígeno y nutrientes a las células contráctiles. La reducción del flujo sanguíneo suele ser el resultado de una obstrucción parcial o total de las arterias del corazón (arterias coronarias). Una obstrucción repentina y grave de una arteria coronaria puede provocar un ataque al corazón y ritmos cardíacos anormales graves. Para diagnosticar una enfermedad del corazón se utilizan las señales electrocardiográficas (ECGs), estas señales se adquieren de forma no invasiva y registran la actividad eléctrica del corazón del paciente, presentando características muy específicas de acuerdo al estado de salud del corazón. Sin embargo, el análisis de estas señales para un posible diagnóstico de cardiopatías requiere de un médico especialista que en muchos casos no se encuentra disponible, por lo tanto, el desarrollo de un algoritmo que proporcione un diagnóstico semiautomatizado permitiría contar con una herramienta de apoyo para brindar un mejor tratamiento al paciente y a tomar decisiones oportunamente. En este trabajo se propone el desarrollo de un algoritmo basado en Octave que permita identificar en una señal ECG, las características propias de la isquemia cardíaca.
METODOLOGÍA
La detección automática de la isquemia miocárdica, empleando la señal ECG como principal herramienta, implica dos procesos. En el primero se hace la clasificación de latidos que presenten la anomalía y la detección de episodios que ocurren. El estudio para obtener las señales donde se detecta la isquemia suele ser el registro de una señal ECG durante un largo tiempo de monitoreo que va desde las 2 horas y 24 horas. El sitio web PhysioNet ofrece registros médicos de diversas enfermedades relacionadas con el corazón, proporciona una base de datos de libre acceso que contiene un grupo de tomas de una o más señales de ECG digitalizadas, así como sus correspondiente diagnóstico. Dentro de esta base de datos existen distintos registros, para nuestro caso de estudio empleamos la base de datos ST-T Europea la cual concentra 90 registros con anotaciones de cardiólogos.
Dentro de esta base de datos se pueden encontrar 4 tipos de archivos. El archivo .hea que muestra las anotaciones de cabecera, archivos de anotaciones, como lo son los archivos .atr y .xws, y un archivo con la señal, .dat.
Una de las herramientas más utilizadas en la extracción de características de una señal ECG es la transformada Wavelet, esta consiste en la descomposición de una señal sobre el conjunto de funciones obtenidas de una única función llamada wavelet madre por medio de dilataciones y contracciones o bien escalados (coeficientes de aproximación), así como desplazamientos en el tiempo (coeficientes de detalle).
En el desarrollo de este proyecto se creó un código en Octave el cual, a partir de señales ECG, se procesan y se aplica una transformada wavelet que elimina el ruido de la toma y destaca sus componentes, esto con el fin de localizar y determinar si se encuentran anomalías en el registro, como la depresión del segmento ST o la inversión de la onda P, de esta forma podemos destacar descriptores propios de la isquemia y sugerir si existe la presencia de ésta o no.
En las señales ECG existen 3 niveles de frecuencias, una más grande que la otra; en nuestro caso deseamos mantener el segmento ST que se encuentra en las frecuencias más bajas de la señal y eliminar las otras dos, discriminando tanto altas frecuencias como frecuencias medias, requiriendo una acción de pasa banda.
La Transformada Wavelet resulta ser la mejor opción, ya que separa la señal en diferentes bandas de frecuencias; de esta forma el filtrado de paso de banda puede eliminar algunas bandas de frecuencia. El filtrado pasa banda puede lograrse eliminando coeficientes wavelet de escalas tanto inferiores como superiores de la señal ECG que no contribuyan a resaltar las características de interés. En el algoritmo que aquí se propone se utilizó symlet 7 con un nivel de descomposición de 4, y se extrajeron los 8 y 5. Al reconstruir la señal con estos coeficientes se observó que se mantuvo el segmento ST que se desea resaltar. Luego con el uso de un algoritmo de detección estándar de picos localizamos el segmento ST. El algoritmo, implementado en Matlab, primero solicita un archivo .mat con la señal ECG que será tratada y normaliza la amplitud de la señal. Luego calcula la Transformada Wavelet discreta de máximo solapamiento, y con una siguiente línea de código extrae sólo los coeficientes que se necesitan, después calcula la Transformada Wavelet Inversa y en términos del tiempo se realizan algunos cálculos estadísticos que permiten identificar las características de la cardiopatía isquémica.
CONCLUSIONES
A través de este proyecto se determinó que la transformada wavelet es una herramienta matemática muy útil para la identificación de cardiopatías ya que es eficaz en la extracción de características en una ECG, de igual forma se profundizó en los patrones y características que tiene un ECG y cómo diagnosticar la isquemia en la cuarta derivada. Se presenta un algoritmo capaz de resaltar las características irregulares en los picos de señales ECG en la cuarta derivada, los cuales son indicadores propios de la isquemia cardíaca para la posible detección de dicha cardiopatía.
Rosales Castillo Careli Anayethzi, Instituto Tecnológico de Iguala
Asesor:Dr. Gerardo Edmundo Santana Huicochea, Instituto Tecnológico de Iguala
DIAGNóSTICO DE LA MICROINDUSTRIA PRODUCTORA DE MUEBLES DE IXCATEOPAN DE CUAUHTéMOC GUERRERO
DIAGNóSTICO DE LA MICROINDUSTRIA PRODUCTORA DE MUEBLES DE IXCATEOPAN DE CUAUHTéMOC GUERRERO
Rosales Castillo Careli Anayethzi, Instituto Tecnológico de Iguala. Asesor: Dr. Gerardo Edmundo Santana Huicochea, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
Una de las grandes oportunidades que se presenta para toda la cadena de valor de la industria de la transformación de la madera y del mueble, radica en la modernización e inversión en nuevas tecnologías y equipo que permitan a las empresas del ramo generar productos competitivos con calidad mundial.
La situación empresarial del sector mueblero en el estado de Guerrero, es una actividad importante en la cual se puede trabajar como fuente de ingresos en el estado. Son varias las localidades que ofertan esta actividad pero que no están reconocidas a nivel estatal ni nacional. Una de las principales localidades productoras de muebles en la región Norte es el municipio de Ixcateopan de Cuauhtémoc, y se considera la principal fuente de ingresos en la localidad. Por lo tanto, contar con un modelo de negocios innovador para este sector favorecería de forma muy positiva los ingresos a la localidad y de esta manera a la región y al estado.
Las variables que se utilizarían en este modelo son conocimiento del entorno, grado de gestión e innovación empresarial y relaciones de comercialización, información incluida dentro de un diagnóstico que sirva de referencia para identificar puntos de mejora en la actividad mueblera. La información se obtuvo aplicando un cuestionario piloto y por entrevista directa con algunos propietarios de microempresas.
METODOLOGÍA
Se realizó la consulta, lectura y análisis de la situación empresarial del sector mueblero en México y el estado de Guerrero. Esta actividad se realizó por búsqueda en revistas especializadas, se usaron palabras clave como industria mueblera, gestión empresarial en microempresas, innovación de muebles. También se consultó la base de datos publicada por Inegi para el sector manufacturero.
Para obtener la información de primera mano de las microempresas productoras de mueble en la localidad de Ixcateopan de Cuauhtémoc se realizaron investigaciones, entrevistas y análisis a cerca del entorno, la historia que tiene esta actividad productiva, los procesos que llevan a cabo las empresas productoras de muebles, la innovación que se tiene dentro de estos procesos, la tecnología con la que se cuenta, el tipo de comercialización de los productos elaborados, la administración con la que cuenta cada microempresa, así mismo la organización que hay en cada una, además de tomar en cuenta los recursos naturales y la sustentabilidad que se tiene con estos, ya que la madera es la materia prima.
Para ello, se elaboró un cuestionario piloto que incluyó 45 preguntas distribuidas en los criterios de administración, producción, organización y recursos naturales.
CONCLUSIONES
La industria mueblera en el estado de Guerrero no es reconocida, por lo tanto, no hay una base de información extensa acerca de esta actividad. Sin embargo, se tiene conocimiento que distintas localidades en la entidad cuentan con varias microempresas productoras de muebles de madera, es el caso de Ixcateopan de Cuauhtémoc, una de las localidades principales productoras de mueble colonial y estilo americano de la región Norte del estado.
El trabajo de campo (entrevistas) proporcionó información concluyente, como el que la mayoría de las microempresas productoras llevan una cantidad de años considerable (desde 1951), notando que tiene una capacitación en sus trabajadores que se da sobre la práctica; laboran con sus mismos recursos generando en su mayoría utilidades positivas en el último año de trabajo, no cuentan con programas de financiamiento. A pesar que estas microempresas cuentan con herramientas y maquinaria en su mayor parte atrasada y un poco actualizada, los microempresarios se consideran competitivos localmente y en el mercado. Dentro del análisis se aprecia que hay posibilidades de actualizar su herramienta y maquinaria, de esta manera se ayudaría a aumentar su producción, pues se reduciría tiempo de elaboración y costos; utilizando la innovación como estrategia de mejoramiento con tecnologías nuevas, mejoramiento de métodos de elaboración y ventas manifestándose en diseños de nuevos productos, el enfoque de mercado, así mismo en capacitaciones y organización de trabajo.
Otro de los aspectos importantes en el análisis de producción es que los trabajadores operan sobre diseño y con una amplia categoría de muebles, ofreciendo calidad y mejor precio. Manejando el punto de comercialización se trabaja mediante compradores directos e intermediarios, teniendo así dos categorías: industria productora y comercio, ya que los intermediarios manejan negocios de comercio los cuales operan dentro y fuera del estado.
Con lo que consta a un punto importante que son los recursos naturales y la sustentabilidad, las empresas manejan su materia prima tanto local como de otra región, la cual ambas la compran a personas dedicadas a la venta de variedad en madera, pero colaboran con actividades de reforestación y cuidado al medio ambiente para la conservación de árboles y materia maderable utilizada en las empresas.
Durante la estancia del verano se logró percibir la importancia de la línea de investigación “Sustentabilidad, Innovación y Gestión empresarial del sector rural” adquiriendo conocimientos teóricos de innovación e implementación de nuevas tecnologías dentro de las empresas productoras y comercializadoras de muebles.
A pesar de las dificultades la situación de pandemia para la obtención de información, el trabajo realizado ayudo a darse cuenta de la necesidad de sustentabilidad, innovación y gestión que se tiene en el sector empresarial mueblera dentro de la localidad de Ixcateopan de Cuauhtémoc para un mayor reconocimiento como municipio productor de muebles a nivel estado y nacional, proponiendo una propuesta de mejora, que es la demostración y promoción de nuevas tecnologías del sector productor, ya que empresarios están interesados en mejora sus herramientas y maquinarias. También el comercio vía electrónica para ampliar el mercado y aumentar el conocimiento de los clientes de este sector que se encuentra en el estado de Guerrero.
Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit
Asesor:Dr. Omar Antonio Vega, Universidad de Manizales
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
APROPIACIÓN TIC POR DOCENTES DE EDUCACIÓN PRIMARIA Y SECUNDARIA
Alcalá Vega Jesús Alejandro, Instituto Tecnológico de Estudios Superiores de Zamora. Hernández Medina Andrea Guadalupe, Instituto Tecnológico Superior de Ciudad Hidalgo. Hernandez Vazquez Arely, Instituto Tecnológico Superior de Pánuco. Rojas Cecilio Cristina, Tecnológico de Estudios Superiores de San Felipe del Progreso. Rosales Perez Carlos Daniel, Universidad Tecnológica de Nayarit. Asesor: Dr. Omar Antonio Vega, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Dentro de un mundo globalizado como el actual donde cada vez se observan mayores avances tecnológicos y por tanto una evolución cultural que conlleva también a la de pensamiento, es necesario incentivar la participación de las nuevas generaciones haciendo que se fortalezcan sus habilidades y sean actores activos en la sociedad. El modo de hacerlo está al alcance y es la educación donde el uso de los recursos TIC resulta indispensable para alcanzar dichas competencias tecnológicas ya que el acercamiento a dispositivos digitales permite crear múltiples actividades que incentivan la transformación social.
La presente investigación indaga la manera cómo se hace uso de los diversos medios tecnológicos y de comunicación dentro de las aulas antes de la pandemia y desde los hogares durante la pandemia.
METODOLOGÍA
El tipo de investigación usada es la investigación acción participativa de tipo cualitativa y cuantitativa, que busca obtener resultados fiables y útiles para el análisis de situaciones colectivas, basando la investigación en la participación de los propios colectivos a investigar
Está fundamentado en la crítica social que promueve la auto- reflexión, considera que el conocimiento se da por el interés que parte de las necesidades de los grupos y se consigue mediante la capacitación de los sujetos para la participación y transformación social.
Se realizó una serie de preguntas que estaban contenidas en el cuestionario aplicado y que estas se dividían en dos apartados:
Utilización de las TIC antes de la pandemia por Covid-19
Utilización de las TIC durante la pandemia.
ANÁLISIS DE LOS DATOS: se interpretó la información de las preguntas contenidas en la encuesta con ayuda de graficas explicativas y comparativas así como de un documento en Excel como apoyo para interpretar los resultados de manera más clara y precisa.
Los docentes no pueden estar lejos de los avances tecnológicos, al contrario deben aprovecharlos para el aprendizaje de los alumnos ya que esta herramienta despierta gran interés en ellos y al darle un buen uso genera un aprendizaje significativo, por ende los docentes pueden utilizarla para favorecer el desarrollo de los alumnos.
RESULTADOS
Una vez obtenido los resultados del instrumento de investigaciòn se obtuvieron los siguientes Resultados:
La muestra está constituida por 24 docentes, con una edad promedio de 37,4 años, donde el más joven tiene 24 años de edad y 56 el mayor, con 35 años como la edad más común y una desviación estándar de 0,707.
En cuanto al género, hay una distribución de 50% para mujeres y el otro 50% para hombres, en tanto el 70,8% tiene una formación de pregrado (licenciado), 20,8% de maestría y el 8,3% restante ostenta el título de doctor.
Todos los docentes, con excepción de uno, laboran en instituciones del orden público, que se ofrecen educación primaria en el 45,8%, secundaria 37,5% y 16,7 educación media o bachillerato.
Las edades registradas en este estudio fueron en una variante de los 24 hasta los 56 años. Esto ayuda a comprender que docentes de edades variables llegaron a participar y se tomaron en cuenta para la investigación. Así mismo se obtuvo el dato que el genero en este caso fue igualitario ya que de 24 muestras 12 eran hombres y 12 mujeres, esto refiere que tanto hombres y mujeres aportaron sus ideas e ideales al estudio científico.
En esta investigación, de los 24 profesores encuestados 18 de ellos cuentan con un grado de licenciatura, 4 cuentan con maestría y 2 con doctorado.
CONCLUSIONES
Al tener en cuenta las competencias TIC para el desarrollo profesional docente se analizaron las encuestas teniendo en cuenta las competencias que deben desarrollar los docentes dentro del aula así como de su uso ahora en pandemia desde sus hogares. Ya que el propósito de la integración de TIC en la educación es mejorar los procesos de enseñanza y aprendizaje, dando un uso pertinente y responsable permitiendo así dinamizar tales procesos.
Según las respuestas dadas por los docentes en las encuestas se resalta que algunos tienen dudas del manejo de las TIC, debido a que varias de las preguntas enfocadas al conocimiento que ellos poseen de las TIC se evidencian respuestas donde nos dan a conocer que su conocimiento es mediano.
Durante el desarrollo de la presente investigación se resaltan importantes hallazgos que contribuyen al conocimiento de la realidad en cuanto al manejo de las TIC de las instituciones mexicanas públicas y privadas donde se logró identificar cuál es la apropiación y aplicación de las TIC por parte de los docentes.
Respecto al proceso enseñanza- aprendizaje, se observa que los docentes de las instituciones han asimilado el uso de TIC, tanto en su cotidianidad como en su labor profesional, es fundamental que los docentes estén actualizados y logren dinamizar el proceso de enseñanza
De lo anterior se concluye que es necesario incentivar el uso de los recursos tecnológicos y la mejor manera de hacerlo es fortaleciendo el conocimiento de estos, donde la capacitación juega un papel relevante de esta manera los docentes sienten la confianza del uso de las TIC y pueden transmitir esta motivación a los estudiantes quienes poseen la facilidad del manejo. De esta manera se conjugan saberes, formando una fusión interesante que permite aprovechar al máximo las bondades de los recursos TIC.
Rosas Contreras Jazmin, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Mg. Ricardo Augusto Puche Villadiego, Universidad Simón Bolivar
ANáLISIS Y COMPARACIóN DE LA RENTABILIDAD DE LA BOLSA DE VALORES DE MéXICO Y COLOMBIA
ANáLISIS Y COMPARACIóN DE LA RENTABILIDAD DE LA BOLSA DE VALORES DE MéXICO Y COLOMBIA
Rosas Contreras Jazmin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Ricardo Augusto Puche Villadiego, Universidad Simón Bolivar
PLANTEAMIENTO DEL PROBLEMA
Comparar la rentabilidad de la economía a partir de las inversiones en la la bolsa de valores tanto colombiana como mexicana, partiendo de los conceptos básicos para tener un amplio conocimiento del mercado de inversiones
METODOLOGÍA
Se esta usando una metodología analítica, por medio de una herramienta cuantitativa.
De esta manera partimos de los principales conceptos a un mayor rango de información, usando un sistema de gestión, para comparar el capitalismo económico de países de América latina (Colombia y México), al igual que las diferencias de los sistemas económicos en dichos países.
CONCLUSIONES
Adquirir información los conceptos básicos para así tener un amplio conocimiento acerca de las diferencias de cada bolsa de valores.
De esta manera al querer realizar alguna inversión dentro o fuera de los países incluyentes en el proyecto, se puede tomar una decisión con mayor poder de información, considerando que en cualquier de los países mencionados se corre cierto riesgo al invertir ya que son cambios impredecibles que suceden dentro de la Bolsa de valores constantemente.
Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Andrea Palomino Salcedo, Universidad del Valle
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
SISTEMA CIBER-FÍSICO PARA EL APOYO A LA CADENA DE ABASTECIMIENTO EN LOS BANCOS DE ALIMENTOS DEL SUROCCIDENTE COLOMBIANO
Carrillo Núñez María José, Instituto Tecnológico Superior de Apatzingán. Hernandez Santoyo Ricardo, Instituto Tecnológico Superior de Apatzingán. Lara Chávez Fermín, Instituto Tecnológico Superior de Apatzingán. Martínez Mora Verónica Guadalupe, Instituto Tecnológico Superior de Apatzingán. Rosas Miranda Andrea Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Andrea Palomino Salcedo, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Los bancos de alimentos son una estrategia para minimizar el desperdicio de alimentos y aumentar la seguridad alimentaria en poblaciones vulnerables. Sin embargo, la decisión de destinar alimentos a quienes soliciten su apoyo es una situación problemática. Esta decisión debe considerar varios criterios que aseguren que los alimentos se dirijan a las organizaciones o poblaciones que más lo necesitan. (Henao, López, Chud-Pantoja & Osorio, 2020, párr. 1)
El desperdicio de alimentos ha aumentado en todo el mundo, siendo una cifra casi aterradora: en el año 2019, hubo 931 millones de toneladas de alimentos desperdiciados (Paúl, 2021). En Colombia, se desperdician alrededor de 9.76 millones de toneladas cada año (Anónimo, 2019).
También hay una gran población que no come adecuadamente y puede aprovechar estos alimentos. Si nos adentramos en algunos de los municipios de Colombia, en este caso, de Cali, las cifras que se desperdiciaron en el 2018 fueron de 319.305 toneladas de comida únicamente en los hogares caleños, y según las proyecciones realizadas, este año se generaría un total de 330.169 toneladas de comida en las basuras de las zonas residenciales (Anónimo, 2014).
Si bien fenómenos como la desnutrición crónica y la relación de esta con la mortalidad infantil están asociados a la inseguridad alimentaria, de acuerdo con la Unicef la desnutrición crónica, que se diagnostica cuando la talla y el peso no corresponden a la edad de la persona, está asociada a situaciones de pobreza, y tiene un enorme impacto en el desarrollo (Aguirre, 2014).
METODOLOGÍA
Para la elaboración de este proyecto se utilizará la metodología de acción (investigación) tecnológica, ya que logra determinar un saber hacer técnico que recibe el nombre de Know how, que en general está ligada a un campo de aplicación y se caracteriza por un lenguaje propio, especializado y utilitario (Anasagasti, 2011).
Básicamente podemos definir esta metodología de investigación-acción como una forma de indagación introspectiva colectiva emprendida por participantes en situaciones sociales con objeto de mejorar la racionalidad y la justicia de sus prácticas sociales o educativas, así como su comprensión de esas prácticas y de las situaciones en que éstas tienen lugar (Maciel, C., 2003).
Con respecto al ciclo de vida del software, se implementará una metodología ágil, la cual representa el enfoque de desarrollo ágil, que ha sido implementando en diferentes organizaciones para la gestión y administración, enfoque con el que se pretende aumentar las probabilidades de éxito en la puesta en marcha de los proyectos. Esta metodología se encuentra orientada al desarrollo de proyectos complejos donde no se cuenta de manera completa con toda la información necesaria al iniciar el proyecto y, por lo tanto, no es factible planificarlos en detalle. En esta metodología es importante la colaboración y participación (Calderón, O., 2020).
Para el desarrollo del software utilizaremos la Metodología ágil SCRUM, que corresponde a una metodología ágil y flexible para gestionar el desarrollo de un proyecto de software. Se basa en construir primero la funcionalidad de mayor valor para el cliente y en los principios de inspección continua, adaptación, auto-gestión e innovación (Softeng, 2021).
Con la metodología SCRUM el cliente se entusiasma y se compromete con el proyecto dado que lo ve crecer iteración a iteración. Asimismo, le permite en cualquier momento realinear el software con los objetivos de negocio de su empresa, ya que puede introducir cambios funcionales o de prioridad en el inicio de cada nueva iteración sin ningún problema (Softeng, 2021).
SCRUM es un marco de trabajo iterativo e incremental para el desarrollo de proyectos y se estructura en ciclos de trabajo llamados Sprints. Éstos son iteraciones de 1 a 4 semanas, y se suceden una detrás de otra. Al comienzo de cada Sprint, el equipo multi-funcional selecciona los elementos (requisitos del cliente) de una lista priorizada. Se comprometen a terminar los elementos al final del Sprint. Durante el Sprint no se pueden cambiar los elementos elegidos. Al final del Sprint, el equipo lo revisa con los interesados en el proyecto, y les enseña lo que han construido. El equipo obtiene comentarios y observaciones que se puede incorporar al siguiente Sprint. SCRUM pone el énfasis en productos que funcionen al final del Sprint, es decir que estén realizados (P. Deemer, G. Benefield, C. Larman & B. Vodde., 2009).
CONCLUSIONES
Con el desarrollo de este proyecto de investigación se lograron conocer los procesos referentes a la gestión de la información ocurrida a partir de las donaciones, los procesos de gestión del producto dentro del banco de alimentos y la distribución de los alimentos para los bancos de alimentos del suroccidente de Colombia.
La información que se obtuvo mediante la entrevista con el director del banco de alimentos de Manizales fue de gran apoyo para conocer su funcionamiento, desde la preservación y distribución de los donativos hasta el proceso administrativo y de control que se lleva a cabo al revisarlos.
Se cumplieron con las expectativas para este proyecto, realizando así el análisis y diseño de un sistema para el apoyo a la cadena de abastecimiento en los bancos de alimentos del suroccidente colombiano. Además de llevar a cabo exitosamente la metodología de desarrollo ágil SCRUM y con la que se realizaron los objetivos planteados en esta investigación.
La experiencia de redactar y construir el proyecto fue muy gratificante, aprendimos las técnicas y los procedimientos necesarios para realizar una investigación formal, así como aplicamos los conocimientos que hemos adquirido a lo largo del tiempo durante nuestra formación académica.
Rosas Solórzano Lisseth, Universidad de Guadalajara
Asesor:Mg. Milen Balbis Morejon, Universidad de la Costa
EVALUACIóN DE MEDIDAS DE AHORRO PARA LA MEJORA DEL CONSUMO ENERGéTICO DE UN EDIFICIO.
EVALUACIóN DE MEDIDAS DE AHORRO PARA LA MEJORA DEL CONSUMO ENERGéTICO DE UN EDIFICIO.
Rosas Solórzano Lisseth, Universidad de Guadalajara. Asesor: Mg. Milen Balbis Morejon, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
En Colombia la proyección para 2015 del consumo residencial era de 10.6 GWh/año, además de que respecto al consumo final, presenta un crecimiento del 4% anual. Por esta razón que surge el Programa de Uso Racional y Eficiente de la Energía (PROURE), definiendo objetivos específicos, subprogramas estratégicos y metas del ahorro con proyecciones para el 2015.
Es necesario contar con procesos y sistemas más eficientes energéticamente que tienen un impacto económico, energético y medioambiental positivo, mejorando la calidad de vida de los usuarios y logrando un ahorro económico y en demanda total de energía.
En este trabajo se pretende desarrollar el modelo de edificios para la evaluación de mejoras de eficiencia energética, analizando políticas energética, tomando un modelo de edificio estándar, llevándolo a un software que permita un cambio de variables, para obtener las propuestas a implementar en el edificio para su eficiencia energética.
METODOLOGÍA
Primeramente se analizó el estado actual de la investigación en eficiencia energética en edificaciones y las políticas existentes en México y Colombia. Se realizó una comparación de las medidas tomadas por cada país y comparación de las mismas.
Se utilizó el software DesignBuilder para diseñar el modelo de estudio, en este caso una Casa habitación de dos plantas ubicada en las afueras de Barranquilla, Colombia, con una latitud 10.88 y longitud -74.78, donde el mismo sfotware toma las condiciones climáticas de la zona seleccionada para considerarla en el cálculo del consumo de energía.
Posteriormente, se realizó la selección de las variables que serán evaluadas partiendo del modelo base y así obtener la variación del consumo de energía de este, luego se realizan cambios en los valores de variables seleccionadas y se compara su comportamiento y como impacta en el consumo de energía y las emisiones de CO2. Se obtiene una gráfica y tabla donde las variables son: Aparatos (Electricidad kwh), Iluminación (Kwh), ACS (Gas kwh) y un total de Emisiones de CO2(kg). Porteriormente se realizó una tabla comparativa de los 4 casos de estudio así como una gráfica con los resultados finales.
Finalmente, con la comparación en cuanto al modelo base y la combinación de variables se establece cuales son las mejores medidas a aplicar en el edificio y así obtener modelo de edificio más eficiente energéticamente, tomando las condiciones más eficientes para así lograr un modelo con menor consumo energético.
CONCLUSIONES
Del estudio se espera analizar el impacto que existe en el cambio y combinación de las variables seleccionadas y su relación directa con el consumo de energía y emisiones de CO2, partiendo de un modelo base, y realizando combinaciones en variables seleccionadas que permitan obtener cual sería la mejor opción al momento de diseñar el edificio propuesto. El resultado, permite proponer las mejores medidas de ahorro de energía y así reducir los costos energéticos e impacto ambiental.
Rosete Duarte Rosse Lina, Instituto Tecnológico Superior de Cananea
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
EL AHORA DE UN TRANSPORTE ELéCTRICO
EL AHORA DE UN TRANSPORTE ELéCTRICO
Gallegos Quijada Jesus Guillermo, Instituto Tecnológico Superior de Cananea. Rosete Duarte Rosse Lina, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
La variedad de residuos generados por la combustión de motores en vehículos del transporte terrestres ha tenido un impacto directo o indirecto en el medio ambiente provocando el auge de nuevas normativas para solventar este problema. Estas normativas obligan a los fabricantes a adoptar, en mayor o menor grado, tecnologías que incluyan fuentes de energía alternas y menos contaminantes. Por consiguiente, es posible una transición energética de gran escala y así reducir el consumo de combustibles fósiles.
METODOLOGÍA
El renovado interés hacia sistemas de transporte más sustentable aunado a los efectos provocados por el cambio climático pone en pie el desarrollo de mejores y nuevas técnicas para la construcción de vehículos eléctricos. Este cambio se puede observar gracias a los datos de la Agencia Internacional de Energía, donde la tendencia mientras un cambió en el suministro de tipo de energía década tras década reduciendo el consumo de energía no renovable y aumenta el de la energía renovable.
Los vehículos eléctricos llevan ya varios años en el mercado, aunque aun presentan varias limitaciones debido a su alto costo y/o autonomía los gobiernos de diversos países empiezan a otorgar mayores facilidades para su consumo. Por otro lado, es importante conocer que y como funciona un vehículo de este tipo. De manera general, un vehículo eléctrico funciona gracias a un sistema que incluye: motor eléctrico, baterías, puertos de carga y controladores. Donde cada uno de estos elementos conforme los años pasan la investigación y desarrollo aumenta. Gracias a esto, actualmente, es posible aprovechar hasta un 30% de la energía de la batería, superando con creces lo que un sistema de combustión puede hacer.
CONCLUSIONES
Considerando el ambiente de los vehículos eléctricos en el territorio mexicano, diversos vehículos 100% eléctricos comenzaron a distribuirse, así como algunos otros que gozan de un sistema híbrido. Pensando en un futuro cercano las bondades de tener un vehículo eléctrico se harán más notorias y cuya principal desventaja fijada en el costo, tenderá a bajar siempre y cuando la tecnología, divulgación y producción aumente.
Rubio Murcia Angélica Maria, Universidad de Medellín
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN MEDELLÍN Y CALI, COLOMBIA.
DIAGNÓSTICO EN LA FORMACIÓN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN MEDELLÍN Y CALI, COLOMBIA.
Baldovino Sanjuan Juan de Dios, Corporación Universitaria Americana. Rubio Murcia Angélica Maria, Universidad de Medellín. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
A lo largo de la historia se han presentado transformaciones importantes, las cuales han impactado la productividad de las industrias y su economía, estas transformaciones son denominadas de manera global como revoluciones industriales. Por su parte, la cuarta revolución industrial también conocida como la industria 4.0 presenta diversas oportunidades de mejora, pero también desafíos para las organizaciones de la industria, ya que los beneficios son potencialmente efectivos para quienes son capaces de innovar y adaptarse. Así mismo se hace visible que las organizaciones pueden adaptarse a los cambios, siempre y cuando conozcan y sepan adecuar a su sector productivo, las tecnologías necesarias para optimizar tanto los procesos como la capacidad de mejorar su rentabilidad. Por eso se hace necesario hacer énfasis en la implementación y renovación de las tecnologías, con la finalidad de potencializar las industrias manufactureras buscando aumentar la competitividad en el comercio nacional e internacional, promoviendo el desarrollo de la innovación en los sectores de la industria capitalina y a su vez conducir al crecimiento económico afectando positivamente el PIB.
Sin embargo, debido al gran crecimiento de la competencia, la mentalidad de las organizaciones ha ido cambiando durante los últimos años, modificando su forma de producción optando por la innovación e implementación de tecnologías que aporten un máximo rendimiento en todas sus operaciones. Por lo tanto, es necesario implementar estrategias que impulsen al sector manufacturero en las ciudades de Medellín y Cali con el fin de adoptar e incluir a sus procesos productivos, tecnologías de la industria 4.0.
METODOLOGÍA
Esta tesis aplica un estudio documental para la construcción del marco teórico y un estudio de campo donde se aplicarán dos instrumentos diseñados en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El primer instrumento se aplicará a ingenieros en activo, mandos medios y altos, con escolaridad mínima técnico con al menos cinco años de experiencia en la industria regional. El segundo instrumento se aplicará a docentes de las principales instituciones de educación superior (IES) de Medellín y Cali Colombia, con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Conclusiones
La digitalización de los procesos es una herramienta transversal para muchos ODS, sin embargo, el enfoque de esta estancia al ser del área de ingeniería industrial es sobre temas relacionados con la industria, innovación e infraestructura. Algunos ejemplos para resaltar son el generar modelos predictivos con datos tomados en tiempo real y simulación de procesos, las aplicaciones de Ciberseguridad, detectar modos de fraude en sistemas bancarios a población vulnerable. También en la logística, las redes de transporte, en alimentos reducir desperdicios, los modelos de simulación para riego y optimización de agua.
Con esta investigación se busca determinar capacidades tecnológicas y hacer un diagnóstico para lograr cobertura de esta herramienta.
Resultados
Se ha evidenciado en lo que va de la investigación en curso, que los conceptos más relevantes las tecnologías de la industria 4.0 son desconocidos en su mayoría por algunas organizaciones manufactureras de Medellín y Cali, y por lo tanto seria necesario capacitar a todo el talento humano.
Por otra parte, Las industrias manufactureras consideran que la implementación de las tecnologías 4.0 son una ventaja para el crecimiento productivo, ya que generan mayor rentabilidad y les da mayor competitividad en el mercado.
Cabe resaltar que algunas de las organizaciones manufactureras en Colombia no realizan capacitaciones de nuevas tecnologías; es importante incentivar las propuestas de innovación e investigación que ayuden a fortalecer las estrategias de las compañías y les faciliten cumplir sus objetivos corporativos. Por último, la mayoría de encuestados hasta el momento, consideran que es importante implementar las I4.O con el fin de ser competitivos y crecer en el mercado.
Rugeles Aroca María Alejandra, Escuela Colombiana de Rehabilitación
Asesor:M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán
HERRAMIENTA DE APOYO MEDIADA POR LA TECNOLOGíA, PARA LA EVALUACIóN DIAGNóSTICA Y LA REHABILITACIóN DE LA DISFAGIA.
HERRAMIENTA DE APOYO MEDIADA POR LA TECNOLOGíA, PARA LA EVALUACIóN DIAGNóSTICA Y LA REHABILITACIóN DE LA DISFAGIA.
Rugeles Aroca María Alejandra, Escuela Colombiana de Rehabilitación. Asesor: M.C. Isaac Alberto Aldave Rojas, Instituto Tecnológico Superior de Ciudad Serdán
PLANTEAMIENTO DEL PROBLEMA
La deglución es definida como una actividad neuromuscular compleja que consiste en una serie de movimientos coordinados de los músculos de la boca, la faringe y el esófago (Muller y Piñeiro, 2014, p. 385) que permite el transporte del bolo alimenticio y de líquidos desde la cavidad oral hasta el estómago. Sin embargo, puede haber un trastorno en el proceso deglutorio, el cual se denomina disfagia, que es un síntoma que se refiere a la imposibilidad para alimentarse, puede ser de origen neurológico o mecánico y varía según la fase que se encuentra alterada. La disfagia neurológica ocurre de manera secundaria a una alteración en cualquier estructural neuronal y la mecánica se da por daño, ausencia o falla en las estructuras músculoesqueléticas involucradas en la deglución.
Durante el proceso de evaluación diagnóstica fonoaudiológica, se aplican dos tipos de pruebas, de screening y objetivas. Dentro de las pruebas de tamizaje, se encuentra la auscultación cervical (AC) que es el empleo de un dispositivo de audición para evaluar los sonidos de la deglución (Stroud, 2005 y Leslie, 2007 citados por Barragán, 2008) y otros sonidos producidos durante la fase faríngea. Esta prueba aporta a la precisión diagnóstica, pero no lo hace en un 100%, esto puede estar asociado a la subjetividad del proceso de evaluación, ya que depende de las habilidades auditivas del evaluador y de las habilidades técnicas de reconocimiento espectográfico del sonido, además el software utilizado está diseñado para auscultación torácica y cardíaca.
Por otra parte, las pruebas objetivas que se usan comúnmente son la videofluoroscopia (VDF) y la Evaluación Fibroscópica de la deglución (FEES). De acuerdo con Langmore, Schatz y Olson (1991) la VDF proporciona información precisa sobre el paso del bolo alimenticio (incluyendo el tiempo) a través de las estructuras faríngeas, la dirección y la amplitud de movimiento de las estructuras, asimismo, Nazar et al. (2008) refieren que la FEES permite observar las características anatómicas faríngo-laríngeas y la fisiología de la etapa faríngea de la deglución, determinando si hay riesgo de penetración o aspiración y si es apropiado llevar a cabo la alimentación oral o si debe sustituirse por alimentación enteral. Pero la realización de las últimas dos pruebas implica altos costos para el sistema de salud, asociados al pre-procedimiento y procedimiento, como la utilización de fármacos anestésicos, requerimientos tecnológicos y agentes nocivos para el paciente, es por esto que, la auscultación cervical se convierte en una alternativa en cuanto a disponibilidad, fácil acceso y no invasividad, no obstante, requiere una herramienta que disminuya su carácter subjetivo.
Por lo cual, siguiendo el planteamiento hecho por Vargas (2019), es necesario que haya un software diseñado para el estudio de los sonidos deglutorios, que le permita al profesional en Fonoaudiología comparar los resultados obtenidos durante la evaluación con una base de datos elaborada previamente, con el fin de disminuir el carácter subjetivo de esta prueba.
METODOLOGÍA
Se realizó una búsqueda de conjuntos de datos sobre auscultación cervical en Kaggle y Dataset Search, la cual arrojó un total de dos resultados. Sin embargo, al leer la información asociada a cada uno de ellos, se determinó que solo uno se relacionaba directamente con los criterios de inclusión planteados en el estudio.
Este conjunto de datos consiste en 3144 señales deglutorias de 248 pacientes que presentan disfagia secundaria a diversas etiologías, las cuales fueron recolectadas con un acelerómetro 3D fijado al cartílago cricoides y un micrófono ubicado hacia el lado lateral derecho de la laringe.
Se procesaron los datos haciendo uso del software Jupyter para obtener la información gráfica y auditiva de las muestras, con el fin de determinar la correlación existente entre ellas y poder construir la base de datos de sonidos deglutorios.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la búsqueda y el análisis de datos, requeridos para el desarrollo de aplicaciones de salud móvil (mHealth). Aún no se pueden mostrar los resultados obtenidos, porque la información continúa en proceso de análisis, sin embargo, se espera generar una base de datos de sonidos deglutorios que le permita al fonoaudiólogo tener mayor precisión diagnóstica cuando use la auscultación cervical como herramienta de evaluación.
Ruiz González Diego, Instituto Politécnico Nacional
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
REINGENIERíA DE UN MINI DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DE LECTOESCRITURA BRAILLE
Castro Arias Bibiana, Instituto Tecnológico Superior de Huauchinango. Coronell Gonzalez Nikolls Andrea, Corporación Universitaria Reformada. García Calvo Sofía Isabel, Corporación Universitaria Reformada. Ruiz González Diego, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
El avance tecnológico ha sido de gran impacto en la sociedad, ya que se ha implementado en distintas áreas como salud, ingeniería, artefactos electrónicos y mecánicos, entre otros. Sin embargo, hay muchas personas que no pueden gozar de estos avances por distintas situaciones como es la carencia económica, ceguera y algunas otras discapacidades.
El objetivo de desarrollar este proyecto es aplicar una reingeniería en el diseño para disminuir tiempos de impresión y costos por gastos de material. Para lograr esto, en el diseño original del prototipo se realizan los cambios necesarios tanto en dimensiones, como en el diseño de las piezas.
Este dispositivo tiflotécnico tiene como fin de ayudar en la educación introduciéndolo a temprana edad para aquellos que quieran aprender y quienes lo necesiten.
METODOLOGÍA
Este evento se desarrolló en diferentes etapas, iniciando con la recopilación de datos acerca del sistema de lectoescritura y como funciona, luego de ello, los materias que suelen ser más agradables al tacto de las manos ya que estas tienen que ser entrenadas para poder desarrollar la sensibilidad que se necesita para leer el braille. Seguida de esto se hizo uso de la información en cuanto al tamaño de los dedos y manos de los niños para que el disposotivo tiflotécnico pueda adaptarse a las manos de niños de diferentes edades.
CONCLUSIONES
Al pasar este dispositivo por las manos de un niño ciego, verificó el funcionamiento y la comodidad de dicho artefacto, mostró que cosas del dispositivo lo hacian sentir incomodo y que sugerencias daba para mejorar el prototipo.
Ruíz Guzmán Emiliano, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
MONITOREO DE PUNTOS ESPACIALES PARA LA DETECCIóN DE RIESGO EN ASENTAMIENTOS URBANOS EN LAS ZONAS DE DESNIVEL
MONITOREO DE PUNTOS ESPACIALES PARA LA DETECCIóN DE RIESGO EN ASENTAMIENTOS URBANOS EN LAS ZONAS DE DESNIVEL
Ruíz Guzmán Emiliano, Instituto Politécnico Nacional. Torres Ramírez Daniel Azael, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El conocimiento que se tiene del monitoreo de puntos espaciales en un espacio determinado se pueda lograr obtener a través de una digitalización en 3D. La digitalización 3D se puede adecuar a espacios determinados para ayudar en la detección de distintos problemas en zonas de desnivel. Esta metodología es de utilidad para evaluación de catástrofes naturales como sismos o erosión, o análisis de riesgos para planeación urbana.
La detección de riesgo en asentamientos urbanos es de gran importancia en todo el mundo debido a que un alto porcentaje zonas habitables se encuentran en terrenos en desnivel. Así, es muy importante contar con herramientas modernas de escaneo que permitan disminuir pérdidas inmuebles y vidas humanos en caso de desastres naturales.
Los avances que se han llevado a cabo sobre este tipo de investigación es bastante corta ya que hay distintas investigaciones como la de la Universidad de Lima de la Facultad de Ingeniería y Arquitectura donde habla parecido del tema pero no es exactamente lo mismo por lo que no hay libro o artículo científico alguno que de avances sobre este proyecto en específico el cual ayude a detectar problemas en zonas en desnivel habitadas.
Las contribuciones de este proyecto radican en el desarrollo de una herramienta importante para la investigación de campo para evaluar el riesgo de asentamiento y planeación urbana en zonas con desnivel. Este trabajo ayudará en la prevención y estimación de daños a considerar frente a catástrofes naturales en zonas urbanas en desnivel.
METODOLOGÍA
En este proyecto se busca poder identificar los distintos puntos de desnivel en alguna zona en específico, ya con eso obtenido identificar los distintos patrones de riesgo que pueden afectar a la zona de desnivel principalmente a través de una digitalización en 3D. Siendo así los resultados obtenidos en nuestro proyecto son el resultado de haber obtenido una digitalización en 3D de una maqueta la cual representaría la zona de desnivel siendo efectiva para darse la idea de cómo es que se hace la investigación en una zona real, se obtuvo una digitalización en 3D con la cual se mostraron los distintos puntos los cuales pudieran tener algún tipo de riesgo en caso de que esa zona tuviese una catástrofe natural.
CONCLUSIONES
En conclusión, este proyecto puede ser bastante beneficioso para ponerlo en práctica en la detección de distintos patrones de movimiento de suelo causados por asentamiento urbano en zonas de desnivel. Este proyecto consiste en la digitalización que puede ayudar bastante para saber que parte de la zona es mas peligrosa o sería la más afectada en alguna catástrofe natural. Este proyecto, llevándose a la aplicación de campo, puede ser beneficioso con la investigación y cálculos adecuados los cuales ayuden a tener un correcto funcionamiento del tema aplicado. También, este proyecto es de utilidad para entender mejor cómo se ocasionan catástrofes, y cómo pueden anticiparse para reducir las pérdidas inmuebles y de vidas humanas.
Ruiz Ortiz Jose Maria, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dr. Jose Bonilla Cruz, Centro de Investigación en Materiales Avanzados (CONACYT)
DISPERSIóN DE TIO2 EN MATRICES POLIMéRICAS PARA IMPRESIóN 3D Y OBTENCIóN DE PROPIEDADES MECáNICAS.
DISPERSIóN DE TIO2 EN MATRICES POLIMéRICAS PARA IMPRESIóN 3D Y OBTENCIóN DE PROPIEDADES MECáNICAS.
Ruiz Ortiz Jose Maria, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dr. Jose Bonilla Cruz, Centro de Investigación en Materiales Avanzados (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Analizar el contenido máximo de nanoparticulas de Dióxido de Titanio para tener una impresión 3D por estereolitografia.
METODOLOGÍA
Se realizó el diseño de Probetas de la norma ASTM D638 tipo IV y de cilindros bajo normativa, para pruebas tensiles y compresibles. posteriormente se imprimió una muestra control para efectos comparativos, luego se añadieron las nanoparticulas al 0.2%,0.4%,0.8% y 1.2% de TiO2 con respecto a la resina, para la impresión de cada mezcla y seguidamente a eso se realizaron pruebas de propiedades mecánicas para llevar acabo la comparación de sus resultados y observar las mejoras en las resinas.
CONCLUSIONES
En la investigación se realizó el análisis de las propiedades mecánicas de los distintos diseños impresos, donde se pudo notar que en los resultados de tensión las propiedades mecánicas no mejoran, al contrario, con las pruebas de compresión si hubo un cambio notorio en sus propiedades.
Ruiz Perez Darwin, Corporación Universitaria Americana
Asesor:Mg. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar
DESARROLLO DE LIBRERíA ESPECIALIZADA PARA EL PROCESAMIENTO DE LENGUAJE NATURAL (PLN)
DESARROLLO DE LIBRERíA ESPECIALIZADA PARA EL PROCESAMIENTO DE LENGUAJE NATURAL (PLN)
Ruiz Perez Darwin, Corporación Universitaria Americana. Vargas López Juan Carlos, Universidad de Guadalajara. Asesor: Mg. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El lenguaje es un fenómeno que persigue al individuo desde el inicio de la humanidad. La automatización de procesos y el uso de inteligencia artificial tiene décadas ocurriendo, el progreso y evolución tecnológica nos regalan un panorama de crecimiento exponencial para las áreas de inteligencia artificial, tecnología que en la actualidad sorprende a la población con sus aplicaciones; asistentes de voz, traductores, auto-completado, recomendaciones y otras son las aplicaciones que reflejan el progreso de la Inteligencia artificial en la sociedad, por lo tanto es necesario adentrarse en los diferentes subcampos de la inteligencia artificial, la visión por computadora, Aprendizaje Profundo (Deep Learning), Aprendizaje de Máquina (Machine Learning), Procesamiento del lenguaje natural (Natural Language Processing) o Computación Cognitiva (Cognitive Computing), son tecnologías se esfuerzan por hacer que el procesamiento de datos logre el mayor beneficio para el aprendizaje posible. El procesamiento de lenguaje natural, requiere enfrentarnos al tratamiento de datos, que va desde la obtención, limpieza, enriquecimiento y traducción de textos, desde texto crudo pasando por la tokenización, limpieza, enriquecimiento y organización. Desarrollar librerías que traten con el texto en español y doten de herramientas especializadas a las personas relacionadas con la investigación de Procesamiento de Lenguaje Natural es una necesidad latente, con modelos en el mercado con GPT-3 que nos muestran la importancia del lenguaje en el avance de la inteligencia artificial en general debemos ayudar al progreso de esta clase de herramientas para texto y modelos en nuestro lenguaje.
METODOLOGÍA
Para lograr un análisis provechoso de la investigación sobre procesamiento del lenguaje natural, fue necesario un análisis de los artículos que hablan sobre herramientas existentes para el tratamiento de los datos en el área, específicamente con el lenguaje de programación Python. Se descartaron aquellos artículos que excedieran como año de publicación 2012 o cuya metodología u objetivos fuesen excluyentes con nuestra investigación. Para obtener la información necesaria y alcanzar el objetivo planteado en este trabajo se seleccionó la librería de tweet-preprocessor que incluye un tokenizador y algunas herramientas para el tratamiento de tuits con etiquetas establecidas.
Ahora bien existe una infinidad de instrumentos que nos permiten filtrar el tuit, el uso de expresiones regulares es una opción que logra encontrar coincidencias en el tuit y las reemplaza(o borra), después de esa limpieza se utilizan librerías especializadas que separan al texto por palabras, pares o tuplas de las mismas, esta técnica es llamada N-Grams,esta técnica está basada en la aplicación de la Asunción de Markov (Markov assumption), que calcula la probabilidad de aparición de una palabra dependiendo solo de un historial limitado, solo influyen una cantidad limitada de Grams en ello. Se utilizó la librería NLTK (Natural Languaje Toolkit) Esta librería incluye un tokenizador de palabras y una función para obtener los N-Grams.
También se incluyen herramientas de clasificación bayesiana de texto, que de acuerdo con un conjunto de funciones basado en un modelo estadístico, calcula de qué palabras y cuántas veces aparecen en el texto. Dado que procesando el contenido del tuit se determinará a qué categoría puede pertenecer, de aquellas que se definan, por ello es de suma importancia la aplicación del teorema de Bayes para calcular la posibilidad de identificar a qué categoría pertenece, teniendo en cuenta la probabilidad que aporta cada palabra. Una vez planificados los cálculos, se tendrá en cuenta aquella categoría que cuenta con mayor probabilidad. En un sentido amplio, los modelos de Naives Bayes son una clase de algoritmos de clasificación de aprendizaje automático. Asimismo dentro de las variables categóricas la utilización de Regresión Logística es una de las herramientas estadísticas empleadas para la descripción de un conjunto de datos.
CONCLUSIONES
El tratamiento de datos que se hizo a lo largo del proyecto fue agregado a una librería que se encuentra en la página Github que es un repositorio online, con ello se espera dejar registro de las herramientas que se utilizan para la investigación relacionada con el procesamiento de Lenguaje Natural y acercarla a los hispano-parlantes. Además de esta tecnología utilizamos algunas de las técnicas de tratamiento para el lenguaje más común, la investigación se seguirá llevando a cabo con análisis del estado del arte para las herramientas implementadas esperando lograr la creación de una librería que permita la construcción de un modelo de clasificación de tuits por sentimientos de principio a fin, incluyendo la implementación y el tratamiento de datos en un solo lugar.
Gracias al desarrollo del verano de investigación se dio un momento de enorme interés y aprendizaje hacia el área de la investigación, trabajar en el procesamiento del lenguaje natural, es una experiencia multidisciplinaria gracias a la que yo y mi compañero de investigación analizamos artículos científicos sobre el tema, adentrándonos un poco a la Inteligencia Artificial y cómo puede relacionarse con la lingüística.
El avance de las herramientas relacionadas PLN es enorme, debemos adaptarnos a los progresos y descubrimientos y aprovechar los avances tecnológicos a nuestro alcance para desarrollar innovaciones. En el caso de esta investigación, el desarrollo de herramientas para el tratamiento de textos es una necesidad, aunque los modelos entrenados con textos en español existen, la documentación se encuentra en inglés, agregado a esto las herramientas que permiten todas las labores de creación y prueba de un modelo estaban separadas con lo que, gracias a nuestro proyecto se tendrán en un solo lugar, facilitando el trabajo para los investigadores y desarrolladores de aplicaciones relacionadas con el Procesamiento de Lenguaje Natural.
Ruiz Ramirez Nahum, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
AGRAVADO POR LA SEQUíA EN LA COLONIA CENTRO DE MORELIA
AGRAVADO POR LA SEQUíA EN LA COLONIA CENTRO DE MORELIA
Ruiz Ramirez Nahum, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Benjamín Lara Ledesma, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Morelia, Michoacán (OEM-Infomex).- Más que una fecha para celebrar este Día Mundial del Agua, es de reflexión, análisis y de conciencia ante la situación compleja que se presenta en la ciudad, ya que en los próximos años el panorama es incierto para un mejor servicio del agua potable en Morelia a los aproximadamente 300 mil usuarios.
Así lo declaró, Julio César Orantes Ávalos, director general del Organismo Operador de Agua Potable, Alcantarillado y Saneamiento (OOAPAS), quien dijo que este año es de los más complicados ante la sequía y falta de lluvia que se viene dando de manera continúa.
Por tal motivo el programa dlfin apoya en la revision de esta problematica y con motivo de analizar y dar soluciones posibles ante la escases de agua en la colonia centro sector revolución
METODOLOGÍA
Haciendo uso de programas como EPANET y Global Mapper, se analizó la red que fue proporcionada por OOAPAS así como datos de Excel donde se encontraron datos de las demandas bases, tipo de tuberías, diámetros y piezas especiales en la red, se hizo una comparación de los datos de Excel así como los datos de EPANET, en la red de EPANET se detectaron anomalías en las presiones de los nodos siendo menores a las permisibles también se encontraron caudales negativos que fundamentado en el manual de EPANET se debe a una modelación de las tuberías contraria al sentido del flujo que se tiene, al hacer los cambios de caudales se pudo corregí algunas velocidades que estaban siendo afectadas, pero al no ser suficiente se tomó la recomendación de OOAPAS de examinar válvulas ya fuese eliminando algunas válvulas o aumentando otras por lo que se tomó como alternativa la implementación de válvulas sostenedoras para poder transferir velocidad a las tuberías siguientes de donde se colocaron las válvulas, de igual manera para mejorar las presiones en los nodos se tomó la opción de aumentar la altura en el equipo de bombeo como segundo panorama posible, y en un tercer panorama se propone modificación de ciertos diámetros de tuberías aportando variaciones con una mejor eficiencia para el correcto funcionamiento de la red.
CONCLUSIONES
En conclusion las modificaciones anteriormente mencionadas pretenden dar una mejora a la red, con la finalidad de poder abastecer de agua a la comunidad de la colonia centro sector revolucion, y de ser posible buscar otras alternativas para implementar y que la modificacion en la red sea eficiente y no requiera de mayor inversion para su mejora.
Ruiz Rodriguez Leonardo, Instituto Tecnológico de Estudios Superiores de Zamora
Asesor:Dr. Raul Paz Alvarez, Instituto Tecnológico Superior de Uruapan
INTERNET DE LAS COSAS CON EL MICROCONTROLADOR PHOTON
INTERNET DE LAS COSAS CON EL MICROCONTROLADOR PHOTON
Ruiz Rodriguez Leonardo, Instituto Tecnológico de Estudios Superiores de Zamora. Asesor: Dr. Raul Paz Alvarez, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Prácticamente cualquier objeto puede conectarse a Internet. Desde electrodomésticos hasta componentes sofisticados de aviación e incluso en cultivos inteligentes. La habilidad de conectar cosas y capturar información útil está transformando a las organizaciones en cada sector de la industria y está abriendo nuevas especializaciones de carrera como lo es el Internet de las Cosas, IoT por sus siglas en inglés (Internet of Things) donde este concepto se refiere al fenómeno que se da al conectar objetos cotidianos al Internet con el fin de controlarlos remotamente para manipularlos y obtener condiciones de estos mismos; por tal motivo en la estancia de Verano de Investigación se hizo una compilación de conocimientos respecto a la IoT, mediante la utilización del microcontrolador Photon de la empresa Particle para posteriormente ampliar el objeto de estudio asociado al IoT y su uso en aplicaciones cotidianas.
METODOLOGÍA
La metodología empleada fue básicamente una metodología experimental y analítica, para ellos se realizó investigación con el apoyo de bibliografía especializada, así como también prácticas dentro de la plataforma web de Particle y el uso de componentes físicos que se conectaron al microcontrolador Photon (Kit de la empresa Código IoT)
CONCLUSIONES
De la presente investigación se ha logrado aprender y entender el funcionamiento del microcontrolador Photon de la empresa Particle; siguiendo una metodología de estudio experimental y analítica, en la cual se utilizaron diversas herramientas como el lenguaje de programación del microcontrolador en la plataforma Web (IDE) así como el uso de algunos componentes que se utilizaron en las prácticas, que mediante el análisis de las prácticas obtenidas, llegué a la conclusión que el microcontrolador Photon de Particle es un dispositivo fácil de usar y de implementar en el IoT, por lo que creo que es primordial que se divulgue su uso en aplicaciones cotidianas tanto empresariales como particulares. Cabe mencionar que gracias al Verano de Investigación Científica y el apoyo del investigador Dr. Raúl Paz Alvarez he reforzado mi formación académica al permitir conocer desde otra perspectiva el uso, la programación y creación de soluciones en el ramo del IoT con el microcontrolador Photon de Particle.
Ruiz Velasquez Elin Daniela, CIAF Educación Superior
Asesor:M.C. Will Johnny Flores Delgadillo, Universidad Nacional de Ingeniería
CONTEXTUALIZACIóN DE LOS INDICADORES CLAVES DE DESEMPEñO SEGúN ITIL V3, CASO DE ESTUDIO: EMPRESA DE NICARAGUA.
CONTEXTUALIZACIóN DE LOS INDICADORES CLAVES DE DESEMPEñO SEGúN ITIL V3, CASO DE ESTUDIO: EMPRESA DE NICARAGUA.
Ruiz Velasquez Elin Daniela, CIAF Educación Superior. Asesor: M.C. Will Johnny Flores Delgadillo, Universidad Nacional de Ingeniería
PLANTEAMIENTO DEL PROBLEMA
La evolución de las tecnologías de información (TI) han creado cambios importantes; las organizaciones adoptan buenas prácticas y procedimientos en la implementación de la TI, para entregar productos y servicios de manera más rápida y con mejor calidad a sus clientes. Entre las diferentes propuestas para gestionar las TI como es la Biblioteca de infraestructura de Tecnologías de Información (ITIL—www.itil.org)
Esta metodología hace uso de Indicadores Claves de Desempeño (KPI) para medir el nivel o grado de cumplimiento de los objetivos de una compañía en términos de su visión y estrategia, por tanto es muy común que gerentes utilicen KPI’s en la gestión de las organizaciones, no solo en el área de Tecnologías de Información, sino en todas las áreas de la empresa a nivel general. Sin embargo, la mayoría de los ejecutivos del negocio y de TI tienen dificultades para gestionar y medir KPIs alineados al negocio. En esta investigacion se toma como caso de estudio una empresa de Nicaragua para contextualizar el uso de KPIs en la entrega de servicio de Tecnologías de la Información, tomando como referencia los KPIs de la entrega de servicio según ITIL V3
METODOLOGÍA
Esta investigación se basó en el desarrollo de un caso de estudio, lo cual incluye en sus principales actividades, la revisión documental, así como, entrevista a personal y usuarios en la empresa del caso de estudio. En este caso particular la empresa aclaró que debido a regulaciones que les rigen, no podía mencionar explícitamente su nombre, no podía mencionar explícitamente su nombre, por lo cual se procedió a firmar un acuerdo de confidencialidad que implica la no divulgación de los datos que identifiquen plenamente a la empresa donde se llevó a cabo el caso de estudio.
Se realizó un análisis con respecto a los KPI de Gestión de Niveles de Servicio sobre los que eventualmente se evaluarían los procedimientos del departamento de sistemas de nuestro caso de estudio; en donde tomaron como criterio de revisión los siguientes puntos:
El nivel de los servicios de TI
La atención al cliente
La forma de gestión de servicios
En la fase de evaluación documental se revisaron el Manual de Procedimientos y el Manual de Funciones, de los cuales se clasificaron sus servicios, herramientas tecnológicas y descripción de procedimientos para poder lograr la identificación de los servicios de TI, incluyendo el personal e infraestructura de cada servicio, así como sus respectivos KPI. También se identificaron los criterios para evaluar procedimientos de la empresa en esta etapa del proyecto fue necesario establecer los cuestionamientos que servirían para obtener la información necesaria para contectualizar los KPI en cada procedimiento, pensando que los cuestionamientos podían estar dirigidos a una área técnica o a una área administrativa.
Basándonos en los KPI de la entrega de servicio según ITIL y utilizando un lenguaje natural, se elaboraron 2 formularios que serian utilizados como instrumentos para obtener respuesta a los cuestionamientos definidos. Las preguntas realizadas se dirigieron a obtener percepciones que fueran medibles y cuantificables. Teniendo en cuenta los procedimientos, el manual de funciones, y las buenas practicas de ITIL, se elaboró una rubrica por cada puesto que labora en el departamento, y teniendo a nuestra disposición las hojas de vida de los trabajadores en nuestro caso de estudio, se aplicó la evaluación, con el fin de saber qué nivel de competencia tenía cada empleado para desempeñar su puesto y proporcionar un buen nivel de gestión de servicios.
Para determinar que indicadores de evaluación del caso de estudio coincidían con el cumplimiento de KPI se revisaron los siguiente documentos: Informe de Gestión y Logros Junio de 2021 de la Dirección de Tecnología (DTIC) de la empresa, Informe de Seguridad Tecnológica y reporte de Google Analitycs Junio 2021 de sitio web, asi mismo, realizó una tabla con la siguiente estructura:
Procedimientos
Indicadores
KPI
Requisitos
Indicador de informe
Esta estructuración nos permitió hacer una comparación y valoración para saber que indicadores nos demuestran que los KPI se cumplen, cuales indicadores podrían reinterpretarse o adaptarse para el cumplimiento del KPI y cuales indicadores no tienen ninguna relación para poder obtener una valoración de los KPI.
CONCLUSIONES
El metodo aplicado es un efectivo en tanto que nos proporciona una radiografia de la presencia y uso de los KPIs en la empresa, por lo tanto consideramos una procedimiento de estudio replicable en otras empresas objetos de investigacion.
Es oportuno mencionar que al informarnos en un caso de estudio como el se que desarrolló durante este tiempo, se descubrió que los KPI de ITIL, tienen cierto grado de adaptabilidad, lo cual permite que cualquier empresa con una área de tecnologías que no cuente con ninguna clase de normativa, puede adaptarse a este estándar sin la necesidad de afectar su funcionamiento diario a corto plazo, lo cual no representaría pérdidas tan significativas a la misma. En la aplicacion de casos de estudio es determinante la disposicion y apertura de las empresas para colaborar con la investigación así como la tenacidad en la motivación por parte del equipo investigador hacia la organización que es objeto de estudio.
El desarrollo de investigaciones en modalidad 100% virtual representa un reto mayor para el desarrollo de este tipo de proyectos por lo cual se debe realizar mayor esfuerzo en dedicación a la distintas actividades de la investigación. Durante el verano de investigación de delfín XXVI, se presentó un aprendizaje significativo; puesto que se permitió informar e indagar en gran medida, en los KPI’s, las normas ITIL y otros temas relevantes correspondientes a la investigación realizada durante esta pasantía; además de brindar la oportunidad de aplicar los conceptos que como estudiantes se han podido adquirir a lo largo de nuestra formación como profesionales, en el área de las tecnologías de información.
Saavedra Hinojosa Xochitl, Universidad Mexiquense del Bicentenario
Asesor:M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit
CARACTERIZACIóN PARA ELABORACIóN MATRIZ DE TRANSICIóN ENERGéTICA: HIDRáULICA (APROVECHAMIENTO DE RíOS Y ESTEROS CON BAJO CAUDAL EN EL ESTADO DE NAYARIT
CARACTERIZACIóN PARA ELABORACIóN MATRIZ DE TRANSICIóN ENERGéTICA: HIDRáULICA (APROVECHAMIENTO DE RíOS Y ESTEROS CON BAJO CAUDAL EN EL ESTADO DE NAYARIT
Saavedra Hinojosa Xochitl, Universidad Mexiquense del Bicentenario. Asesor: M.C. Sergio Raul Bonilla Alejo, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
Durante el verano 2020 se desarrolló en la UTN una investigación denominada Calculo capacidad de generación energética renovable en las IES públicas del Estado de Nayarit, para fortalecer la transición energética y ampliar progresivamente la colaboración educativa regional, siendo este viable para la producción de energía limpia para la UT Nayarit, aportando autogeneración eléctrica con alcance del 28% de la electricidad que se requiere para el funcionamiento anual del campus universitario..
La energía eléctrica producida desde el año 2018 a partir de un Generador Fotovoltaico instalado en el Centro de Medios Digitales (CMD); ha generado un impacto ambiental positivo, la presente investigación realizada durante el Verano 2021, tiene como objetivo caracterizar las condiciones para impulsar la producción de energía eléctrica limpia a base del aprovechamiento hidráulico, de bajo caudal presente en ríos y estéreos que presenten flujo constante durante el periodo de estiaje y que se incrementa tras la llegada del periodo de lluvias en el Estado de Nayarit, para brindar una alternativa de micro-generación y conducción del servicio eléctrico, beneficiando a las comunidades ribereñas presentes a lo largo de los cauces de los ríos de mayor gasto que están presentes en el Territorio de Nayarit, aportando elementos para mejorar la economía local.
Considerando que el Estado Nayarit cuenta con tres importantes ríos: 1.- Acaponeta, 2.- San Pedro y 3.- Santiago/Lerma; presentan dos diferentes tipos de aprovechamientos los ríos libres (Acaponeta y San Pedro) que desembocan de la sierra hasta el mar generando daños a su paso y aquel que tiene control (Santiago/Lerma) de las descargas mediante la construcción de tres presas hidroeléctricas: PH Aguamilpa, PH El Cajón y PH La Yesca.
El desarrollo del proyecto presenta viabilidad, a partir del aprovechamiento hidráulico y geográfico en donde serán identificados y analizadas las zonas consideradas para ser consideradas en este plan de manejo y aprovechamiento, considerando a favor el comportamiento anual que presentan los ríos que conforman la zona, en forma ventajosa durante todo el año.
Para desarrollar la presente investigación, se realizo análisis geográfico y espacial, a partir de una liena de investigación central y 5 caracterizaciones complementarias, todas buscan ser acordes y relevantes para la producción de energías limpias, con la encomienda de desarrollar una matriz de transición energética para ser aplicada en el periodo 2020 - 2050, destacando que la hidráulica es una alternativa con alta factibilidad para mejorar el desarrollo humano y económico a partir de la micro-generación de electricidad que permita impulsar actividades económicas locales..
METODOLOGÍA
Por motivos de contingencia sanitaria relacionada con el COVID-19, para llevar a cabo el desarrollo de la presente investigación la estancia científica se llevó a cabo en la de modalidad virtual, a partir del uso de herramientas digitales.
A continuación se enlistan las herramientas de apoyo que permiten desarrollar la presente investigación, destacando el uso de software de licencia abierta:
Acuerdo de París: Este acuerdo internacional, precisa en el Articulo #4, la regulación y análisis del espacio geográfico analizado, para desarrollar exitosamente una investigación, sin alterar o modificar el espacio, al mismo tiempo que desarrollar efectivamente la investigación, así mismo el Articulo #5 destaca la fijación de medidas para desempeñar de manera responsable el alcance de los proyectos y el medio ambiente global.
Datos abiertos: Esta herramienta es de gran utilidad para la investigación pues genera una manera de obtener datos verídicos de Estado de Nayarit, para conocer con certeza información detallada, siendo esta accesible a cualquier usuario para verificar su veracidad.
Microsoft Visio: esta aplicación permite plasmar gráficamente diferentes tipos de información (VSD), en los cuales se encuentra desarrollar planos (DWG) para delimitar espacios de manera correcta, mapas, diagramas, entre otros. Los cuales permitieron fijar dibujos semejantes al lugar estudiado y así verificar el comportamiento que esté presente.
Q-GIS Ver. 3.16.8 (SIG - Sistema de Información Geográfica).- Aplicación alemana desarrollada en licencia abierta para trabajar con datos abiertos (SHP: shape), recolectando información de diferentes instituciones federales: INEGI, RAN, SEMARNAT. Utilizando las diferentes opciones para identificar ubicación geográfica y su aprovechamiento solar, además de ubicar circuitos de distribución, impacto en la población, entre otras acciones.
INEGI México: esta plataforma web permitió conocer datos verídicos del Estado de Nayarit, para conocer con certeza los espacios idóneos para ser analizados y adaptarse al comportamiento, con el fin de estudiar la posibilidad de producción de electricidad mediante la hidráulica.
CONCLUSIONES
Durante la estancia del Verano Delfín 2021, realizada en la UT Nayarit, basado en la modalidad virtual derivado por la actual pandemia COVID-19, por segunda ocasión se ha generado un nuevo canal de comunicación, utilizando videoconferencias, correos electrónicos, repositorios digitales y revisión de avances documentales en línea.
De manera que la investigación considera la generación y aprovechamiento de electricidad mediante el flujo hidráulico presente en los caudales de ríos en el Estado de Nayarit, aporta beneficios al medio ambiente y a la economía de las localidades ribereñas, fomentando una cultura de aprovechamiento y cuidado del medio ambiente.
El flujo hidráulico de bajo caudal presente en los ríos del Estado de Nayarit, es factible para desarrollar instalaciones hidráulicas, con el objetivo de fomentar la micro-generacion de electricidad que cubra parcialmente las necesidades de las comunidades ribereñas. Fomentando una concientización académica, que puede ser adoptada por los estudiantes al momento de regresar a sus municipios.
Saez Pacheco Brian Andres, Corporación Politécnico de la Costa Atlántica
Asesor:Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PROPUESTA DE REDUCCIóN DE CARGA LABORAL PARA INSPECTORES DE CALIDAD EN UNA EMPRESA DE COLCHONES, UTILIZANDO LA SIMULACIóN.
PROPUESTA DE REDUCCIóN DE CARGA LABORAL PARA INSPECTORES DE CALIDAD EN UNA EMPRESA DE COLCHONES, UTILIZANDO LA SIMULACIóN.
Saez Pacheco Brian Andres, Corporación Politécnico de la Costa Atlántica. Asesor: Mtro. Edgar Jearvavi Vázquez Moreno, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
La calidad es un factor significativo en el éxito de un negocio, por lo que velar por mantener unos estándares altos no es una idea descabellada, la gran versatilidad de adaptación a los fallos, errores, contratiempos y contramedidas que se toman diariamente en todos los procesos y ejercicios relacionados con el óptimo desarrollo de la producción permiten marcar la diferencia de los demás competidores y mantenerse como líder de la competitividad del mercado, yendo de la mano con la mejora continua y el servicio al cliente podemos llegar a ser la primera empresa la cual se nos viene a la mente al pensar en el producto puntual, dejando de ser un simple negocio a ser un referente para los consumidores.
Por lo que, para poder llegar hasta donde apuntamos, debemos mejorar los eslabones más débiles en nuestro sistema y enfocarnos en que mejoras podemos implementar a corto o mediano plazo que representen un cambio positivo, mejorando nuestro desempeño, la calidad de vida laboral para nuestros colaboradores y partes interesadas.
Teniendo en cuenta lo anteriormente descrito, para que podamos evolucionar debemos de fortalecer nuestros puntos débiles, como la sobrecarga laboral, la creciente cantidad de PNC y reprocesos, debido a que estos tienen un efecto directamente proporcional con la calidad del producto y por ende degradan la se dé un buen servicio es necesario que el que lo brinda se sienta cómodo, es decir, que no tenga sobrecargas laborales, partiendo de ahí, cualquier carga laboral excesiva va a perjudicar la calidad del servicio y por consecuente va a disminuir la satisfacción del cliente.
Con base a esto, en la empresa ESPUMADOS DEL LITORAL SA se presenta una gran cantidad de devoluciones por motivos de calidad, así como reprocesos y PNC, cabe destacar que la alta producción diaria es abrumadora para los inspectores de calidad, quienes diariamente hacen un esfuerzo abismal por intentar seguirle el ritmo a los procesos de producción, generando una sobrecarga de trabajo, estrés, por lo que es de vital importancia buscar alternativas y soluciones a estas problemáticas.
METODOLOGÍA
Como herramienta de trabajo, se utilizó software ProModel, en donde se pudo plasmar el proceso de inspección que realiza el inspector de calidad específicamente en el área de ensamble en la empresa ESPUMADOS DEL LITORAL SA, partiendo de allí, con la ayuda de una inspectora se recolectan los datos de las inspecciones realizadas durante el periodo de intercambio virtual, los datos recolectados fueron, la cantidad de colchones fabricados por jornada, el número de unidades revisadas en la jornada y el número de PNC encontrados, estos se registraron en Excel , para luego pasarlos al software ProModel y de esta manera el poder correr la simulación y ver que falencias se presentaban en el proceso inspección en el área de ensamble.
Gracias a los datos suministrados y al análisis realizado con el software se pudieron sacar las siguientes conclusiones, la carga laboral del inspector es bastante elevada, hasta de un 80% de la jornada solamente en inspección, si bien el personal de calidad del área revisa casi que toda su jornada laboral omitiendo los tiempos perdidos entre desplazamientos y demás labores ajenas a la revisión pero que también hacen parte de su trabajo, como por ejemplo rellenar los formatos de inspección para clientes exclusivos y llenar la bitácora para el histórico, este alcanza a revisar hasta el 35% de la producción diaria y de esa cantidad de productos revisados hasta el 45% presentan inconformidades graves.
por ende para reducir esa carga laboral y aumentar la revisión de la producción, así que se procedió a realizar cambios en los parámetros, encontrando así una propuesta de mejora para la problemática, la cual es agregar a otro inspector para un trabajo conjunto y en los cierres de mes donde más volumen de producción se presenta considerar tener a un tercer inspector en el área, que representaran un aumento en la revisión y por lo tanto detección de inconsistencias con los productos, evitando que estos lleguen en mal estado al cliente final.
CONCLUSIONES
A lo largo de la estancia de verano, pude obtener conocimientos sobre la simulación, tanto los pro como los contras, como podemos implementar cambios en nuestros sistemas sin realmente afectar el sistema actual pudiendo tener una base sólida para consolidar la toma de decisiones, determinando si es conveniente o no traer el ejercicio realizado en la simulación a la realidad, siendo el caso que todo lo visto fue puesto en práctica por medio del software ProModel utilizado para la generación de los entornos de simulación.
Sagrero Guzman Jessica Yuridia, Instituto Politécnico Nacional
Asesor:M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
OPTIMIZACIóN EN EXTREMIDADES Y ELECTRóNICA DE UN DISPOSITIVO TIFLOTéCNICO PARA LA ENSEñANZA DEL BRAILLE INICIAL.
Moreno Cruz Julia Audrey, Instituto Politécnico Nacional. Rojo Cabrera Mauro Antonio, Instituto Politécnico Nacional. Sagrero Guzman Jessica Yuridia, Instituto Politécnico Nacional. Asesor: M.C. Dorian Rojas Balbuena, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Según los datos presentados en la Gaceta LXII/3PP0-15, se establece que de la población mexicana al menos el 5.1% presenta algún tipo de discapacidad, la cual en el 2014 representaba a 6.7 millones de mexicanos, de estos, 1.5millones tienen discapacidad y dentro de este grupo 145 mil son niños. En México sufrir de esta discapacidad representa todo un reto, pues los programas de enseñanza son escasos, si se considera que al igual que todos, las personas ciegas necesitan aprender a leer y escribir como parte de su proceso educativo, se vuelve imprescindible encontrar un método de lectura y escritura útil para ellos. Tan solo en México este sector ha sido puestos a un lado ya que se desconoce la cantidad de mexicanos invidentes con acceso a la educación y/o conocedores de braille. Los recursos disponibles son poco accesibles y costosos para la mayoría de la población, el desarrollo de este dispositivo permitirá a los niños con ceguera iniciar su aprendizaje en el Braille de manera divertida y autodidacta abriéndoles la oportunidad de acceder a una educación de calidad inclusiva y equitativa, para en un futuro promover estas oportunidades de aprendizaje para todos de manera permanente.
METODOLOGÍA
Para el diseño de las patas se consideró mantener la ergonomía del dispositivo,y se vuelve imprescindible asegurar la adaptabilidad del dispositivo a los problemas y necesidades del consumidor, llevando consigo la responsabilidad de tomar en cuenta las exigencias físicas, psicológicas y sociales de los niños que usarán este dispositivo para la lecto-escritura del braille.
Para alcanzar el diseño de un dispositivo ergonómico es necesario tomar en cuenta las dimensiones del cuerpo que interactúan con el dispositivo, de esta manera entra en función la antropometría. Según Villareal se puede definir la antropometría como el estudio de las medidas del cuerpo en sus distintas posiciones al realizar distintas actividades.
Antes de realizarse la recogida de datos fue necesario entender el propósito de la medida que se buscaba, pues esta debía resolver alguna incógnita del diseño, si no lo hacía dicho dato se volvía innecesario en el modelo, de esta manera se desechan la información menos significativa y se generan patrones antropométricos de diseño.
Para la reingeniería se cambiaron medidas y texturas, por lo que antes de ser impresas los cambios fueron expuestos a un niño de 8 años el cual conoce la lecto-escritura Braille, y aprobaba o rechazaba los cambios según las experiencias adquiridas durante su propio proceso de aprendizaje.
Las medidas patrón para realizar el diseño se basaron el trabajo titulado Dimensiones Antropométricas de la población mexicana de Rosalío y Prado el cual proporcionó las medidas básicas para niños de 2 a 17 años. Sin embargo, no era tan especifico como para proporcionar el diámetro de cada uno de los dedos por lo que se complementó la escala con el estudio de José Melo titulado Ergonomía desde el punto de vista de la Higiene y seguridad Industrial, el cual nos proporciona las medidas de cada uno de los metacarpianos de las palmas de las manos, aunque con la desventaja de que su población muestra es mayor a 20 años, así que se buscaron dos métodos, el Método A es dividiendo el ancho de la palma de la mano entre 4 asumiendo que el diámetro de todos los dedos es el mismo y el método B fue deducir medidas conocidas en ambos estudios y encontrar las desconocidas al re-escalarlas. Los datos obtenidos por el método B las medidas de los dedos medio e índice son iguales, mientras que el del anular es ligeramente menor, sin embrago, cuando se emplea el método A las medidas quedan por arriba de la tendencia, de manera que se decidió emplear el método B como patrón para el diseño del dispositivo.
Para el diseño de las patas que conforman el dispositivo se realizó un análisis para considerar si un modelo se podía adaptar a las necesidades de toda la gama de usuarios o si era necesario realizar dos modelos. Se observan los datos que son resultado de la diferencia entre la edad superior y la menor para cada rango de edad. Se observa que la diferencia de diámetros se aproxima a los 10 mm lo cual es una magnitud grande ya que el dispositivo podría resbalarse de las manos de los niños más pequeño. Se procedió a dividir las edades en dos bloques, considerando la edad media los 9 años, se observa que la diferencia mayor es de 4.59 mm, y deducimos que después de los 15 años el crecimiento comienza a ser menor, de manera que la división de dos bloques es aceptable.
Se tomaron en cuenta distintas texturas a partir de figuras geométricas que pudieran ser implementadas en la impresión 3D.
Parecería una tarea sencilla, pero existen técnicas y consideraciones en el diseño de PCB’s. Antes de crear una tarjeta electrónica fue esencial realizar un circuito base para verificar la correspondencia en tamaño entre componentes considerando interconexiones. Una vez obtenidas las medidas entre componentes se puede empezar el diseño. En diseño de PCB’s se exige exactitud y precisión, por lo que fue necesario emplear un software de diseño asistido por computadora.
CONCLUSIONES
El proceso de optimización de este dispositivo fue dirigido hacia la ergonomía, la parte electrónica y las texturas que pueden favorecer el entrenamiento de la yema de los dedos para el aprendizaje del Braille. Se indagó sobre la antropometría de los dedos de las manos recuperando estudios previos enfocándose en las medidas en los metacarpianos. Al mostrar los avances a un posible usuario se establecieron nuevos parámetros a observarse, como la calidad de material y las diferentes angulaciones del dispositivo tiflotécnico, permitiendo dirigir la investigación hacia el cubrimiento de las necesidades del usuario.
El producto obtenido es una tarjeta electrónica simulada en un software de diseño electrónico sujeta a cambios con el fin de ofrecer la mayor efectividad posible. Eventualmente la PCB va evolucionando y se hacen correcciones a lo largo de las semanas, se continúa trabajando en modificaciones a la actualidad para pasar a la etapa de pruebas de funcionamiento.
Salas Estrada Luis Felipe, Corporación Politécnico de la Costa Atlántica
Asesor:Dr. José Alfonso Gómez Sánchez, Instituto Tecnológico Superior de Las Choapas
DESARROLLO DE UN MóDULO DE REALIDAD AUMENTADA PARA APRENDIZAJE DE FIGURAS GEOMéTRICAS.
DESARROLLO DE UN MóDULO DE REALIDAD AUMENTADA PARA APRENDIZAJE DE FIGURAS GEOMéTRICAS.
Salas Estrada Luis Felipe, Corporación Politécnico de la Costa Atlántica. Asesor: Dr. José Alfonso Gómez Sánchez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
Identificación del problema: Bajo rendimiento de los niños de primaria en el área de matemáticas en Colombia y en México.
Contextualización del problema: Según informes realizados a nivel nacional en Colombia en el año 2018 por medio de los resultados obtenidos por los niños en las pruebas saber en matemáticas se obtiene que el 53% de los niños sacan un puntaje mínimo en matemáticas y solo el 47% sacan un puntaje satisfactorio donde el 23% es un puntaje excelente. Respecto a México, el Plan Nacional para la Evaluación de los Aprendizajes (PLANEA), evalúa el aprendizaje de las matemáticas a nivel primaria agrupando los resultados en cuatro niveles, el nivel más bajo es el I y el más alto es el IV, en el año 2018, el 77% de los niños se ubicaron en los niveles I y II (insuficiente y básico) de aprendizaje.
METODOLOGÍA
Para la elaboración del proyecto se utilizó la metodología RUP (Proceso Unificado de Desarrollo), ya que junto con el Lenguaje Unificado de Modelado (UML), constituye la metodología estándar más utilizada para el análisis, diseño, implementación y documentación de sistemas orientados a objetos.
A continuación, se describe cómo se aplican varias fases de la metodología RUP en la realización de este proyecto, es importante mencionar que en cada una de las fases se utilizan diversas disciplinas de ingeniería de software.
Fase de Iniciación
Obtención de Requerimientos
Durante esta fase se realizó la obtención de requerimientos utilizando las técnicas de entrevista y observación, se tomaron como base los temarios de los libros de matemáticas de primaria, así como los requerimientos que se obtuvieron en reuniones con maestros y alumnos de primaria.
Fase de Elaboración
Análisis y diseño
De acuerdo al documento de Especificación de Requisitos de Software, se realizó la arquitectura de la aplicación móvil de realidad aumentada, esta arquitectura se llevó a cabo mediante un diagrama UML de componentes y de despliegue.
Posteriormente se realizó el diseño de botones que permitían interactuar con diferentes escenas con la cámara de realidad aumentada(AR).
Se realizó el diseño de interfaces de la aplicación de realidad aumentada basándose en la normativa de diseño Material Unity para dispositivos que cuenten con el sistema operativo Android.
Implementación (Desarrollo de la aplicación móvil de realidad aumentada)
Se inició con el desarrollo del código de la aplicación móvil de realidad aumentada, para esto se hizo uso de la plataforma de desarrollo Unity ya que tiene soporte de compilación con diferentes tipos de sistemas operativos, el uso de Unity contribuye al desarrollo de la aplicación móvil ya que se desarrolló para dispositivos móviles con sistema operativo Android e IOS.
También se hizo uso de Vuforia ya que Vuforia permite a los desarrolladores de Unity crear experiencias AR atractivas y llegar al mayor público posible. Despliega tu proyecto de AR en una amplia gama de dispositivos portátiles y que se llevan en la cabeza para iOS, Android y UWP y desbloquea categorías nuevas de apps que superponen el contenido digital a los objetos 3d físicos.
Fase de Construcción
Implementación (Desarrollo de la aplicación móvil de realidad aumentada)
Se continuó con el desarrollo del código de la aplicación móvil de realidad aumentada, haciendo uso de Unity y Vuforia.
Se realizó la aplicación móvil de realidad aumentada en dónde se tiene un menú principal con 2 secciones:
Sección 1 Figuras geométricas en 3D: se utilizaron targets para activar la realidad aumentada, en donde se tiene acceso a visualizar un cubo, esfera, pirámide, rectángulo, ovalo, rombo, estás figuras pueden cambiar de color y girar en el sentido de izquierda a derecha y viceversa.
Sección 2 Figuras geométricas en 2D: se utilizaron targets para activar la realidad aumentada, en donde se tiene acceso a visualizar un cuadrado, circulo, triangulo, rectángulo, ovalo, rombo, en estas figuras se pueden ver los lados y ángulos.
Se incorporaron diversos canvas para colocar botones y textos los cuales permitían una mejor experiencia en la aplicación para su fácil utilización en cada escena.
La programación del cambio de escenas y movimientos de objetos se realizó en el lenguaje de programación C#.
Pruebas funcionales y no funcionales
Se realizaron las pruebas funcionales y no funcionales de la aplicación móvil de realidad aumentada, estas pruebas se realizaron desde una laptop.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del problema de aprendizaje de las matemáticas tanto en Colombia como en México, así mismo se aprendieron conocimientos prácticos del software Unity y el complemento Vuforia para la creación de bases de datos de Targets para el uso de la realidad aumentada.
El trabajo realizado en la estancia es de un proyecto global que se está trabajando actualmente en el Instituto Tecnológico Superior de Las Choapas, en este proyecto de la estancia solo se realizaron pruebas funcionales, quedando como trabajo futuro el diseño del experimento de evaluación.
Para el diseño del experimento se realizará lo siguiente:
Se determinará el universo y el tamaño de la muestra, las actividades que realizarán los alumnos y maestros para probar la aplicación. Se realizarán los instrumentos de recolección de datos para aplicarse en cuanto termine el tiempo de utilización de la aplicación móvil. Para la evaluación de la aplicación se utilizará la metodología de aceptación de la tecnología que permitirá obtener los factores de facilidad de uso, utilidad e intención de uso. Se espera que con el uso de la aplicación móvil de realidad aumentada se fortalezcan los índices de aprovechamiento de las matemáticas en los niños de primaria.
Salas Gonzalez Ingrid Alexia, Instituto Tecnológico Superior de Pánuco
Asesor:Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara
METODOLOGíA SCOPPE
METODOLOGíA SCOPPE
Salas Gonzalez Ingrid Alexia, Instituto Tecnológico Superior de Pánuco. Asesor: Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Actualmente, vivimos en una época de rápido crecimiento tecnológico, en la que todos debemos de estarnos actualizando para poder ir al día con los avances de desarrollo que se requieren en la industria, gobierno, y sociedad.
Hoy en día, se encuentran muchas herramientas disponibles que nos permiten hacer el desarrollo, planteamiento e implementación de proyectos desde sus inicios.
Algunas de las herramientas que permiten ser flexibles y que además son fáciles de usar para todo el público es la metodología Design thinking que considera tan importante el análisis y el raciocinio como la intuición para la resolución de problemas, permite construir ideas en base a la función y a emociones. Esta metodología gira alrededor de la experiencia del usuario.
Otra de ellas es el uso de metodologías ágiles como Scrum que es un proceso en el que se aplican de manera regular un conjunto de buenas prácticas para trabajar colaborativamente, en equipo, y obtener el mejor resultado posible de un proyecto.
Si los proyectos se requieren tener impacto social, una de las herramientas más sencillas de usar y fáciles de comprender es la metodología de Kano la cual supone que la satisfacción de los clientes era proporcional a la funcionalidad de las diversas características del producto (lo que llamamos unidimensionalidad). Esta proporcionalidad no siempre se manifiesta, y en algunos casos el cliente está menos satisfecho cuando el producto es poco, pero no está más satisfecho si la funcionalidad supera cierto nivel (requerimientos obligatorios). En otros casos, el cliente no está insatisfecho por la falta de funcionalidad, pero si esta se incrementa su satisfacción aumenta (requerimientos deleitosos o atractivos).
METODOLOGÍA
Se realizó un ejemplo para validar el uso de esta herramienta integral SCOPPE mediante la aplicación de un proyecto desde su definición. El proyecto que se decidió realizar fue el localizar GPS para mascota.
Primeramente, recurrimos a la fase empatizar de la metodología Desing Thinking, enlistando los productos similares a la idea, después, localizamos las características que hacían que esos productos fueran atractivos para el mercado, pensando en cuáles serían las mejores ideas para adaptarse a nuestro proyecto, cuáles serían las que no estarían presentes y agregando más características que harían la diferencia del proyecto a los productos ya existentes.
Posteriormente comenzamos a focalizar el mercado meta, pensando de qué manera llegaríamos a posicionar el dispositivo que teníamos en mente para el proyecto, fue así como comenzamos con la implementación de las encuestas, la primera parte de ella eran preguntas relacionadas a conocer el mercado y la segunda parte eran las preguntas de la metodología de Kano.
Después de aplicar las encuestas, procedimos a vaciar la información en un documento de Excel, con los resultados obtenidos, se interpretaron los atributos que formarían parte de la idea.
CONCLUSIONES
Con los resultados obtenidos nos percatamos que los atributos propuestos fueron bien recibidos, participaron un total de 45 personas, en una encuesta que engloba dos partes, la primera se enfocaría en conocer el género y el rango de edad de las personas, además de contener ciertas preguntas abiertas que nos servirían para relacionar los resultado obtenidos con la segunda parte de la encuesta, que se basaba en la metodología de Kano, misma que nos ayudaría a evaluar en una escala establecida, si los atributos asignados les gustarían o no al mercado meta, que sería enfocado en hombres y mujeres de 20 a 25 años de edad.
Los atributos que generaban satisfacción se enfocarían en el diseño y el precio, mientras que los atributos que son dirigidos al funcionamiento como el poder vincularse al celular, la ubicación en tiempo real y la resistencia al agua representarían importancia para el desarrollo del proyecto.
En cuanto al factor que haría diferente a nuestro producto, pensamos en que la batería se recargara con paneles de luz solar, una idea sustentable e innovadora.
Por último, concluyo que el uso de las tres metodologías, impacta de manera positiva al desarrollo de la idea, por su parte la etapa empatizar de la metodología Desing Thinking, fue el sustento practico para desarrollar la idea y la metodología de Kano, nos ayudó para entender el comportamiento del mercado meta en cuanto a los atributos de la idea propuesta.
Salas Montijo Itzel Paola, Universidad de Sonora
Asesor:Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit
CARACTERIZACIóN DEL USO DE LA ENERGíA: FOTOVOLTAICA POSIBILIDAD DE APROVECHAMIENTO SOLAR POR LAS COORDENADAS DONDE SE UBICA EL TERRITORIO DE NAYARIT
CARACTERIZACIóN DEL USO DE LA ENERGíA: FOTOVOLTAICA POSIBILIDAD DE APROVECHAMIENTO SOLAR POR LAS COORDENADAS DONDE SE UBICA EL TERRITORIO DE NAYARIT
Salas Montijo Itzel Paola, Universidad de Sonora. Asesor: Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
La energía eléctrica se produce, habitualmente, en centrales eléctricas que operan favoreciendo el giro de turbinas empujadas por vapor de agua calentada, a partir de reacciones nucleares o de la combustión de hidrocarburos, lo cual contribuye a la emisión de contaminantes tales como NOX , SOX , CO, PM10 , PM25 y compuestos orgánicos volátiles (COV) que afectan la calidad del aire, y por ende la salud humana.
En México, la mayor parte de las fuentes (capacidad instalada) con que la CFE genera energía eléctrica utiliza recursos no renovables (termoeléctricas, 73.5%); el 23.8% de las fuentes usa recursos renovables, y un 2.7% requiere de una energía de tipo alternativo para tal fin, como es el caso de la nuclear.
La radiación solar que recibe Nayarit, lo posiciona como un lugar idóneo para el aprovechamiento de la energía solar. Mientras que la media nacional de irradiancia ronda los 5 KW por metro cuadrado por día, en Nayarit se alcanzan los 7 KW por metro cuadrado por día, y tomando en cuenta las temperaturas en promedio bajas del estado resulta un desempeño mas eficiente.
Debido al crecimiento constante y a la demanda cada vez mayor de este recurso es necesario analizar la importancia y viabilidad del invertir en tecnologías para la generación de energías limpias en base a la ubicación geográfica de Nayarit e implementarlo en zonas estratégicas para su mayor aprovechamiento, como se ha hecho ya en las instalaciones UT de Nayarit.
Esta caracterización es una parte fundamental para El Gran Plan de Desarrollo 20-50. Un nuevo modelo que garantiza solidez a procesos de planeación y tendrá como columna vertebral la participación ciudadana, con esta caracterización se sentaran las bases para generar una Matriz para la Transición Energética del Estado de Nayarit, misma que es una línea de investigación lidereado por los miembros del Cuerpo Académico: Innovación Tecnológica de Ciencias Ambientales y Energías Renovables (ITCAR) de la UT de Nayarit.
METODOLOGÍA
Etapa 1. Se realizó un análisis de la producción de energía eléctrica a base de recursos no renovables y como esto afecta significativamente al medio ambiente, para ello fue necesario:
Se identificaron las principales fuentes de energía eléctrica a nivel nacional.
Estudio del uso energético en el estado de Nayarit y buscar alternativas beneficiarias ante este problema.
Se analizo la implementación de energía fotovoltaica en lugares donde se encuentre una eficiencia considerable.
Etapa 2. Se necesito el apoyo de softwares de licencia libre, y acceso a datos libres para sustentar y presentar la información obtenida anteriormente, como lo son:
QGIS (software)
Project (software)
Google Earth (software)
Datos libres México (fuente de información)
INEGI (fuente de información)
CFE en línea (fuente de información)
CRE (fuente de información)
Etapa 3. Integración de la información en recabada en las fuentes mencionadas en la etapa 2 en el documento de la caracterización.
CONCLUSIONES
En este verano de investigación se tuvo la oportunidad de crear la caracterización para el aprovechamiento de la energía fotovoltaica, misma que será utilizada para una futura activación de este recurso en más proyectos de la Universidad y el estado. Actualmente la Universidad Tecnológica de Nayarit a través de varios proyectos ha implementado paneles fotovoltaicos en sus instalaciones y con los datos obtenidos se espera continuar con el desarrollo otros proyectos.
Es atrayente, sin duda el tema del uso de las energías renovables, en este caso en las instalaciones de la UT Nayarit donde queda de manifiesto que la implementación de este tipo de energías contribuye significativamente en el ahorro en los gastos que habitualmente se realizaban al pagar las cuentas del consumo de energía eléctrica. De esta manera, se crear un cambio significativo, ya que el uso de la energía eléctrica cada vez es mayor, y esto provoca un aumento en las emisiones de contaminantes hacia la atmosfera.
Salazar Adame Dorian David, Universidad de Colima
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
GESTIóN DE RESIDUOS PARA LA CONSTRUCCIóN
GESTIóN DE RESIDUOS PARA LA CONSTRUCCIóN
Salazar Adame Dorian David, Universidad de Colima. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Está de más decir el momento tan crítico por el que nuestro planeta está pasando, estamos ante problemas como el calentamiento global, agotamiento de recursos, sequias, incendios, desastres naturales, entre otros. En el gremio de la ingeniería civil y arquitectura se han estado buscando alternativas o estrategias para reducir el impacto ambiental que se puede generar en la fabricación de materiales indispensables para la construcción.
La producción de plástico pasó de ser de 2 millones de toneladas anuales en la década de los 50 en el siglo 20 a 380 millones en la actualidad, a nivel mundial. Lo que realmente preocupa es que, se espera que, para los próximos años la industria del plástico duplique esta cifra, llegando a superar los 700 millones de toneladas de plástico producidas alrededor del mundo. (Rivas, Miguel. (2019). La crisis de la contaminación plástica)
La humanidad consume recursos extraídos directamente del planeta, llegando a agotar a estos mismos por la explotación. Pero qué pasaría si en lugar de tomarlos como materia limpia, reutilizamos materiales que normalmente desechamos sin darnos cuenta que aun pueden tener un uso valioso en la construcción.
METODOLOGÍA
En esta estancia virtual se estudiaron tres proyectos realizados en el laboratorio de materiales Luis Silva Ruedas, de la Facultad de Ingeniería Civil, de la Universidad Michoacana de San Nicolás de Hidalgo, los cuales consisten en incorporar residuos a mezclas para la construcción a base de cemento portland: PET, cenizas y componentes electrónicos. Se describen a continuación los proyectos analizados.
Se inicio con la aplicación de fibras de botellas de PET en la mezcla para incrementar su rendimiento. Para la prueba se utilizaron dos mezclas, una de control con proporciones de un concreto convencional y una segunda mezcla en la que se añadió 0.8% de fibras de PET con respecto a la masa del cemento. A estas mezclas se les realizaron pruebas de resistividad eléctrica. Velocidad de pulso ultrasónico, resistencia a la compresión, a la tracción y a la flexión a las edades de 7 y 28 días.
Por el lado de la aplicación de cenizas como producto cementante, se hicieron pruebas no destructivas, entre las cuales esta absorción capilar, resistividad eléctrica y velocidad de pulso ultrasónico a la edad de 1000 días, a morteros con sustituciones puzolánicas en su composición.
Toca el turno de los residuos de componentes electrónicos. Para la obtención de la materia prima MC (Molienda de componentes) se realizo la recolección, trituración, tamizado y pulverización, para después proceder a hacer las mezclas de mortero con porcentajes de sustitución de 5 y 10% de MC.
El cemento utilizado fue CPC 30 R RS, para iniciar se hizo la prueba de densidad y se evaluó la consistencia normal y tiempos de fraguado de la pasta del cemento. El resultado arrojado en dichas pruebas fue que el agregado fino es apto para ser utilizado en la construcción.
Los morteros que se elaboraron para las pruebas fueron con una relación de arena-cementante 1:2:75. La relación de A/C fue de 0.68. Las pruebas se realizaron a las edades de 28, 60 y 90 días, dichas pruebas fueron no destructivas como resistividad eléctrica, velocidad de pulso y compresión simple (ASTM-C-109M, 2002).
CONCLUSIONES
Iniciando con el caso de los residuos PET. Con los resultados se mostró una mejora pequeña en el comportamiento mecánico de la mezcla con sustitución en el agregado pétreo respecto a la mezcla convencional, dado que esta última se presenta una falla inesperada. Por otro lado las pruebas de velocidad de pulso y resistividad eléctrica indican que la mezcla producida presenta buena calidad y durabilidad.
Por parte del material puzolánico, los resultados arrojan que la sustitución parcial del cemento Portland aumenta las propiedades y prestaciones del mortero, en especial en sustituciones de CBC 20%, PN 10 y 30%
En el caso de los residuos de componentes electrónicos los tiempos de fraguado se retardan en los morteros con adiciones, pero sin rebasar el límite que marca la especificación (NMX-C-021-ONNCE 2004). La resistividad eléctrica del mortero con adición de MC a edades tempranas es baja, sin embargo a la edad de 90 días presenta un valor superior, incluso a los valores que presentó el de control. La resistencia a la compresión simple entre la mezcla de control y la de MC 5% hasta los 60 días es muy similar, por otro lado la mezcla de MC 10% siempre es superior a éstas, superando en 18% a MC 5% y a la de control en 31%.
El sustituir el cemento portland por MC presenta beneficios para el mortero, pues proporciona mejoras en el comportamiento mecánico.
Todas las alternativas anteriores ayudan al ambiente pues en algunos casos se reduce la producción de cemento portland que es una las industrias que mas CO2 liberan al ambiente, contaminándolo, además de que se evita el desecho de materiales que son tóxicos para la naturaleza como es el caso de los componentes electrónicos.
Referencias:
Blancas-Herrera, Victor & Martinez Molina, Wilfrido & García, Hugo & Pacheco-Segovia, Jorge & Argüello-Hernández, Sandra & Díaz-González, Noel & Cruz-Reyes, Hypatia & Alonso-Guzman, E. & Ruiz, Rosalía. (2020). Evaluation of the Mechanical Strength of a Concrete Modified with PET Fibers from Post-Consumer Bottles. Key Engineering Materials. 862. 66-71. 10.4028/www.scientific.net/KEM.862.66.
Ruiz, Rosalía & Alonso-Guzman, E. & Martinez-Molina, Wilfrido & García, Hugo & Perez, Judith. (2017). Non-Destructive Tests as Durability Indicators in Cement Mortars with Pozzolanic Substitutions. Materials Science Forum. 902. 9-13. 10.4028/www.scientific.net/MSF.902.9.
Perez, Judith & Leal, Omar & Arreola Sánchez, Mauricio & Martinez Molina, Wilfrido & Rivera, Miguel & Rodriguez, Felipe & Ruiz, Rosalía. (2018). Comportamiento Físico-Mecánico de Morteros Base Cemento Portland con sustituciones de residuos de componentes electrónicos.
Salgado Martinez Yahaira Guadalupe, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dr. Luis Fernando Castillo Ossa, Universidad de Caldas
SIRPLAN SISTEMA INTELIGENTE DE RECONOCIMIENTO DE PLANTAS (INVERNADERO)
SIRPLAN SISTEMA INTELIGENTE DE RECONOCIMIENTO DE PLANTAS (INVERNADERO)
Aguilar Carreño Aishazury, Universidad Tecnológica de Huejotzingo. Salgado Martinez Yahaira Guadalupe, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Luis Fernando Castillo Ossa, Universidad de Caldas
PLANTEAMIENTO DEL PROBLEMA
Se pretende a través de esta pasantía de investigación, desarrollar un Sistema Computacional que a través de la aplicación de Técnicas de Aprendizaje de Máquina, permita el reconocimiento de plantas, para sugerir el cuidado, seguimiento y recomendaciones generales para el cuidado de ellas.
METODOLOGÍA
Se pretende realizar el trabajo a partir de las siguientes etapas
Definir los tipos de plantas que por interés de la comunidad o los interesados de la aplicación, son importantes u aportan para su reconocimiento automática a partir de imágenes.
Establecer la configuración (propiedades) de los archivos de imágenes con respecto a su tamaño, color, formato para aplicar técnicas de reconocimiento de patrones.
Definir los aspectos generales para la creación del Dataset de Referencia (Entrenamiento y Validación) de acuerdo con las plantas definidas.
Entrenar una red neuronal artificial a través del Lenguaje de Programación Python que permita definir los pesos sinápticos en las neuronales.
Establecer los resultados de validación a partir de un Subconjunto de imágenes de entrenamiento.
Sugerir las recomendaciones a partir del reconocimiento de las plantas.
Crear una aplicación de consola para la validación y para una fase posterior definir una aplicación WEB ( A trsvés de servicios WEB).
CONCLUSIONES
Es un proceso metodológico, secuencial de apropiación de técnicas de IA para un objetivo en particular.
Obtener resultados, analizarlos y sugerir recomendaciones para la aplicación de este tipo de técnicas.
Implementar una estrategia computacional para solucionar el problema.
Validarlo para su posterior continuidad en un entorno real, para recomendaciones en el cuidado de las plantas.
Salgado Ospina David, Universidad Autónoma de Manizales
Asesor:M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
DESARROLLO DEL SISTEMA DE INFORMACIóN WEB PARA EL PROYECTO PROBAUAM (FASE 1)
DESARROLLO DEL SISTEMA DE INFORMACIóN WEB PARA EL PROYECTO PROBAUAM (FASE 1)
Salgado Ospina David, Universidad Autónoma de Manizales. Asesor: M.C. Bruno Barboza Orozco, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
El sistema de realidad virtual basado en el protocolo de ejercicios terapéuticos PROBAUAM, el cual tiene como objetivo apoyar la rehabilitación de personas mayores con problemas de control postural e inestabilidad, se encuentra compuesto por minijuegos (ejercicios del protocolo), por medio de los cuales se realiza una intervención lúdica permitiendo impulsar experiencias dinámicas encargadas de evitar la sensación de realizar terapias convencionales. Teniendo en cuenta lo anterior, se presenta la necesidad de desarrollar una plataforma que permita la gestión de las intervenciones al utilizar el sistema de inmersión en RV.
METODOLOGÍA
Como parte del macroproyecto, el trabajo realizado en la pasantía estuvo inmerso en la metodología de desarrollo ágil Scrum; sin embargo, fue planeado y desarrollado teniendo en cuenta la metodología cascada, compuesta por el análisis, diseño, implementación, verificación y mantenimiento.
El análisis del sistema fue realizado mediante observación y reuniones con los interesados, como producto se obtuvieron las historias de usuario y la descripción de requisitos funcionales y no funcionales de la plataforma; el diseño, se encuentra conformado por el diagrama entidad relación, de arquitectura y de roles y permisos, diseño de los servicios REST y mockups; la implementación se desarrolló en 3 fases, primero la creación del proyecto, bases de datos y migraciones; posteriormente, desarrollo del módulo de login, registro y manejo de roles y permisos; y finalmente, el desarrollo de 4 test. Las etapas de verificación y mantenimiento, se encuentran contempladas en el macroproyecto.
CONCLUSIONES
PRINCIPALES RESULTADOS DE AVANCE
Durante la pasantía fue posible realizar el análisis y diseño del sistema de información, el cual se compone de historias de usuario, requisitos funcionales y no funcionales, diseño de servicios REST, diagrama de roles y permisos, diagrama entidad relación, diagrama de arquitectura y mockups de la plataforma. Adicionalmente, se implementaron los módulos de login y registro, teniendo en cuenta el manejo de roles y permisos, finalmente se inició con el desarrollo de los test en la plataforma.
CONCLUSIONES DE AVANCE
El programa Delfín impacta favorablemente, mediante el periodo de pasantía y el conocimiento de los profesionales como pasantes y tutores, a las actividades de proyectos en ejecución puesto que permite avanzar en estas y visibilizar oportunidades de mejora para los mismos.
Salinas Guinto Karla Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
SISTEMA DE MENúS NUTRITIVOS INFANTILES PARA GUARDERíA
SISTEMA DE MENúS NUTRITIVOS INFANTILES PARA GUARDERíA
Salinas Guinto Karla Guadalupe, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
PLANTEAMIENTO DEL PROBLEMA
La alimentación saludable a temprana edad es vital en el crecimiento del niño, ya que se establecen hábitos alimenticios. Con rutinas alimentarias adecuadas y un estilo de vida saludable, se reducen las posibilidades de que el infante pueda sufrir en un futuro ciertas enfermedades o trastornos nutricionales como la anemia, sobrepeso o la obesidad.
Durante la niñez es donde se producen más cambios tanto físicos como intelectuales y uno de los factores más influyentes es la alimentación, es por ello que el presente trabajo plantea la generación de menús saludables en base a la alimentación del niño con ayuda de las redes neuronales ya que son una técnica sencilla y adaptable para esta problemática.
METODOLOGÍA
1) Como primer paso, se entrena la red neuronal con una base de datos previamente realizada para que la ingresar los datos reales, la red neuronal pueda clasificar adecuadamente la información.
2) Contamos con una base de datos con información básica del niño como nombre, edad y genéro, así como una serie de parámetros que nos permitirá determinar el tipo de alimentación del infante ya sea omnívoro, vegetariano o vegano.
Los parámetros a considerar son:
Consume cualquier producto de origen animal.
Consume proteína de origen animal (Carne, huevo, marisco).
Consume toda proteína animal (Carne, huevo, marisco).
Excluye todos los productos de origen animal (Miel, huevo, leche).
Consume lácteos de origen animal.
3) Ya que le pasamos los parámetros a la red neuronal, se entrena para que clasifique y determine el tipo de alimentación, esto con base a los resultados recabados de cada parámetro.
4) Una vez lista la red neuronal, se hacen pruebas para comprobar que tan eficaz es al clasificar la información. Ya que esta listo, la red neuronal se implementa en un programa para que el usuario ingrese los datos que se le piden (que son los parámetros) para que finalmente clasifique los datos y se determine si es omnívoro, vegetariano o vegano.
CONCLUSIONES
Al haber trabajado con una base de datos para poder entrenar a la red neuronal, facilitó el desarrollo del trabajo ya que con las variables independientes se analizaron patrones que daban como resultado la variable dependiente que en este caso determinaban el tipo de alimentación del niño.
Una vez implementada y trabajando con datos reales, la red neuronal clasificaba correctamente los datos precisando el tipo de alimentación de los niños, siendo una herramienta útil en una guardería que contribuya con la alimentación y la salud del infante siendo el propósito del presente proyecto.
Además, es posible que nutriólogos especializados lo utilicen ya que les puede resultar eficiente al momento de crear un sistema de alimentación personalizado, inclusive se puede mejorar el funcionamiento dependiendo de las necesidades o requerimientos, aunque es importante destacar que el prototipo cuenta con la esencia de las redes neuronales que es el análisis de patrones y la toma de decisiones en base a una combinación de parámetros que mejor se adecuan a un problema en concreto.
Salvador Salvador Francisco Jafet, Instituto Tecnológico de Morelia
Asesor:Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
CALIBRACIóN DE MOTORES Y CONTROL DE VELOCIDADES LINEAL Y ANGULAR DE UN ROBOT DE MANEJO DIFERENCIAL
CALIBRACIóN DE MOTORES Y CONTROL DE VELOCIDADES LINEAL Y ANGULAR DE UN ROBOT DE MANEJO DIFERENCIAL
Salvador Salvador Francisco Jafet, Instituto Tecnológico de Morelia. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
En la robótica móvil, se utilizan robots que son capaces de desplazarse en diversos entornos y ejecutar tareas básicas como al navegación y exploración. Sin embargo, la velocidad y precisión de estos robots dependen de la precisión del movimiento con sus motores y para ello se requiere una correcta calibración.
Se puede considerar como normal, el hecho de que dos motores con las mismas características tengan velocidades o torques un con pequeñas variaciones, este hecho puede afectar en que el movimiento sea impreciso. Por ello, es necesario aplicar una etapa de calibración, ya sea por software, o mediante una compensación proporcionada a través del sensado de la rotación de las ruedas. Una técnica muy utilizada para ello es el uso de la odometría.
Específicamente, un robot de manejo diferencial, es un robot que cuenta con dos ruedas, cada una con un motor independiente, estos robots pueden ser controlados por medio de sus velocidades lineal y angular, mediante estas variables de control, el robot será capaz de ejecutar 3 primitivas de movimiento básicas: Movimiento en línea recta, Movimiento de rotación en sitio, Movimiento en arco de circulo
METODOLOGÍA
Se realizo una serie de pruebas para observar desviaciones en el movimiento del robot. Esto para determinar si los errores generados en el desplazamiento se deben al ajuste mecánico de las ruedas, errores en la rotación de los motores, efectos de la fricción con el piso, entre otros factores.
Uno de los principales problemas detectados durante las pruebas realizadas a los motores fue la falta de potencia de los mismos, ya que las ruedas están diseñadas para terrenos irregulares es necesario que los motores tengan un alto torque, por lo tanto, se optó por cambiar los motores que se tenían originalmente, sin embargo, se logro apreciar que los ejes de los nuevos motores eran un poco mas pequeños de los motores anteriores, así que para corregir este problema se optó por corregir las piezas que acoplan el eje del motor con el piñón encargado de mover la cadena, con la estrategia anteriormente planteada se pretende corregir la falta de potencia de los motores, así el robot podrá ser capaz de desplazarse en terrenos irregulares.
El robot presentaba una ligera desviación al momento de enviar una instrucción para que siga una línea recta, para la corrección de la desviación en el desplazamiento del robot se aplican técnicas de odometría para realizar una mejor calibración en los motores. Para ello, se propuso usar algún sensor de desplazamiento de tipo encoder. Con estos datos es posible realizar el ajuste necesario para corregir los errores en el desplazamiento, se utilizaron encoders ópticos del modelo F249.
Se tuvo que diseñar y construir una base que nos ayudara a mantener fijos los sensores y asegurar que nos dé el número correcto de interrupciones por segundo, dicha base se fabricó utilizando un trozo de PVC moldeándolo a la forma requerida
Una vez instalados los sensores encoder, se procedió a diseñar un código en Arduino para la aplicar la corrección del error de desplazamiento que tenía el robot, para esto de realizo un control por histéresis tomando las lecturas de los encoder para así corregir la velocidad lineal de cada motor.
CONCLUSIONES
Al finalizar este proyecto se puede concluir que las estrategias planteadas al inicio del proyecto para la corrección y calibración de los motores tuvieron resultados favorables, corroborando de esta manera que el uso de odometria para la calibración de los motores es algo factible, debido a que no solo nos ayuda a implementar controles para el correcto manejo de las velocidades lineal y angular de los motores sino que también nos permite monitorear dichos valores para tener un control más estricto.
Samano Peña Heimy Lissette, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
RUTEO VEHICULAR
RUTEO VEHICULAR
Flota Chuc Erick Ronaldo, Consejo Quintanarroense de Ciencia y Tecnología. Ortega Bañuelos Natali, Tecnológico de Estudios Superiores de Valle de Bravo. Samano Peña Heimy Lissette, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Ramírez Leslie Marlene, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
El ruteo de vehículos nace de la necesidad de determinar las rutas posibles de entrega a los diferentes clientes o consumidores dentro de un área geográfica definida. Las entregas mencionadas se realizan con vehículos que tienen capacidad de carga o volumen. Se pretende realizar las entregas con la menor cantidad de vehículos o bien con el menor recorrido. En el ruteo de vehículos, existe un depósito central de donde parten los vehículos, se tiene un conjunto de clientes que requieren el producto, se cuenta con una flota vehicular y se conocen las distancias de recorrido para llegar a los clientes.
El VRP optimiza las rutas que se tienen que seguir dependiendo de las condiciones que se nos brindan, como lo son la distancia, capacidad del vehículo y el pedido de los destinos. En otras palabras, el Ruteo de Vehículos permite establecer las rutas que debe seguir una flota de vehículos, con el propósito de optimizar las variables asociadas al transporte de mercancías o prestación de servicios, tales como costos, distancias, nivel de satisfacción al cliente, entre otros.
Ahora bien, los objetivos principales que busca el VRP son obtener el menor costo total asociado a transporte, menor distancia recorrida, menor tiempo de distribución, entre otras variables, sujetas a los requerimientos que se nos brinde.
Los componentes generales que se establecen para el estudio de un problema de ruteo son: los clientes, vehículos, depósitos, restricciones y objetivos. El cliente cuenta con una demanda establecida que necesita ser satisfecha por la flota de vehículos, la cual debe salir y regresar al depósito. Los objetivos y restricciones se establecen dependiendo del caso de estudio. Con el parámetro que hace falta mencionar, se tiene que dejar claro si al final todos los vehículos deben regresar.
Este tema ha sido objeto de una gran cantidad de estudios, trabajos de investigación y publicaciones; por su gran utilidad y por ser práctico. Entre las técnicas más utilizadas para su solución se encuentran las relacionadas con heurísticos, también los métodos exactos y los métodos de aproximación. Aunque los métodos de aproximación no brindan una respuesta exacta, si permiten evaluar una mayor cantidad de variables y se pueden plantear escenarios más apegados a la realidad.
METODOLOGÍA
Los algoritmos genéticos son considerados una excelente herramienta para resolver problemas complejos en optimización con restricciones difíciles. Las etapas de esta metodología son:
Población inicial: En la población inicial los individuos deben estar bien dispersos por el espacio de soluciones. La manera más simple de cumplir con este objetivo es elegir individuos al azar, pero el uso de alguna técnica de indagación y descubrimiento.
Evaluación de los individuos: Para la evaluación de los individuos simulando la selección natural, se utiliza una variable llamada fitness, que representa qué tan buenos son los individuos que hay en la población.
Selección: Esta etapa será la encargada de elegir qué individuos van a disponer de oportunidades de reproducirse y cuáles no. Existen diferentes métodos:
Método de selección de la ruleta (roulette wheel method).
Método de selección del ranking.
Método de selección del torneo.
Operadores genéticos: permiten que las soluciones puedan reproducirse y mejorar sus características, mutar cambiando aleatoriamente sus genes y así poder moverse por el espacio de búsqueda. Se divide en los siguientes apartados:
Cruzamiento (crossover).
Mutación.
Inversión.
Criterio de término: es el encargado de definir el momento en el cual debe interrumpir el ciclo de evolución y adoptar el individuo más apto como la solución encontrada por el algoritmo genético. Estos pueden ser:
De identidad.
De aptitud.
De generaciones.
CONCLUSIONES
La introducción a un nuevo lenguaje de programación es un reto en sí, pero también lo es el trabajo en equipo. Para la creación de un algoritmo genético en C++ nos da la oportunidad de conocer cómo aplicar el lenguaje para resolver el problema del ruteo vehicular. Transformando instrucciones escritas a líneas de código que realizan lo mismo, hemos llegado a la conclusión que los algoritmos genéticos son de gran ayuda al resolver problemas con varias restricciones.
Este tipo de algoritmos se basan en los principios de genética y selección natural, resultan útiles como técnica de optimización y búsqueda. El algoritmo genético que se estuvo realizando durante casi cuatro semanas es un método para la optimización de procesos, en este caso en el ruteo vehicular donde podemos comprender que la función que debe realizar es buscar la mejor ruta que debe recorrer un vehículo para entregar la carga a sus diferentes clientes. Teniendo en cuenta que el vehículo tiene una capacidad de carga, los clientes piden diferentes tamaños de carga y la distancia que recorre el vehículo en cada una de las trayectorias.
Este tipo de métodos nos ayudan a obtener las mejores rutas que pueden ser tomadas, teniendo en cuenta las características antes mencionadas, haciendo de la ruta un ruteo vehicular eficiente y eficaz.
De igual manera fue necesario contemplar algunos factores relevantes que influyeron en el desarrollo del problema como la distribución desde un depósito central a un conjunto de clientes geográficamente dispersos. Además de conocer la demanda en cada punto de venta, cantidad de vehículos disponibles con sus respectivas capacidades, ubicación geográfica del depósito y clientes. La presencia de estos factores en problemas de ruteo de vehículos hace que sean difíciles de resolver por encontrarse en la categoría NP- complejo, con base en las características derivadas de cada problema.
Sambrano Zamora Maria Jesus, Universidad de La Ciénega del Estado de Michoacán de Ocampo
Asesor:Dra. Claudia Mariana Gomez Gutierrez, Universidad Autónoma de Baja California
INMOVILIZACIóN DE MICROALGAS PARA LA BIORREMEDIACIóN DE LA FASE SOLUBLE DEL PETRóLEO
INMOVILIZACIóN DE MICROALGAS PARA LA BIORREMEDIACIóN DE LA FASE SOLUBLE DEL PETRóLEO
Sambrano Zamora Maria Jesus, Universidad de La Ciénega del Estado de Michoacán de Ocampo. Asesor: Dra. Claudia Mariana Gomez Gutierrez, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El manejo inadecuado de materiales y residuos peligrosos ha generado problemas de contaminación de suelo, aire y agua a escala mundial. Entre las fuentes de contaminación más severas se destacan las que se producen a causa de la extracción y el manejo del petróleo. Esto ha ocasionado el deterioro continuo del medio ambiente marino y una amenaza real a la salud pública, así como la extinción de gran cantidad de especies vegetales y animales. Lo anterior, ha propiciado la busqueda de alternativas de tratamiento y remediación utilizando sistemas biológicos. La biorremediación, ha tenido un importante incremento en los últimos años, principalmente porque es más económico, de aplicación sencilla y los productos finales son inofensivos. El principio básico de biorremediación consiste en usar microorganismos, especies vegetales o animales, con la finalidad de limpiar el agua subterránea y el suelo contaminado, algunos de estos organismos absorben y metabolizan contaminantes y los suelen bioconvertir en pequeñas cantidades de agua y gases inocuos como el dióxido de carbono y el eteno.
En el caso particular del proyecto se utilizó Dunaliella tertiolecta, microalga unicelular que se caracteriza por su alta tolerancia a la salinidad, siendo los organismos eucariontes con mayor tolerancia a la sal adaptándose desde los 50 mM de NaCl hasta casi 5,5 M de NaCl.
METODOLOGÍA
Los objetivos principales fueron mejorar el medio de cultivo así como seguir un control de D. tertiolecta al añadir distintos porcentajes de la fracción soluble e inmovilizar a la microalga en alginato de calcio.
En el primer ensayo se monitoreo el crecimiento de microalga que fue expuesta a un medio de cultivo apto para su crecimiento esto durante dos semanas donde pasó por 4 distintas fases los días uno y dos son conocidos como fase de adaptamiento del día cinco a diez, crecimiento lento y a partir del día once fase estacionaria
Para el segundo ensayo se utilizó una mezcla de diésel y combustóleo con cierta parte de agua de mar para crear la fracción soluble y evaluar en distintos porcentajes las mismas microalgas, donde se hicieron dos pruebas con distintos porcentajes para la primer prueba fue 5,10,20,40,80% (v/v) haciendo revisión cada 5 horas durante 15 horas. Con los resultados del primer bioensayo se llevó a cabo un segundo ensayo con concentraciones más bajas (1,2.5,5,7.5 y 10% v/v)en un periodo de cuatro días haciendo conteos cada 12 horas. En el primer caso los porcentajes 5 y 10% fueron los que mayor adaptabilidad tuvieron para el segundo caso el porcentaje se encuentra entre 7.5 y 10%. Es decir las concentraciones de entre 5 a 10% muestran una mayor resistencia y adaptabilidad.
El tercer ensayo realizado fue la inmovilización de D. tertiolecta donde se preparó una mezcla con alginato de sodio, cloruro de sodio y cloruro de calcio en agua destilada esto para inmovilizar la microalga creando perlas las cuales se introdujeron al medio de cultivo (f/2) agregando fracción soluble en los porcentajes 1%,2.5%,5%,7.5% y 10% el crecimiento fue analizado durante 4 días cada 12 horas donde las microalgas llegaron a una fase de crecimiento lento.
CONCLUSIONES
Se logaron los objetivos previstos durante el periodo de estancia llevando a cabo los distintos ensayos gracias a los resultados obtenidos comprobó la capacidad de Dunaliella tertiolecta para integrar los hidrocarburos de la fracción soluble, pues al ser expuestas a tal estrés aún encuentra un balance en los distintos porcentajes para poder resistir e incorporarlos removiendo la fracción soluble un 25%.Es decir este tipo de microalga cuenta con las características adecuadas para biorremediar la fracción soluble en la que se encuentre.
Asesor:Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
ACCESIBILIDAD E INCLUSIóN: CONCEPTOS PARA REPENSAR LA CONFIGURACIóN DEL ESPACIO PúBLICO EN MéXICO Y COLOMBIA
ACCESIBILIDAD E INCLUSIóN: CONCEPTOS PARA REPENSAR LA CONFIGURACIóN DEL ESPACIO PúBLICO EN MéXICO Y COLOMBIA
López Moreno Jacqueline, Instituto Tecnológico de La Piedad. Sanabria Mahecha Gabriel, Institución Universitaria Politécnico Grancolombiano. Asesor: Mtra. Lisseth Rivera Aguirre, Instituto Tecnológico Superior de Xalapa
PLANTEAMIENTO DEL PROBLEMA
Los espacios públicos son un factor que influyen en el día a día de las personas. Es por ello que se deben aprovechar los avances tecnológicos para que los ciudadanos puedan disfrutar de los espacios en las zonas en las que residen, teniendo las mismas facilidades de accesibilidad en los espacios y puedan desempeñarse fácilmente.
Objetivo: Realizar un análisis comparativo del diagnóstico de las condiciones de accesibilidad e inclusión en una zona pública y urbana de las ciudades de Bogotá D.C., Colombia y La Piedad de Cavadas, Michoacán, México.
METODOLOGÍA
a) Diseño de la investigación: El trabajo de investigación consistió en el análisis de la accesibilidad en zonas públicas y mercados de cada país, teniendo en cuenta la universalidad de las personas, siendo un estudio no experimental, seccional, presentándose resultados de forma descriptiva y explicativa con un enfoque cuantitativo; con la delimitación previas de las zonas de estudio en México y Colombia
Este análisis se realizó a través de una lista de cotejo conformado por tres categorías: diseño centrado en el usuario, Tecnología de apoyo y Operativos. En la categoría uno, diseño centrado en el usuario, se desglosan los apartados: cruces peatonales, señalética, rampas, acceso en puertas, pasillos, baños, banquetas y estacionamientos. La categoría dos, tecnología de apoyo cuenta con dos secciones: semáforos y teléfonos públicos. Por último, la categoría tres, donde se consideran los aspectos operativos; está integrada por las secciones: pisos, instalaciones, obstáculos, personal capacitado y barandales.
Se realizó la validación del instrumento previo a su implementación y se llevó a cabo el levantamiento de condición realizándose las mediciones correspondientes y acopio de evidencias para realizar posteriormente el análisis comparativo.
b) Sitio del estudio: El análisis se llevó a cabo en la localidad de Kennedy, Bogotá D.C., Colombia y el centro de La Piedad de Cavadas, Michoacán, México; estudiándose las zonas céntricas de cada país y dos mercados municipales.
c) Unidades de estudio: Se analizaron las zonas de estudio para corroborar si estas cumplían con las condiciones de accesibilidad e inclusión delimitadas por la lista de cotejo previamente desarrollada, ya que no todas las personas podrían circular libremente debido a alguna discapacidad física o por las condiciones de la infraestructura. Por ello, se consideró necesario investigar y analizar si aquellas personas pueden ingresar o simplemente acudir a un lugar de una forma autónoma y sin riesgo alguno.
d) Intervenciones: Para los anexos fue necesario contar con mapas y planos para ubicar la zona. En el caso de los espacios públicos fue necesario usar Google Maps para poder generar el mapa de la ubicación. En el caso de los mercados, se solicitaron a los encargados una copia de los planos. Para el levantamiento de campo fue necesario realizar mediciones y tomar fotografías para tener evidencia del estudio y determinar si se cumplía o no con las condiciones de accesibilidad e inclusión definidas previamente en el instrumento diseñado.
CONCLUSIONES
Conclusión:
Con base al análisis de las zonas y al levantamiento de requerimientos para la inclusión y accesibilidad de las personas; se identificaron varias necesidades comunes en las zonas urbanas tales como lo son las señalizaciones, los cruces peatonales deben estar bien pintados, las banquetas no estar cuarteadas o con desniveles y permitir que dos personas puedan pasar por ellas a la vez, espacios públicos, accesos a puertas sin obstáculos en ellas, baños especiales para discapacitados, pisos secos y limpios, entre otras que deben ser cubiertas con mayor atención.
De acuerdo con los resultados obtenidos de la investigación, hay varias deficiencias en cuanto a la accesibilidad de los espacios públicos, los cuales terminan resultando un obstáculo para el desarrollo y bienestar de las personas que son las directamente afectadas. El problema va más allá de la infraestructura, pues los vendedores ambulantes al trabajar en espacios públicos también requieren que se les colabore y no simplemente se les retire de aquellos lugares.
Es necesario generar un ambiente de concientización en torno a la importancia de garantizar que cada ciudadano pueda movilizarse autónomamente en espacios urbanos. Por lo anterior, uno de los primeros pasos hacia la accesibilidad e inclusión puede ser campañas de concientización, con el fin de dar a conocer las verdaderas necesidades de todos los habitantes.
Sanchez Castro Damaris Fernanda, Universidad Politécnica de Sinaloa
Asesor:M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa
ANáLISIS PRELIMINAR DEL OBJETIVO 11.- CIUDADES Y COMUNIDADES SOSTENIBLES DE LOS ODS DE LA ONU INCLUIDOS EN LA AGENDA 2030, UNA PERSPECTIVA SOCIAL, CASO: MAZATLáN SINALOA
ANáLISIS PRELIMINAR DEL OBJETIVO 11.- CIUDADES Y COMUNIDADES SOSTENIBLES DE LOS ODS DE LA ONU INCLUIDOS EN LA AGENDA 2030, UNA PERSPECTIVA SOCIAL, CASO: MAZATLáN SINALOA
Castañeda Cruz Maria Jose, Universidad Politécnica de Sinaloa. Sanchez Castro Damaris Fernanda, Universidad Politécnica de Sinaloa. Asesor: M.C. Marco Antonio Prieto Garcia, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Derivado del desarrollo económico de la región del Estado de Sinaloa, la cual pone a prueba la conciencia ambiental de las actividades del sector logístico y transporte, pues si bien las cadenas de suministro son indispensables, sí necesitan ser sostenibles y con un enfoque sustentable, con una atención principal en las empresas navieras, ferrocarriles, autotransporte y aeronáutica, así también las industrias de transformación y servicios turísticos, nos vemos en la necesidad de identificar los elementos esenciales del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU incluidos en la agenda 2030 al realizar un estudio preliminar que nos proporcione un índice de conocimiento de las actividades que nos ayudaran a ser parte del cambio y contribuir a la Agenda 2030, derivado del impacto del crecimiento económico en la sociedad y su conciencia en la sustentabilidad.
METODOLOGÍA
La metodología empleada fue cualitativa, mediante entrevista estructurada digital, con una guía de entrevista estandarizada, su objetivo de estudio es caracterizado y consiste en proporcionar un número fijo de preguntas predeterminadas en su formulación y secuencia, lo que permite administrar y analizar por ser más objetiva, es más técnica que arte, se tiene un modelo intermedio entre cualitativa y cuantitativa.
CONCLUSIONES
Se presentan los resultados de las preguntas del instrumento y sus porcentajes de percepción que va del ¨Muy bueno, Bueno, Moderado, Malo, Muy malo¨ , siguiendo ese orden por pregunta.
Sensibiliza sobre la quema de combustible de tu ciudad y las formas de mejorarla.
3.3
3.3
50
40
3.3
Se defiende y se apoya el desarrollo de espacios deportivos y recreativos contribuyendo a crear comunidades más robustas, más saludables, más felices y más seguras.
13.3
43.3
33.3
6.7
3.3
Se promueve un sistema para compartir coche en la oficina o en zonas sin acceso a transporte fiable
13.3
16.7
33.3
13.3
23.3
Se investiga, fomenta y se sensibiliza para lograr una mayor transparencia de la información dentro de tu comunidad
13.3
10
13.3
40
23
Se utiliza el transporte público, las bicicletas urbanas y otros medios de transporte ecológicos.
13.3
36.7
33.3
0
16.7
Se llega hasta las zonas desfavorecidas e integra a personas de diferentes clases y orígenes étnicos e involúcralas en los procesos de toma de decisiones que les afecten, como sus condiciones de vida, la contaminación, etc.
3.3
20
40
30
6.7
Estas informado sobre el patrimonio cultural y natural de tu zona. Visitas lugares del patrimonio y tienes una perspectiva positiva de ellos.
36.7
33.3
20
10
0
Se instauran tarifas reducidas del transporte público en las por problemas de congestión.
3.3
10
23.3
30
33.3
Existen pequeños grupos comunitarios para reflexionar y buscar maneras de garantizar espacios públicos seguros y accesibles, especialmente para mujeres, niños, personas mayores y personas con discapacidades
6.7
40
33.3
20
0
Las empresas ofrecen tarifas reducidas para el alquiler de bicicletas municipales.
10
10
30
23.3
26.7
Promedio por nivel de percepción general del Objetivo 11
11.6
22.3
30.9
21.3
13.6
Con base a los resultados y un análisis preliminar se detecta una Perspectiva Social moderada del objetivo 11.- Ciudades y Comunidades Sostenibles de los ODS de la ONU incluidos en la agenda 2030, una perspectiva social, caso: Mazatlán Sinaloa.
Sánchez de Aparicio Calvillo Alberto, Instituto Politécnico Nacional
Asesor:Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México
ELEMENTOS BáSICOS DE LA DOMóTICA APLICADOS A UN INVERNADERO INTELIGENTE
ELEMENTOS BáSICOS DE LA DOMóTICA APLICADOS A UN INVERNADERO INTELIGENTE
Sánchez de Aparicio Calvillo Alberto, Instituto Politécnico Nacional. Asesor: Dr. Carlos Omar González Morán, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Actualmente existen huertos urbanos ya sea en azoteas, terrazas o jardines en las viviendas de las personas ubicadas en las ciudades, cuyo objetivo principal es el autoconsumo; así ayudan tanto a la economía familiar como al medio ambiente. Sin embargo, muchas veces por falta de tiempo, dedicación y supervisión de personas capacitadas, los cultivos mueren arruinando el trabajo previo de las personas, lo que provoca que muchas veces no quieran continuar con esta práctica.
La construcción de un invernadero inteligente ayudará a resolver este problema, ya que éste se encargará de proporcionarle a las plantas las mejores condiciones para su desarrollo al monitorear y mantener los parámetros importantes que necesitan como agua, luz, humedad, temperatura, entre otros.
De esta manera, las personas podrán cosechar sus propias hortalizas minimizando el mantenimiento, cuidado y dificultad del trabajo gracias al invernadero, el cual también contará con una interfaz gráfica para su fácil chequeo por parte del personal.
METODOLOGÍA
La metodología que se implementó durante el desarrollo de este proyecto se denomina Top-Down, que es basada en el paradigma divide y vencerás, ya que es empleada en diferentes áreas que fueron de gran relevancia para la estancia en el verano como diseño de circuitos y desarrollo de software.
En esta metodología se inicia por un nivel superior de lo general y se va emigrando a los niveles inferiores a lo específico.
El uso de esta metodología busca la solución de los problemas menores, para luego conectarlos y de esta forma lograr solucionar el problema principal. Lo que caracteriza a este modo de trabajo es su forma de trabajar al dividir los problemas en módulos que permite tratar individualmente para alguna corrección o mejora, logrando eficientar recursos tanto económicos como de tiempo.
Se comenzó revisando y aprendiendo los diferentes temas al inicio del verano de investigación, en cada uno se vio la información y posteriormente se llevaron a cabo ejercicios y prácticas; viendo uno por uno como módulos diferentes. Estos son: lenguaje de programación, comportamientos digitales, comportamientos analógicos, comportamientos de potencia y comportamientos de comunicación.
Después se siguió con el desarrollo del proyecto, el cual iba a utilizar todos los conocimientos de cada módulo visto. Para llevarlo a cabo, se dividieron los temas y partiendo de la idea de hacer un invernadero inteligente, se dividieron sus diferentes partes para tratar a cada una por separado y al final juntarlo todo y construir el proyecto.
CONCLUSIONES
Durante la estancia en el verano de investigación se pudieron adquirir los conocimientos suficientes sobre sistemas digitales y Arduino para poder aplicarlos a la domótica, en este caso, al desarrollo de un invernadero inteligente. Desarrollar este proyecto no sólo ayudó a aprender sobre el tema y saber aplicar lo aprendido, sino que también, la creación de un invernadero inteligente nos ayuda a poder generar nuestros propios alimentos en casa, y además garantiza que éstos puedan crecer correctamente debido a que siempre se encontrarán en sus condiciones y parámetros necesarios de desarrollo.
Sánchez Galindo Marcos Abraham, Universidad de Sonora
Asesor:M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla
EL BIG DATA EN ENTORNOS SEGUROS
EL BIG DATA EN ENTORNOS SEGUROS
Sánchez Galindo Marcos Abraham, Universidad de Sonora. Asesor: M.C. Yeiny Romero Hernández, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Se sabe que big data se refiere a los datos que son tan grandes, rápidos o complejos que es difícil o imposible procesarlos con los métodos tradicionales, es decir, consiste en un grupo de datos de gran tamaño que almacenan información de valor muy importante, dado que su valor radica en lo que hacer con esa enorme cantidad de datos y enviarlos a través de la red sin correr riesgos de pérdidas de los mismos. En esta investigación abordaremos la relación que existe entre el Big Data y la seguridad en la web, estos datos tienen que estar seguros para proteger la información que estamos manejando y para ello se requiere de la seguridad informática y sus métodos de encriptación y desencriptación, por lo cual se explicara algunos de estos métodos utilizados en big data para una protección integrada de los datos.
METODOLOGÍA
Tras una exhaustiva búsqueda de información en el tema de criptografía y análisis de datos se decide hacer pruebas con algunos métodos de encriptación (método simétrico y método asimétrico), con el objetivo de verificar cual tiene un mejor comportamiento con grandes cantidades de datos. Se han programado los algoritmos en dos diferentes lenguajes de programación Python y Java para compararlos y hacer pruebas sobre esos dos para ver cuál tiene mayor efectividad, hay algunos otros métodos de la ciberseguridad que también se pueden aplicar ya sea en base de datos, correos electrónicos o archivos.
Para empezar utilizaremos Python para mostrar el algoritmo de encriptación asimétrico el cual consta de dos claves para la seguridad de los datos. Para algoritmo se utilizó la librería Crypto que se instala con (pip install pycryptodome - es la librería actualizada de Crypto pero se importa de la misma manera que la anterior), en este algoritmo se utilizó el lenguaje de programación Python que es muy conocido debido a que es un lenguaje de alto nivel y de los más utilizados, ya que puede utilizarse en muchos sectores.
Este algoritmo fue diseñado en base a la documentación de la librería que fue utilizada para poder hacer el proceso de cifrado y descifrado asimétrico y así poderlo combinar con la función de generar archivos de texto encriptado y desencriptado.
El algoritmo de cifrado simétrico fue elaborado en Java y tiene una única llave que se genera a través de una clave que decidas, el codificar y decodificar se hace a través de base64 esto para que no se dañe la matriz generada, los archivos de texto se abren en un editor y se pasan por el algoritmo de codificación para obtener un archivo codificado que es el que viajará por la red, el proceso al llegar a su destino es diferente se recibe el encriptado se procesa por el algoritmo que desencripta y obtenemos el mensaje o archivo original. Ambos procesos de encriptado y desencriptado están presentes en el algoritmo de cifrado simétrico.
RESULTADOS
En estos algoritmos se pueden encriptar archivos de texto con extensión .txt y datasets csv. En la primera prueba pusimos un archivo con formato .txt donde contiene poco texto y pocos saltos de línea, el resultado fue satisfactorio y muy rápido. En esta segunda prueba utilizamos un dataset con formato .csv donde contiene un peso de 191 KB, ya que aumentaría el contenido del texto a encriptar y desencriptar. La tercera prueba fue aumentando a 2 MB con otro dataset descargado de Kaggle y se trata sobre la venta de videojuegos con calificaciones.
Al algoritmo le tomó aproximadamente 5 min para poder obtener la encriptación y desencriptación del texto, fue de un gran tamaño que la consola no pudo visualizar todo el contenido del dataset.
El algoritmo más útil fue el de Python ya que soporto más texto en su algoritmo al momento de encriptar y desencriptar, apenas con 36 MB de un dataset se puso lento por unos segundos, lo cual quiere decir que soportará más peso antes de que se atrase por minutos, el de Java solo soporto 2 MB para alentarse por minutos, lo cual una vez hecho estas pruebas puedo concluir que para este algoritmo ocuparía poner máximo 1 MB para que el retardo sea de segundo, por otro lado en Python podrían ser hasta 40 MB.
CONCLUSIONES
Resultó mejor el algoritmo en Python que es el cifrado asimétrico, ya que este tiene mejor seguridad, porque genera aleatoriamente una cadena de bytes para poder obtener un mejor cifrado en el texto, recordando que al ser asimétrico genera dos claves una para encriptar y otra para desencriptar. En cambio el de Java puedes poner una clave única que puede ser muy susceptible a algún ataque, pero este tipo de cifrado que es el cifrado simétrico sería ideal para las sesiones de las personas que ponen sus propias contraseñas a sus cuentas y se encriptará de esta forma.
Como trabajos a futuro recomendaría más el uso de el algoritmo asimétrico de Python para la seguridad de las bases de datos o correos, ya que brinda un mejor rendimiento y mayor seguridad, aparte que es mucho más fácil su programación, es más didáctico por ser orientado a objetos, es un lenguaje de alto nivel y no tienes que preocuparte por declarar variables de tipos, sino que se adaptan a lo que necesites; En Java tuve algunas complicaciones más debido que es más reglamentario y están más dispersas las librerías, tuve un problema al querer guardar la llave en este lenguaje, pero lo solucione buscando otro método donde guardas el objeto.
Sánchez García Luis Fernando, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
REGISTRO DE DATOS FACIALES 3D PARA APLICACIONES DE SEGURIDAD CON DATOS MéTRICOS
REGISTRO DE DATOS FACIALES 3D PARA APLICACIONES DE SEGURIDAD CON DATOS MéTRICOS
Sánchez García Luis Fernando, Instituto Politécnico Nacional. Soler Garcia Jose Manuel, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Muchas organizaciones manejan información importante u objetos de valor. Estas organizaciones asignan a su personal diferentes privilegios de acceso a información, contenido y zonas de restricción. Para este tipo de aplicaciones, es necesario el desarrollo de sistemas de acceso de seguridad alternativos por medio de datos biométricos. En la actualidad existen diferentes propuestas para el registro de datos biométricos que incluyen reconocimiento facial, inteligencia artificial, escáner de retina, mano, y voz. Entre las aplicaciones de estos sistemas se destacan el control de asistencia de estudiantes, protección de datos personales, reconocimiento automático, flujo digital, evaluación forense, y diagnóstico de asimetría facial. La primordial característica de nuestro proyecto es en el ámbito de la seguridad, ya sea privada o pública, donde se pueda contar con un registro de datos biométricos de las personas. Este proyecto contribuye de gran forma para llevar un orden en la organización de alguna empresa, institución u otra organización, en la que se requiera identificación de rostros. Se crea un método para poder obtener los datos métricos con relativa facilidad.
METODOLOGÍA
Para el inicio se tomaron diferentes patrones de calibración para obtener la matriz de parámetros K de la cámara y proyector que se utilizó. Se capturaron 30 muestras para producir una mejor matriz; una vez obtenida la matriz K, se realizó una última captura para la calibración de nuestros dispositivos. Ya obtenida la calibración, se comenzó la proyección de franjas a los objetos para su digitalización. Obtenidas las proyecciones de franjas de forma horizontal y vertical, las utilizamos para determinar dos mapas de fase asociados a los ejes (X, Y) del proyector, en cada uno de los rostros digitalizados. Posteriormente, los mapas de fase calculados se emplean en la función de triangulación para construir el modelo tridimensional digital del rostro escaneado. La digitalización resultante contiene elementos no deseados, por esta razón se le aplicaron filtros, para eliminar el ruido de la digitalización. También se puede ver que existen zonas que no se alcanzan a digitalizar, es por eso que se realiza nuevamente el proceso de proyección de franjas para el perfil izquierdo y derecho del rostro proyectado. Con los tres perfiles digitalizados, estos se deben unir para obtener un único modelo completo del rostro. Para adquirir una segunda muestra se realiza todo el proceso antes descrito, y así obtener otro rostro completo digitalizado. Obtenidos los modelos 3D, se debe comenzar a registrar los puntos. Se debe de registrar la mayoría de puntos importantes en el rostro, estos datos se almacenan en una base de datos, para posteriormente ser graficados como una malla de datos métricos.
CONCLUSIONES
La investigación, indagación y búsqueda se convirtieron en actividades clave para la estancia de verano. Diariamente se aplicó el método científico para aprender y entender los conceptos descritos y explicados por el investigador. Los cálculos matemáticos fueron antecedentes importantes, ya que se requería de previos conocimientos en álgebra lineal, calculo vectorial y física en general, para entender con mayor satisfacción y facilidad. Se adquirieron nuevos temas fundamentales basados en modelos de cámaras, extracción y proyección de franjas, codificación en software de vectores, matrices y funciones, que implican una atención precisa en su compresión e implementación. Estos temas, además de contribuir en un logro más de aprendizaje, también ayudaron a rectificar y completar conceptos relacionados. Se obtuvieron resultados satisfactorios en el registro de datos faciales, todo esto logrado con ayuda de la construcción de nuestro perfilómetro óptico, en el cual pudimos digitalizar los rostros necesarios para su visualización 3D en la interfaz de nuestra computadora. La digitalización facial 3D se realizó en tres perfiles importantes, el frente, costado izquierdo y derecho de la cara. La unión de los tres perfiles fue lo más precisa posible, debido a que esta digitalización del rostro ayudaría en la obtención de los datos biométricos de cada individuo. Con la digitalización facial 3D realizada, se obtuvieron los puntos de la malla de datos biométricos que identifica de forma única a la persona.
La malla es mejor definida entre más puntos se tomen, en nuestro caso tomamos únicamente 37 puntos de los cuales algunos no se pudieron obtener en la digitalización y se tuvieron que omitir en la generación de la malla. Con esto podemos crear aplicaciones de reconocimiento facial que utilicen la malla creada. También es posible emplear los datos obtenidos para hacer animaciones en 3D basadas con las mallas obtenidas cambiando los gestos de la persona. Hay algunas partes que se pueden automatizar como la calibración de la cámara y proyector, también la obtención de los puntos métricos del rostro. La principal aplicación de este proyecto es para poder registrar los datos métricos de una persona para que funcione como un sistema de seguridad. Sin embargo, no es la única función en la que se puede aplicar, también se puede utilizar para detectar rostro de personas que se quieran localizar. A pesar de que existen diversas aplicaciones que realizan este mismo funcionamiento, el perfilómetro óptico desarrollado en este proyecto es una opción más accesible y rápida de generar una digitalización y comprender el funcionamiento de reconocimiento facial.
Sánchez Montiel Dulce Dariana, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. David Choque Quispe , Universidad Nacional José María Arguedas
ESTUDIO PRELIMINAR DE LA METODOLOGíA PARA LA OBTENCIóN DE ZRO2 POR EL MéTODO SOL-GEL.
ESTUDIO PRELIMINAR DE LA METODOLOGíA PARA LA OBTENCIóN DE ZRO2 POR EL MéTODO SOL-GEL.
Sánchez Montiel Dulce Dariana, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
La falta de plantas de tratamiento para las aguas residuales han sido una gran problemática a lo largo de los años; principalmente en las industrias, ciudades, explotación mineras,etc.
La mayoría de las aguas se descarga a los ríos, mares,lagos,presas,etc. Las fuentes de agua (ríos, lagos, mar), han sido incapaces por sí mismas de absorber y neutralizar esta carga de contaminantes que arrastran consigo las aguas, y por ello estas han perdido sus condiciones naturales de apariencia física y la capacidad para mantener una vida acuática, que sea capaz de responder al equilibrio ecológico que de ellas se espera.
En las últimas décadas la sociedad ha mostrado preocupación e interés en temas que tengan que ver con el medio ambiente y están tratando de resolver los problemas relacionados con la disposición de los efluentes líquidos provenientes del uso doméstico, comercial e industrial de las aguas de abastecimiento.
Las plantas tratadoras de aguas residuales tienen que ser diseñadas, construidas y operadas con el objetivo de convertir el líquido proveniente del uso de las aguas de abastecimiento, en un efluente final aceptable, y para disponer adecuadamente de los sólidos ofensivos que necesariamente son separados durante el proceso.
METODOLOGÍA
La técnica con la que se llevará a cabo dicho trabajo es mediante Sol-gel que es la más conocida para hacer la síntesis del ZrO2 , en la cual ocuparemos diferentes reactivos como: Alcohol Etílico puro, Ácido Nítrico, Isopropanol e Isopropoxido de Circonio (que será tratado con alcohol isopropilico previamente ).
Se mezclara y revolvera por 5 minutos en una parrilla de agitación magnética el Alcohol Etílico, Ácido Nítrico e Isopropoxido; esto debe ser de manera constante y en proporciones iguales. Después de tener la mezcla se procede a agregar el Isopropoxido de Circonio y se continua moviendo por 1 hora a 40º C hasta obtener un sólido uniforme.
Para obtener el Sol en el proceso, calentamos la muestra a 70ºC (variando la temperatura), comenzado por 1ºC y subimos poco a poco hasta obtener la temperatura deseada y ahí la dejamos por un periodo de 2 horas.
Para la parte del secado, pondremos la muestra en una mufla y vamos a variar las temperaturas comenzando por los 300ºC, después iremos aumentando cada 100ºC hasta llegar a los 700 ºC por 24 horas, subiendo 25ºC por minuto.
CONCLUSIONES
Durante la estancia de verano de investigación científica se logró obtener el conocimiento deseado para llevar a cabo un proceso de Sol-gel y ponerlo en práctica en un futuro, ya que se definió cada paso de la metodología que se implementará.
Si bien es cierto que por la pandemía no se pudo trabajar físicamente y no se entrega un resultado experimental se logró la meta de reforzar temas y se emplearon los aprendizajes obtenidos durante la estancias.
Se espera que el método funcione y nos arrojen datos estables y así poder implementar esta tecnología para el tratamiento de las aguas residuales.
Sánchez Quiroga Héctor Gerardo, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
MODELOS DE PRONÓSTICO DE ENERGÍA FOTOVOLTAICA UTILIZANDO INTELIGENCIA ARTIFICIAL
MODELOS DE PRONÓSTICO DE ENERGÍA FOTOVOLTAICA UTILIZANDO INTELIGENCIA ARTIFICIAL
Reyes Olivas Edgar Omar, Universidad Autónoma de Ciudad Juárez. Sánchez Quiroga Héctor Gerardo, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
PLANTEAMIENTO DEL PROBLEMA
Las energías renovables han cobrado una enorme relevancia en los últimos años debido al cambio climático y el impacto negativo que han tenido las energías convencionales sobre el medio ambiente.
Si bien tienen una gran importancia, estas energías contienen una alta intermitencia y variabilidad debido a la alta dependencia de las condiciones climatológicas. Aquí es donde radica la importancia de poder predecir los valores de energía generada, para poder realizar una planeación de distribución de energía.
Es por esto por lo que en este proyecto se utilizan técnicas de aprendizaje automático para el pronostico de las series de tiempo a corto plazo. Además, se realiza una comparación con el modelo de geometría solar para determinar la precisión de nuestro modelo de aprendizaje automático.
METODOLOGÍA
Para realizar el estudio, se recopilo información de del portal del Laboratorio de Monitoreo de Radiación Solar de la Universidad de Oregón (http://solardata.uoregon.edu/).
Para poder trabajar con estos datos, se les aplicó un procesamiento en el cual fueron depurados de datos erróneos e inconsistencias. Además, se ajustaron de manera en que los datos faltantes fueron rellenados de manera automática utilizando distintos algoritmos, donde el algoritmo Last Observation Carried Forward (LOCF) fue el que tuvo más éxito y congruencia.
Una vez que los datos se encontraban listos para poder trabajar con ellos, se desarrolló un modelo de predicción de energía eléctrica a partir del sol y que se basa en los cálculos de geometría solar.
Con los mismos datos se desarrollo un modelo de aprendizaje automático utilizando el algoritmo de Máquinas de Vectores de Soporte (SVM), se optó por este algoritmo por su robustez. Se seleccionaron los mejores parámetros para obtener mejores resultados a la hora de ejecutar el modelo.
CONCLUSIONES
Al ejecutar ambos modelos y calcular el error cuadrático medio y la raíz del error cuadrático medio, se pudo observar que el modelo que utiliza el algoritmo de Máquinas de Vectores de Soporte (SVM) tiene más precisión y presenta un comportamiento más apegado a los valores reales.
Sánchez Ramírez Leslie Marlene, Instituto Tecnológico de Colima
Asesor:Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
RUTEO VEHICULAR
RUTEO VEHICULAR
Flota Chuc Erick Ronaldo, Consejo Quintanarroense de Ciencia y Tecnología. Ortega Bañuelos Natali, Tecnológico de Estudios Superiores de Valle de Bravo. Samano Peña Heimy Lissette, Tecnológico de Estudios Superiores de Tianguistenco. Sánchez Ramírez Leslie Marlene, Instituto Tecnológico de Colima. Asesor: Dr. Ricardo Perez Rodríguez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
El ruteo de vehículos nace de la necesidad de determinar las rutas posibles de entrega a los diferentes clientes o consumidores dentro de un área geográfica definida. Las entregas mencionadas se realizan con vehículos que tienen capacidad de carga o volumen. Se pretende realizar las entregas con la menor cantidad de vehículos o bien con el menor recorrido. En el ruteo de vehículos, existe un depósito central de donde parten los vehículos, se tiene un conjunto de clientes que requieren el producto, se cuenta con una flota vehicular y se conocen las distancias de recorrido para llegar a los clientes.
El VRP optimiza las rutas que se tienen que seguir dependiendo de las condiciones que se nos brindan, como lo son la distancia, capacidad del vehículo y el pedido de los destinos. En otras palabras, el Ruteo de Vehículos permite establecer las rutas que debe seguir una flota de vehículos, con el propósito de optimizar las variables asociadas al transporte de mercancías o prestación de servicios, tales como costos, distancias, nivel de satisfacción al cliente, entre otros.
Ahora bien, los objetivos principales que busca el VRP son obtener el menor costo total asociado a transporte, menor distancia recorrida, menor tiempo de distribución, entre otras variables, sujetas a los requerimientos que se nos brinde.
Los componentes generales que se establecen para el estudio de un problema de ruteo son: los clientes, vehículos, depósitos, restricciones y objetivos. El cliente cuenta con una demanda establecida que necesita ser satisfecha por la flota de vehículos, la cual debe salir y regresar al depósito. Los objetivos y restricciones se establecen dependiendo del caso de estudio. Con el parámetro que hace falta mencionar, se tiene que dejar claro si al final todos los vehículos deben regresar.
Este tema ha sido objeto de una gran cantidad de estudios, trabajos de investigación y publicaciones; por su gran utilidad y por ser práctico. Entre las técnicas más utilizadas para su solución se encuentran las relacionadas con heurísticos, también los métodos exactos y los métodos de aproximación. Aunque los métodos de aproximación no brindan una respuesta exacta, si permiten evaluar una mayor cantidad de variables y se pueden plantear escenarios más apegados a la realidad.
METODOLOGÍA
Los algoritmos genéticos son considerados una excelente herramienta para resolver problemas complejos en optimización con restricciones difíciles. Las etapas de esta metodología son:
Población inicial: En la población inicial los individuos deben estar bien dispersos por el espacio de soluciones. La manera más simple de cumplir con este objetivo es elegir individuos al azar, pero el uso de alguna técnica de indagación y descubrimiento.
Evaluación de los individuos: Para la evaluación de los individuos simulando la selección natural, se utiliza una variable llamada fitness, que representa qué tan buenos son los individuos que hay en la población.
Selección: Esta etapa será la encargada de elegir qué individuos van a disponer de oportunidades de reproducirse y cuáles no. Existen diferentes métodos:
Método de selección de la ruleta (roulette wheel method).
Método de selección del ranking.
Método de selección del torneo.
Operadores genéticos: permiten que las soluciones puedan reproducirse y mejorar sus características, mutar cambiando aleatoriamente sus genes y así poder moverse por el espacio de búsqueda. Se divide en los siguientes apartados:
Cruzamiento (crossover).
Mutación.
Inversión.
Criterio de término: es el encargado de definir el momento en el cual debe interrumpir el ciclo de evolución y adoptar el individuo más apto como la solución encontrada por el algoritmo genético. Estos pueden ser:
De identidad.
De aptitud.
De generaciones.
CONCLUSIONES
La introducción a un nuevo lenguaje de programación es un reto en sí, pero también lo es el trabajo en equipo. Para la creación de un algoritmo genético en C++ nos da la oportunidad de conocer cómo aplicar el lenguaje para resolver el problema del ruteo vehicular. Transformando instrucciones escritas a líneas de código que realizan lo mismo, hemos llegado a la conclusión que los algoritmos genéticos son de gran ayuda al resolver problemas con varias restricciones.
Este tipo de algoritmos se basan en los principios de genética y selección natural, resultan útiles como técnica de optimización y búsqueda. El algoritmo genético que se estuvo realizando durante casi cuatro semanas es un método para la optimización de procesos, en este caso en el ruteo vehicular donde podemos comprender que la función que debe realizar es buscar la mejor ruta que debe recorrer un vehículo para entregar la carga a sus diferentes clientes. Teniendo en cuenta que el vehículo tiene una capacidad de carga, los clientes piden diferentes tamaños de carga y la distancia que recorre el vehículo en cada una de las trayectorias.
Este tipo de métodos nos ayudan a obtener las mejores rutas que pueden ser tomadas, teniendo en cuenta las características antes mencionadas, haciendo de la ruta un ruteo vehicular eficiente y eficaz.
De igual manera fue necesario contemplar algunos factores relevantes que influyeron en el desarrollo del problema como la distribución desde un depósito central a un conjunto de clientes geográficamente dispersos. Además de conocer la demanda en cada punto de venta, cantidad de vehículos disponibles con sus respectivas capacidades, ubicación geográfica del depósito y clientes. La presencia de estos factores en problemas de ruteo de vehículos hace que sean difíciles de resolver por encontrarse en la categoría NP- complejo, con base en las características derivadas de cada problema.
Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional
Asesor:M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
DISPOSITIVO MICROSIMULADOR PROTÉSICO
DISPOSITIVO MICROSIMULADOR PROTÉSICO
Cruz Cortes Adriana Elizabeth, Instituto Politécnico Nacional. Gutiérrez Valdez Steven, Instituto Politécnico Nacional. Sánchez Salinas Mariana Alejandra, Instituto Politécnico Nacional. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En la década de los años 70, los materiales utilizados para manufacturar prótesis eran de naturaleza industrial, los cuales no estaban hechos para ese propósito en particular y presentaban desperfectos causando reacciones adversas en los pacientes; posteriormente se empezaron a diseñar, fabricar y procesar materiales con la finalidad de tener una aplicación en el campo médico y se les dio el nombre de biomateriales (Duffo, 2011).
El desarrollo, implementación o mejoras en un biomaterial exige rigurosos protocolos de investigación para definir sus propiedades necesarias con la finalidad de que sea adecuado en la sustitución de tejidos y que sean fiables para ser implantados en el cuerpo de un individuo. Estos deben tener un carácter inerte o bioactivo, y sus productos de degradación no deben originar toxicidad o reacciones adversas en el cuerpo del paciente. En cualquier caso, todo biomaterial debe tener características biocompatibles tanto mecánica y médicamente.
La tribología es el estudio de la fricción, desgaste y lubricación durante la interacción de las superficies en movimiento (Jin & Fisher, 2014). Cuando una prótesis se encuentra dentro del cuerpo es sometida a esfuerzos mecánicos, rozamientos y además sus componentes están inmersos en fluidos corporales que pueden generar desgate de los materiales, ante esas situaciones los estudios tribológicos son de utilidad. Los materiales son sometidos a estas pruebas y a través de los resultados se estiman sus características físicas.
METODOLOGÍA
Los sistemas de simulación de prótesis son ampliamente utilizados para analizar el comportamiento de las prótesis en un ambiente controlado y evaluar el comportamiento de los biomateriales por medio de ensayos tribológicos. El presente trabajo desarrolla una aplicación móvil la cual es capaz de monitorizar la temperatura del ambiente y controlar el movimiento angular del servomotor encargado de emular el movimiento al que estaría sometido el biomaterial.
Con la herramienta open-source software llamada MIT App Inventor, la cual permite el desarrollo de aplicaciones la cual es capaz de monitorizar la temperatura del sistema controlado a través de un sensor de temperatura LM35 que emite una señal analógica de voltaje que es proporcional a la temperatura del ambiente, en este sensor 10mV equivale a 1oC, su rango de funcionamiento abarca un rango que va desde los -55oC a 150ºC.
El motor utilizado es del tipo servomotor, el cual está compuesto por juegos de engranajes, alimentado por corriente continua, para potenciar el torque del motor y permitir mantener una posición fija. La característica que más destaca de los servomotores es su capacidad de controlar la posición, moviéndose cierta cantidad de grados en un eje. Para controlar la posición del motor se utiliza un PMW por sus siglas en inglés (Pulse Width Modulation), el cual consiste en enviar pulsos eléctricos de ancho variable, la posición se determina basado en la duración del pulso que hará moverse al juego de engranes y llevara el motor al ángulo deseado.
La programación del sistema se realizo utilizando un Arduino UNO y el envío de datos de temperatura y posición del motor se hace con un módulo Bluetooth HC-05 para que sea un sistema inalámbrico cuyo control se realiza a través de la aplicación.
CONCLUSIONES
Finalmente, explicado lo anterior se busca que el motor del sistema sea controlado por medio de la temperatura, es decir el movimiento se suspenderá al alcanzar temperatura fuera del rango 36ºC a 39.5ºC ya que se pretende simular las condiciones del medio fisiológico. Como entregables se generaron un manual de usuario el cual explica de manera detallada como manejar la aplicación y el manual de desarrollador el cual despliega el completo funcionamiento de la programación de la aplicación.
Referencias
Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Morán, D., Navarro, N., García, N., & Caballero, R. (2011). Articulo Protcad. v. https://sudocument.ulpgc.es/bitstream/10553/6318/1/0514198_00025_0003.pdf
Román García, J. L., & Pérez Rojo, B. (2010). Biomateriales. Aplicación a cirugía ortopédica y traumatológica. Univerisad Carlos III de Madrid, 1-2.Duffo, G. (2011). Materiales y materias primas. Materiales y Materias Primas, 43.
Jin, Z., & Fisher, J. (2014). Tribology in joint replacement. In Joint Replacement Technology. https://doi.org/10.1533/9780857098474.1.31
Wisniew, T., Mroz A. (2016) Stand for Trobological Testing of hip endoporostheses. Tribologia, 167.
Sansores Miranda Marcos Gustavo Whiswhanathan, Universidad Autónoma de Zacatecas
Asesor:Dr. Jesús David Terán Villanueva, Universidad Autónoma de Tamaulipas
ANáLISIS Y DOCUMENTACIóN DE UN ALGORITMO TABú PARA PROBLEMAS DE BIN PACKING.
ANáLISIS Y DOCUMENTACIóN DE UN ALGORITMO TABú PARA PROBLEMAS DE BIN PACKING.
Sansores Miranda Marcos Gustavo Whiswhanathan, Universidad Autónoma de Zacatecas. Asesor: Dr. Jesús David Terán Villanueva, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El problema de Bin packin o de embalaje de contenedores busca almacenar articulos de distintos tamaños en contenedores o bins de un tamaño establecido de modo que se utlice un numero finito de contenedores y se minimice el desperdicio de capacidad.
METODOLOGÍA
primero se realizo un modelaje del empaquetado de manera analitica dados un cierto numero de objetos y la capacida del bin, despues se realizo un programa que leia los datos y llenaba los bins de manera aleatoria, finalizando con la implementacion del algoritmo Tabú para acercarnos más al resultado del modelo, al final se documento el programa.
CONCLUSIONES
A comparacion con el modelado que se obtuvo primero el llenado de maner aleatoria tenia varios bins desperdiciados y esto nos aumentaba el numero de bins a utilizar, de modo que al implementar un algoritmo Tabú pudimos reducir el numero de bins asi como el desperdicio en los bins, del mismo modo el documentar el programa permite conocer el movimiento que lleva a las mejoras en el algoritmo asi como la manera en la que se nos da la solucion optima para este problema en especifico.
Santaclara Ambrocio Francisco Jesus, Instituto Tecnológico Superior Purépecha
Asesor:Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.
INDUSTRIAS 4.0 POR EL APROVECHAMIENTO DE LAS PYMES
INDUSTRIAS 4.0 POR EL APROVECHAMIENTO DE LAS PYMES
Santaclara Ambrocio Francisco Jesus, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Enrique Alberto Vázquez Constantino, Centro de Investigación Científica y Estudios Sociales, Económicos y de Mercado del Sector Privado, A.C.
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 es la nueva revolucion industrial que se caracteriza por la digitalizacion de los diferentes procesos industriales, que se han venido evolucionando a traves del tiempo, con la industria 1.0 maquinaria impulzadapor vapor, la 2.0 produccion en masa y energia electrica, 3.0 la automatización, y ahora la 4.0 sistemas interconectados e internet de las cosas.
que le hace falta Chiapas para aplicar la industria 4.0 analizando sus oportunidades de innovar a través de las pymes qué son las pequeñas empresas.
METODOLOGÍA
Las metodologías utilizadas fueron las siguientes:
La recopilación de información fue hacer tipos fichas bibliográficas donde poníamos la información general respecto a la industria 4.0 y Estado del arte.
Realizar tres metodologías que fueron la metodología de Porter, Pestel y Delphi.
La metodología de Porter la utilizamos para saber las amenazas de mercado proveedores competidores de la industria 4.0 para poderla aprovechar en Chiapas.
La metodología de Pestel él fue analizar el entorno tecnológico ecológico legal social cultural de la industria 4.0 en Chiapas.
La metodología de Delphi fue la las entrevistas a los expertos en la industria 4.0 como fue al doctor Lauren respecto a la impresión 3D y fue una grata entrevista ya que pudimos preguntarle respecto toda la industria a la impresión 3D y como lo podríamos ocupar en algunas otras ramas o servicios económicos.
CONCLUSIONES
Para aplicar la industria 4.0 en el Estado de Chiapas se necesita hacer un cambio total de cultura de la sociedad como Al igual una infraestructura mejorada para que ésta pueda llegar además de cambiar y eliminar los paradigmas y factores como lo son la discriminación y la desigualdad en Chiapas se ve un potencial fuerte por lo que hay gente muy talentosa pero con poco apoyo.
Santana Contreras Daniel, Tecnológico de Estudios Superiores de Tianguistenco
Asesor:Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
HERRAMIENTA AUTODIAGNóSTICO PARA EL GOBIERNO DE TECNOLOGíAS DE LA INFORMACIóN PARA EMPRESAS
HERRAMIENTA AUTODIAGNóSTICO PARA EL GOBIERNO DE TECNOLOGíAS DE LA INFORMACIóN PARA EMPRESAS
Ballesteros Reyes Luisa Fernanda, Tecnológico de Estudios Superiores de Tianguistenco. Santana Contreras Daniel, Tecnológico de Estudios Superiores de Tianguistenco. Asesor: Dra. Gina Paola Maestre Gongora, Universidad Cooperativa de Colombia
PLANTEAMIENTO DEL PROBLEMA
Se propone diseñar una aplicación web que evalué el gobierno de TI y ofrecer retroalimentación de fortalezas y debilidades para la mejora continua, mediante software libre, ya que en las empresas no siempre ven al área de TI como una inversión sino como un gasto, y al ser esto así pues no hay gran apoyo en sí. Lo que los directivos no saben es que cuando les falla algún sistema, el departamento de TI, responde, pero si hay deficiencias en alguna área va a haber fallas al momento de que se realice alguna atención del departamento de TI. Para ello se plantea el desarrollo para identificar las dificultades o debilidades dentro de la empresa como área de TI entre otras: si no hay capacitación insuficiente, personal de TI insuficiente, cotización de altos costos, escaza adopción de tecnologías y esto conlleva a personal con sobrecarga laboral perdida de oportunidades y clientes o fracasos de proyectos de TI por inadecuada gestión
METODOLOGÍA
Por medio de una metodología ágil de desarrollo de software en este caso SCRUM, se hacen entregas pequeñas, para dar resultados paso a paso y las correcciones sean casi inmediatas. Se desarrolla una Herramienta software de autodiagnóstico, por medio del cual los líderes de las empresas podrán reflexionar sobre múltiples de aspectos relacionados con TI. Para ello, se ha creado este instrumento interactivo que permite, a través de un cuestionario distribuido en cuatro categorías dar un diagnóstico y unas recomendaciones encaminadas a ayudar alinear los objetivos de TI con los de la empresa.
CONCLUSIONES
La importancia del proyecto dentro de una empresa es para la evaluación del área de TI ya que muchas empresas no lo hacen, y realmente no saben el estado del área dentro de la empresa. Con la herramienta, se validará las subáreas de TI como gobierno, tecnologías emergentes y aprendizaje organizacional y se evalúa donde se debe de aportar un mejor desarrollo y donde hay que mantenerse. Se desarrolló una aplicación web, en PHP, CSS3 y MYSQL, donde se arrojarán resultados y se capturarán dentro de la base de datos para generar un informe de cada sección dentro de la página para la retroalimentación, además de poder guardar un historial por persona para comparar los resultados pasados con resultados futuros. De esta forma se verá la importancia del autodiagnóstico.
En esta pasantía se fortalecieron los conocimientos en Ing. de software, bases de datos, desarrollo web, no solo teóricos sino prácticos fuera del contexto de la escuela aplicados a un proyecto en sí, con una clara metodología en este caso SCRUM para poder llevarlo a cabo en las 7 semanas de la pasantía, además de esto se aprendió a trabajar de manera remota en un desarrollo sin perder el rumbo del proyecto. Fue una experiencia muy rápida, pero de ella se aprendió mucho ya que no se había trabajado con la metodología SCRUM y gracias al el asesoramiento y dedicación de la Dra. Gina Paola Maestre Gongora por dirigirnos en esta pasantía, ya que con su conocimiento y experiencia nos brindo todas las herramientas necesarias para poder llevarla a cabo.
Santiago Pablo Mayra Janet, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Iván Félix González, Instituto Mexicano del Petróleo
ANáLISIS Y DISEñO DE ESTRUCTURAS PARA SOPORTAR TURBINAS EóLICAS COSTA AFUERA
ANáLISIS Y DISEñO DE ESTRUCTURAS PARA SOPORTAR TURBINAS EóLICAS COSTA AFUERA
Santiago Pablo Mayra Janet, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Iván Félix González, Instituto Mexicano del Petróleo
PLANTEAMIENTO DEL PROBLEMA
Como sabemos existen diferentes tipos de cimentaciones para soportar turbinas eólicas marinas, teniendo en cuenta desde el tipo de material que se va a usar en la cimentación y el tamaño de la turbina a colocar ya que entre mayor sea el diámetro del rotor mayor será la potencia, así como la necesidad de tener una mayor altura de la torre. Que esto a su vez incrementa los costos de operación, construcción y mantenimiento. Estos costos económicos y tecnológicos limitan las variables involucradas en el diseño estructural. Las torres de hormigón y acero suelen funcionar adecuadamente hasta turbinas de 5MW, pero para turbinas de mayor potencia aún está en proceso de pruebas.
Analizaron diferentes tipos de torres eólicas que existen en la actualidad, así como también las tecnologías que se están desarrollando para optimizar el diseño y la construcción de torres para aerogeneradores de más de 5MW.
METODOLOGÍA
Criterios de diseño.
La subestructura marina debe ser diseñada para que soporte cargas estáticas, cíclicas y transitorias. Los criterios de diseño utilizados incluyen todos los requisitos operativos y datos ambientales (cargas del entorno, etc.) que podrían afectar al diseño detallado de la subestructura.
El diseñador debe obtener un conjunto de datos que definan las condiciones meteorológicas y oceanográficas. Es importante recalcar que estos datos deben ser obtenidos por un especialista en el tema. Una vez obtenidos el conjunto de datos se deben analizar estadísticamente para conseguir las condiciones ambientales normales y extremas del emplazamiento.
Para realizar el cálculo de una estructura marina se deben tener en cuenta todas las cargas que puedan provocar algún tipo de esfuerzos en la estructura. Estas pueden ser clasificadas como:
• Peso muerto.
• Cargas vivas.
• Cargas del entorno.
• Cargas de construcción y transporte.
• Cargas de recuperación y reinstalación.
Diseño de la subestructura marina.
El diseño y el análisis estructural de la subestructura sobre la que se apoya el aerogenerador offshore se realizan de acuerdo con las normativas ISO para el diseño de estructuras marinas. Las subestructuras deben diseñarse para soportar tanto cargas estáticas como dinámicas. Las cargas que generen fatiga y causen un daño durante el transporte y la instalación de las subestructuras deberán tenerse en cuenta. En el caso de que la subestructura vaya sujeta al fondo marino mediante unos pilotes, deberá verificarse además con un análisis especifico de la interacción suelo-pilote-estructura, teniendo en cuenta la dinámica de esta unión .
El diseño de una subestructura debe realizarse junto con el diseño del aerogenerador. Estos dos diseños siempre deberán estar relacionados. Para ello deben conocerse tanto las cargas de viento como la de olas, junto con otras propiedades marinas.
CONCLUSIONES
Los cálculos fueron desarrollados mediante el programa Octave. Se determinaron los valores de las distintas fuerzas que se utilizaron para el diseño y el correcto dimensionamiento tanto de la torre como de la cimentación.
Al desarrollar los cálculos de fuerzas actuantes de viento y corriente, elementos mecánicos y esfuerzos de una estructura eólica marina, nos damos cuenta que el diseño de las torres está en función del incremento de la potencia de las turbinas eólicas. Al mismo tiempo en base a las gráficas arrogadas en el programa de cálculo, nos damos a la tarea de analizar si es considerable las dimensiones propuestas y así proceder con el diseño del aerogenerador o de lo contrario proponer nuevas dimensiones.
Santillán Rentería Jorge Antonio, Instituto Tecnológico de Ciudad Juárez
Asesor:Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
DISEñO DE UN MECANISMO DE ENERGíA UNDIMOTRIZ EN LAS COSTAS DEL CARIBE COLOMBIANO
Álvarez Campos Jesús Alberto, Universidad de Guadalajara. Lopez Ortiz Silvia Lizbeth, Tecnológico de Estudios Superiores de Valle de Bravo. Santillán Rentería Jorge Antonio, Instituto Tecnológico de Ciudad Juárez. Asesor: Mg. Edgardo Arrieta Ortiz, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El aprovechamiento de la energía undimotriz para generación eléctrica ha pasado desapercibida hasta hace pocos años debido a su complejo desarrollo y a sus elevados costos. En un mundo donde el grueso de las energías renovables más rentables y eficientes hoy día lo componen, eólica, solar e hidroeléctrica. (Hurtado, 2016). En Colombia la energía undimotriz es poco conocida y desarrollada, además ha sido poco investigada desconociendo el gran potencial energético que poseen las olas, sumado a la gran extensión de costas que posee el país. Para cumplir con el objetivo, se requiere conocer el potencial energético que poseen las olas, y esto fue posible con la aplicación de ecuaciones consultadas, las cuales tienen en cuenta variables como: altura de la ola, período de las olas, densidad del agua de mar, temperatura y velocidad del viento en la zona. (Zapata, 2017). Es por eso que surge la preocupación de crear tecnologías para el desarrollo sostenible, y que no represente un factor más que contribuya a los grandes problemas ambientales que hoy por hoy presenta el planeta.
METODOLOGÍA
Se tomó como base la Teoría de Oleaje Lineal.
Leyes de Euler.
Transformada de Laplace.
Se hizo un bosquejo del generador central.
Calculamos masa, peso entre otras cosas con el Principio de Arquímides.
Se utilizo software para hacer simulaciones en tiempo real tales como:
SolidWorks
Geogebra
Matlab
C++
Se hicieron algunas graficas tomando como base los datos obtenidos de las aplicaciones Nautitude y Windy.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la energía undimotriz y con base en se aprendió a calcular el potencial eléctrico que el generador absorbe sobre las olas, al igual conocimiento sobre otras aplicaciones como Nautitude, Windy, Matlab, Geogebra etc; estos para entender el comportamiento de los flotadores. Al ser una energía poco conocida aún se encuentra en investigación y sólo podemos calcular algunos datos. Para el sistema mecánico dinámico de los flotadores, se tomó en cuenta la suma de todas las fuerzas a las que está sometido el sistema, como por ejemplo; las fuerzas de empuje, fricción, inercia y del resorte. Cada una de esas fuerzas intereactúa de tal manera que se describe un modelado matemático parecido a la función de transferencia con la transformada de Laplace. Se representan las fuerzas como señales de entrada y de salida según el movimiento de las olas que dirige el movimiento del flotador.
Se espera crear una granja de mecanismos y un mecanismo debería ser capaz de alimentar un hogar.
Santos Carreón Suria Almendra, Universidad de Guadalajara
Asesor:Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
SIMULACIóN HIDRODINáMICA PARA ESTIMAR CURVAS DE DAñOS POR RIESGOS MULTI-AMENAZA
SIMULACIóN HIDRODINáMICA PARA ESTIMAR CURVAS DE DAñOS POR RIESGOS MULTI-AMENAZA
Santos Carreón Suria Almendra, Universidad de Guadalajara. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
Las inundaciones son un riesgo natural que se aprecia comúnmente en distintas ciudades de Latinoamérica y el Caribe. En México, cada año se producen daños que afectan distintas actividades industriales, comerciales, al medio urbanizado, a la infraestructura y a los servicios públicos. Es común encontrar en la literatura especializada relaciones entre los daños y la altura del agua durante una inundación para casas habitación. Sin embargo, poca información se tiene sobre las relaciones para estimar las afectaciones en otro tipo de inmuebles. En este trabajo se propone una estimación de daños económicos generados por inundaciones, con el fin de generar medidas de prevención y mejoras en la gestión del recurso hídrico y los usos de suelo en zonas urbanas.
METODOLOGÍA
La estimación de daños económicos tangibles directos es generada para el caso de infraestructura hospitalaria, escuelas y vialidades. Para obtener dicha estimación de daños económicos, en el caso de las escuelas y hospitales se toma en cuenta el tirante alcanzado por la inundación generando curvas tirante-daño. Por otro lado, en las vialidades se toma en cuenta la velocidad con la que se transporta el agua. Siendo la erosión el factor principal de daño; teniendo así curvas de velocidad de la inundación en función de los daños económicos generados. Como herramienta se utiliza una simulación hidrodinámica de flujo superficial en una cuenca en la ciudad de Querétaro, para el evento extremo registrado el 26-27 de septiembre de 2017. El impacto de las inundaciones en el daño económico es expresado en función de salarios mínimos con el fin de que éste sea fácilmente aplicado en los futuros años.
CONCLUSIONES
El desarrollo de la presente investigación permitió la adquisición de conocimientos teóricos respecto a las distintas metodologías existentes para la elaboración de curvas de daños económicos generados por distintas variables de inundaciones. De igual manera, se desarrollaron habilidades en el manejo de softwares de modelación en dos dimensiones para observar el comportamiento de las lluvias en la zona a estudiar, así como la compresión de modelos y programas de interpolación que nos permitieron realizar estimaciones y obtener resultados con gran precisión.
Santoyo Oropeza Brenda Lizeth, Instituto Politécnico Nacional
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
ESTUDIO DE INGENIERíA SíSMICA MEDIANTE EL PROCESADO Y ANáLISIS DE ACELEROGRAMAS EN LA CIUDAD DE MéXICO
ESTUDIO DE INGENIERíA SíSMICA MEDIANTE EL PROCESADO Y ANáLISIS DE ACELEROGRAMAS EN LA CIUDAD DE MéXICO
Santoyo Oropeza Brenda Lizeth, Instituto Politécnico Nacional. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
México es un país donde colindan cinco placas tectónicas, siendo la placa del Caribe, Cocos, Pacífico, Norteamericana y Rivera. Al liberarse la energía producida por el rozamiento entre estas placas se generan sismos, que, dependiendo de su magnitud, aceleración, profundidad, entre otros; pueden y han tenido grandes repercusiones en las estructuras de los edificios, y en el peor de los casos, en la baja de vidas humanas.
La Ciudad de México alberga una variada gama de tipos de suelo, factor que debe ser tomado en cuenta en el proceso de diseño y construcción de un edificio.
METODOLOGÍA
Se selecciona la Ciudad de México como zona de estudio, con una población que supera los nueve millones de personas, debido a la gran cantidad de desastres ocurridos en las últimas décadas debido a los movimientos sísmicos del terreno.
Coordenadas geográficas de referencia en la Ciudad de México:
19.4194 N, 99.1456 O
De la base de datos de registros públicos acelerográficos de la RAII-UNAM, se extrajo la información de los sismos con mayor relevancia en los últimos cuarenta y dos años, que han afectado a la Ciudad de México.
Dentro de las estaciones consideradas para el estudio se eligieron aquellas con mayor número de registros para los diferentes tipos de suelo y mediante la herramienta de Google Earth, las estaciones son ubicadas en el mapa físico.
Analizando los datos de los últimos cuarenta años, bajo el criterio de magnitud mínima de 5.5, se seleccionan los sismos que tuvieron un gran impacto en la población, considerando que algunas estaciones fueron implementadas posteriores al sismo de 1985 y otras se encuentran fuera de operación. De igual manera los sismos se representan en un mapa físico.
En función del fenómeno que originaron los sismos analizados, se clasifican en tres tipos: Cortical, profundo y de subducción.
Mediante la herramienta de Seismograms Analyzer-e, se realiza el procesado de la información.
De los reportes dados se indica si hubo daños a edificios y si la velocidad absoluta acumulada estándar amerita o no una alerta como un sismo potencialmente dañino a edificios.
CONCLUSIONES
Los sismos de gran magnitud, en su mayoría, provienen de la costa del Pacífico, a lo largo de Michoacán, Guerrero y Oaxaca.
Los principales factores que intervienen en las características del movimiento del terreno es la magnitud del sismo, la distancia y el tipo de suelo que recorre desde el epicentro hasta la zona de estudio, la profundidad a la que se origina, el tipo de suelo en la que se encuentra la zona de estudio.
A pesar del gran número de registros sísmicos con los que cuenta la Ciudad de México, existe una discontinuidad en los mismos, debido a la transferencia de las estaciones o la falta de operación de las mismas.
Todos los sismos seleccionados presentaron un fuerte daño en edificaciones, pero la velocidad absoluta acumulada estándar no indica en un considerable número de casos que exista una alerta. Debe replantearse el valor mínimo para dar alerta dadas las condiciones en los estándares de seguridad de la construcción de edificios.
Segundo Cortés Cesar Augusto, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
DIAGNóSTICO EN LA FORMACIóN EDUCATIVA PARA EL PERFIL LABORAL EN INDUSTRIA 4.0 EN EL ESTADO DE MéXICO
Jiménez Mercado Diana, Tecnológico de Estudios Superiores de Valle de Bravo. Osorio Chino Andrea Paola, Tecnológico de Estudios Superiores de Valle de Bravo. Segundo Cortés Cesar Augusto, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dra. Karina Cecilia Arredondo Soto, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La industria 4.0 en el Estado de México actualmente presenta oportunidades, pero también desafíos para las organizaciones de la industria, ya que los beneficios son potencialmente efectivos por quienes son capaces de innovar y adaptarse. Así mismo se hace visible que las organizaciones pueden adaptarse a los cambios, siempre y cuando conozcan y sepan adecuar a su sector productivo, las tecnologías necesarias para optimizar tanto los procesos como la capacidad de mejorar su rentabilidad. Por eso se hace necesario hacer énfasis en la implementación de programas educativos enfocados a la I4.0 ya que la educación no es ajena a esta revolución, dado que debe preparar a las personas para lo que ocurre en la industria y de esta forma mantener la relación que existe entre la industria y la educación.
Es por ello que el análisis de los programas existentes en el Estado de México es de gran relevancia para poder conocer como la Industria 4.0 está siendo implementada en un área tan importante como la educación, por lo que durante el verano de investigación se estudian componentes indispensables de la I 4.0 así como los programas educativos de Educación Superior del estado y algunos internacionales para así poder saber cómo esta Revolución Industrial ha causado la necesidad de adaptar la educación para que los estudiantes desarrollen las competencias disciplinares y transversales que solo adquirirá en procesos de aprendizaje a lo largo y ancho de su vida, que lo preparen constantemente para una realidad laboral cambiante y exigente.
METODOLOGÍA
La revisión de la literatura relacionada con los temas de Educación e Industria 4.0, refleja que ambas deben coexistir, trabajar y avanzar de manera lateral, tanto las personas como la tecnología deben converger en la creación de nuevas oportunidades de creatividad e innovación.
Es por ello que el propósito de esta investigación es determinar el estado actual del contexto regional (EDOMEX) para la formación de recursos humanos para el perfil laboral de la industria 4.0. El objeto de estudio es la Industria 4.0, en el contexto del sector productivo industrial regional. El sujeto de investigación incluye Instituciones de Educación Superior del Estado de México como base, en comparación con otras a nivel nacional e internacional.
Actualmente las Instituciones educativas enfrentan un gran desafío para lograr la fusión e implementación de la industria 4.0 en la educación, no obstante, se trabaja y se le da la importancia y necesidad que amerita este muevo cambio.
Por lo tanto este trabajo aplica un estudio documental para la construcción del marco teórico y un estudio de campo mediante una encuesta diseñada en dos secciones, una abierta para obtener mayor información de los expertos y otra cerrada con escala tipo Likert; cada una de las respuestas tiene el significado mostrado a continuación: 1) Totalmente en desacuerdo: El encuestado tiene razones suficientes para rechazar la afirmación, jamás se presenta esa situación para el argumento evaluado. 2) Muy en desacuerdo: El encuestado rara vez concuerda con ese argumento. 3) Ni de acuerdo ni en desacuerdo: El encuestado no tiene argumentos para decidir sobre la afirmación. 4) Muy de acuerdo: El encuestado frecuentemente coincide con el argumento en cuestión. 5) Totalmente de acuerdo: El encuestado tiene razones suficientes para aceptar la afirmación presentada. El instrumento se aplicó a especialistas en temas relacionados con Industria 4.0 con escolaridad mínima técnico con un rango menor a dos años de experiencia en adelante en la industria regional con la finalidad de ahondar en las capacidades tecnológicas disponibles en las IES.
CONCLUSIONES
Las Instituciones de Educación Superior mexicanas son competitivas a nivel internacional, buscando su adaptación al nuevo paradigma, sin embargo estos esfuerzos aun no son suficientes ya que es necesario la implementación de más programas educativos enfocados a I4.0; los existentes solo han adaptado ciertas materias y a pesar de que no es una Revolución tan reciente, la mayoría de las personas con conocimientos en I4.0 tiene poca experiencia. Es por ello que las IES se deben comprometer a adaptar sus modelos educativos en pro de la demanda puesto que en su mayoría las personas a las cuales les interesa estudiar una carrera enfocada a la I4.0 deben de buscar carreras que se relacionen ya que no existe un plan de estudio universitario 100% enfocado al tema; por lo que las instituciones educativas que forman profesionistas no deben ser ajenas a los rápidos cambios que se dan en la industria, por lo que los perfiles profesionales de los profesores de las áreas de industria 4.0 deberían ser pertinentes con las necesidades de la región, sin embargo, a pesar de que estos profesionistas están en la disposición de capacitarse más en el tema al no contar con los programas suficientes como lo son cursos, maestrías o doctorados esto no será posible.
Es necesario que los docentes tengan experiencia profesional para fomentar en los estudiantes la innovación y creatividad que permita realizar procesos similares de aplicación futura e implementando cursos prácticos para captar su interés. Emplear este tipo de enfoques permite una mejor comprensión y acercamiento por parte de los estudiantes a los temas para que estén preparados y puedan ser dinámicos, activos y reflexivos respecto a su responsabilidad como profesionistas.
Por ello es necesario contar con una mejor agenda académica para promover el desarrollo de la I4.0 en la región y contar con más programas de apoyo económico tanto a las instituciones como a los estudiantes, esto permitirá crear nuevos modelos educativos así como la actualización de los existentes y los enfoques de trabajo, así mismo toda la infraestructura y encuadre de los contenidos educativos. Pero, esto llevará tiempo, dinero y modificaciones profundas en la cultura organizacional y en las formas de hacer las cosas.
Segura Martínez Alejandro, Universidad de Guadalajara
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
ANáLISIS DE FATIGA Y CLASIFICACIóN DE SEñALES EMG EN BASE AL PESO, VELOCIDAD Y FASES DEL MOVIMIENTO
Adame Galeano María Fernanda, Instituto Politécnico Nacional. Martinez Hernandez Abelardo, Instituto Tecnológico de Tuxtla Gutiérrez. Otamendi Torres Martin, Benemérita Universidad Autónoma de Puebla. Segura Martínez Alejandro, Universidad de Guadalajara. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La evaluación de la señal electromiográfica (EMG) tiene muchas aplicaciones en el área biomédica especialmente en interfaces hombre-máquina. Para procesar los datos de EMG es necesaria la fase de preprocesamiento, en esta fase se establece la extracción de características e índices para procesar y analizar la señal con el fin de crear clasificadores y modelos de regresión. Una vez que la precisión de dichos modelos y clasificadores es lo suficientemente efectiva, el método de análisis podría cambiar de fuera de línea a en línea, para procesar los datos en tiempo real y desarrollar una aplicación específica de control de dispositivos con EMG.
El objetivo de este estudio realizado durante el verano de la investigación, es la creación de diferentes scripts que clasifiquen mediante el método Off-line y a través de la aplicación de algoritmos de Machine Learning, las Fases, Velocidad, Peso y Fatiga y compilar todos los scripts en una aplicación o GUI para usarlos fácilmente.
METODOLOGÍA
Protocolo Experimental
Consiste en la adquisición de EMG durante la realización de una flexión-extensión del brazo la cual consta de 5 fases, dichas 5 fases constituyen un Trial (repetición). Se realiza un trial a distintas velocidades: rápida (16 segundos de duración), normal (20 segundos) y lenta (24 segundos), esto constituye un run (corrida). Además, 5 runs forman un bloque y en cada uno de ellos el usuario carga un peso diferente en su mano. Los pesos usados para este estudio fueron 0 libras, 2 libras y 5 libras. En total se tienen a analizar 3 bloques, 15 runs y 45 trials. Los músculos del bíceps braquial, tríceps braquial, braquiorradial y braquial son los involucrados en el movimiento de flexión-extensión que se realiza en el experimento; sin embargo, solo se capturan las señales del bíceps braquial y tríceps braquial. Se plantea que este protocolo puede ser utilizado con cualquier adulto sin trastornos del movimiento.
Adquisición de la señal:
Se utilizará una ortesis adaptable a la que se le colocaran los electrodos superficiales que estarán conectados a un equipo o dispositivo de adquisición de señal EMG, en paralelo a esto se conectará un encoder con un dispositivo de lectura de señales digitales, ambos circuitos se conectarán a un software que leerá los datos del EMG, en este experimento fue utilizado el dispositivo g.STIMbox y el software BCI2000. Las señales EMG se muestrearon con una frecuencia de 4800 Hz.
Posteriormente se establecen parámetros que se utilizarán en el procesamiento de los datos, entre estos parámetros se encuentran: Tipo de estudio, clasificador, feature, normalización, etc.
Procesamiento y análisis:
En este punto se desarrollaron una serie de scripts en el programa MATLAB con el fin de automatizar el preprocesamiento de los datos y lograr llevar un mejor manejo de los cálculos y algoritmos durante el procesamiento de cada estudio.
En el caso de los clasificadores se usa uno de los siguientes métodos:
Linear Discriminant Analysis (LDA).
SVML (Support Vector Machine Linear).
SVMR (Support Vector Machine Reggresion).
Para el análisis de fatiga se toman los datos de los 45 trials y se intuye que en el primer trial se tendrá una mucho menor fatiga que en el número 45 por lo que se ordenan los datos en este mismo orden.
Para este análisis se tomaron cuatro diferentes índices de fatiga:
Average rectified value (ARV), el cual es similar al Mean Absolute Value (MAV).
Zero crossing (ZC)
Slope sign changes
Waveform length (WL)
Posteriormente se grafican los distintos índices de cada trial y se diferencian entre biceps y triceps. A partir de los resultados de esta graficación se determinó que los mejores índices para este estudio son ARV y WL.
Para la creación de los modelos de regresión lineal se usaron dos comandos de MATLAB regress y mdl, ambos se probaron con el conjunto de datos provistos de cuatro variables ARV de bíceps, WL de bíceps, ARV de tríceps y WL de tríceps, teniendo la variable a relacionar como el número de trial puesto que esta debe de estar directamente relacionada con la fatiga.
CONCLUSIONES
La clasificación entre el movimiento sin peso añadido y con peso añadido resultó ser muy eficiente, entre distintos pesos no se obtuvieron tan buenos resultados. La clasificación entre velocidades tiene una eficiencia regular en todas las fases del movimiento con 0.83 de exactitud, y mala para ciertas fases o individuales, llegando a tener menos 0.6 de exactitud. Por otro lado, la clasificación biclase entre pesos obtuvo muy buenos resultados independientemente de la fase seleccionada, llegando a tener valores de exactitud mayores a 0.95. Mientras que para la clasificación triclase de pesos se obtuvieron resultados muy cercanos al 100% de predicción considerando las fases de flexión, contracción y extensión del movimiento. Los mejores índices para el análisis de fatiga fueron ARV y WL; además, se concluye que es importante considerar todas las fases del movimiento para la regresión lineal, teniendo una diferencia en el valor R cuadrada de entre 0.32 y 0.23.
A lo largo de la estancia de investigación, se lograron adquirir de manera satisfactoria conocimientos sobre señales electromiográficas, su adquisición, sus características y las diversas formas procesarlas para lograr obtener resultados. Además de obtener conocimientos sobre algoritmos de Machine Learning y del manejo del programa MATLAB, mismos que culminaron en la elaboración satisfactoria de un guide para facilitar el manejo de los estudios y sus resultados. Por último, se espera mejorar en un futuro algunos aspectos mínimos mencionados para el procesamiento de las señales.
Segura Ramirez Natalia, Universidad Autónoma de Manizales
Asesor:Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán
DESARROLLO DE UN MODELO DE NEGOCIO PARA EL DISPOSITIVO MEDIDOR DE SATURACIóN DE OXíGENO UTILIZANDO LA METODOLOGíA DE DESIGN THINKING.
DESARROLLO DE UN MODELO DE NEGOCIO PARA EL DISPOSITIVO MEDIDOR DE SATURACIóN DE OXíGENO UTILIZANDO LA METODOLOGíA DE DESIGN THINKING.
Gomez Hoyos Simon, Universidad Autónoma de Manizales. Segura Ramirez Natalia, Universidad Autónoma de Manizales. Asesor: Dr. Omar Jehovani López Orozco, Instituto Tecnológico Superior de Apatzingán
PLANTEAMIENTO DEL PROBLEMA
La tasa de mortalidad de recién nacidos prematuras ha disminuido en las últimas décadas esto gracias a nuevas estrategias y cuidados neonatales durante y después del parto. Sin embargo, existe alto riesgo de complicaciones y muertes durante la etapa neonatal.
Por falta de la atención supervisada continua por parte del personal de salud genera riesgos en los neonatos cuando están en el hogar, lo cual se ve afecta la probabilidad de muertes antes de los 5 años, según OMS.
Actualmente el monitoreo de las variables fisiológicas en neonatos prematuros, que pertenecen a programas de oxígeno domiciliario, se realiza mediante el uso de un pulsioxímetro. Además, se les entregan los elementos de administración de oxígeno, como lo son oxígeno en cilindro y concentrador de oxígeno.
A lo largo de los últimos años se han ido desarrollando nuevos dispositivos y proyectos relacionados con el monitoreo de variables fisiológicas de neonatos en el hogar, algunos de ellos aplicados a neonatos que pertenecen a programas de oxígeno domiciliario. Es necesario realizar un análisis del modelo de negocio de estos dispositivos y proyectos para ver la viabilidad de estos en el mercado, analizar sus usuarios, ver sus necesidades y validar su satisfacción frente a los usuarios.
Al aplicar la metodología Design Thinking va a permitir un análisis de viabilidad de los dispositivos de monitorización de saturación de oxígeno, teniendo en cuenta la percepción del usuario y cuáles son las necesidades que este tiene. Por lo cual, esto parte de un reto de innovación en el cual va a ayudar a delimitar el público objetivo y poder realizar un estudio del mercado más acorde con la problemática anteriormente expuesta. Por tanto, el reto de innovación como punto de partida para esta investigación es De qué manera podríamos prevenir riesgos en los neonatos oxígeno requirentes para disminuir la mortalidad a través del uso de la teleasistencia en los municipios de Manizales y Villa Maria.
METODOLOGÍA
La metodología que se utiliza está relacionada con el desarrollo ágil de start ups. El proceso que se lleva a cabo se describe a continuación.
Establecer el reto de innovación como punto de partida para aplicar conceptos de Design Thinking permitió dar un análisis al modelo de negocio actual para desarrollo del dispositivo. Dentro de las actividades que se debieron realizar para poder implementar dicha metodología son los siguientes:
La creación de Scan Cards que permitió realizar un panorama de las tendencias actuales. De las cuales, ayudaron a entender la situación de los usuarios antes de poder realizar las entrevistas pertinentes.
Se realizó un análisis de tendencias actuales basadas de las Scan Cards en las cuales se pueda identificar categorías donde se puedan agrupar estas tendencias. Esto ayuda a entender a quién va dirigida la investigación.
Se hizo una matriz de Tendencias que nos permite obtener información acerca del producto que estamos analizando categorizado en 4 factores que son cultural, tecnológico, servicio y usuarios. En cada uno de estos se identificaba como se realizaba en el pasado, actualmente como se lleva a cabo y como se piensa que será en un futuro.
Se identificaron perfiles de usuarios primarios, secundarios, stakeholders, retractores asociados al dispositivo al realizar. Para esto se llevó a cabo un mapeo de usuarios y stakeholders, para identificar los usuarios que se van a entrevistar.
Se propuso hipótesis para cada uno de los perfiles identificados, con la finalidad de poder generar las preguntas pertinentes para las entrevistas. Estas preguntas deben generar una narrativa que permita entender al usuario.
Desarrollar un guión para las entrevistas.
Se realizaron entrevistas a los perfiles identificados.
Se documentaron las entrevistas en formatos especiales para su posterior estudio.
Identificar insights de gran valor donde se puedan generar nuevas oportunidades de atractivos negocios y que permitan entregar valor a usuarios y consumidores, expresado en forma de productos, servicios y experiencias deseables, relevantes, significativas y rentables.
CONCLUSIONES
Conclusiones Resultados:
Considerar todas los usuarios que puedan tener relación directa o indirecta e incluso detractores, nos amplía la visión de cómo entregar valor a los usuarios.
Se espera que el análisis de las entrevistas realizadas al personal de salud (relacionado a las unidades de neonatología) y personal técnico de los equipos médicos presentes en el hogar nos brinde información relevante que podamos aplicar o implementar en el diseño del dispositivo monitoreo de saturación de oxígeno.
En la entrevista realizada al personal técnico de la instituciones prestadoras de servicios de salud, se pudo observar que a los acudientes de familia no se les brinda las capacitaciones necesarias para el buen manejo de los dispositivos. Además, mencionan que la mejor manera de realizar una capacitación es dando una demostración del manejo del equipo y que esta sea muy dinámica.
Los del personal técnico de las clínicas/hospitales identificaron que muchas veces no realizan la lectura de los manuales de usuarios para poder saber cómo manipular el equipo que tiene en casa, por lo cual mencionaron que una forma de solucionar es mediante el uso de guías rápidas con escritura más coloquial y que fueran más dinámicas.
Conclusiones aprendizaje del proceso:
Para el desarrollo de una nueva tecnología es pertinente realizar estudios generales del mercado ya que nos ofrecen la obtención de datos o factores que pueden ser relevantes al momento de llevar este producto al mercado.
Es importante relacionar las necesidades emocionales de los usuarios con el planteamiento del producto para validar posibles soluciones en necesidades latentes de estos usuarios.
Sepúlveda Betancurt Rubén Darío, Universidad Cooperativa de Colombia
Asesor:Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez
APLICACIóN DE SISTEMA DE RIEGO AUTOMATIZADO PARA EL RIEGO DE FORRAJE VERDE HIDROPóNICOS
APLICACIóN DE SISTEMA DE RIEGO AUTOMATIZADO PARA EL RIEGO DE FORRAJE VERDE HIDROPóNICOS
Sepúlveda Betancurt Rubén Darío, Universidad Cooperativa de Colombia. Asesor: Dr. Madain Pérez Patricio, Instituto Tecnológico de Tuxtla Gutiérrez
PLANTEAMIENTO DEL PROBLEMA
El forraje hidropónico es un medio para generar alimento para animales de campo en donde las zonas de cultivos presentan dificultades para su crecimiento o zonas afectados por el sobrepastoreo de animales.
El cultivo de forraje verde hidropónico, se necesita administrar agua con minerales en este caso cal para su desarrollo y prevenir la infección en el cultivo.
METODOLOGÍA
La metodología empleada fue básicamente una metodología cualitativa, para ello
se aplicaron técnicas proyectivas donde ser realizan modelado de la construcción de elementos para el uso de una animación, uso de la herramienta blender, construcción de elementos.
Se baso en la investigación de la elaboración de modelados 3D, primero se hizo una investigación sobre el tema de forraje hidropónico, luego acompañado del asesor, se realizó una consulta de cómo realizar modelados 3D de cada elemento como bandeja, semillas y sistema autónomo de riego.
CONCLUSIONES
De la presente investigación se llevó a cabo una recopilación sobre como implementar y utilizar el uso de los forrajes verdes hidropónicos. También se ha determinado la importancia de los forrajes verdes hidropónicos como sustento para la alimentación de los animales en zonas donde el ambiente no es apto para el cultivo, también en zonas afectadas por el sobrepastoreo. Cabe mencionar que gracias al Verano de la Investigación Científica he llegado a conocer muchas técnicas de recopilación de información y aplicaciones que me permitirán el uso en mi campo de estudio, reforzado mi formación académica.
Serret Martínez Paola Alejandra, Instituto Politécnico Nacional
Asesor:Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
SISTEMA DE RECONOCIMIENTO FACIAL APLICADO A LA SEGURIDAD DE UNA GUARDERÍA
SISTEMA DE RECONOCIMIENTO FACIAL APLICADO A LA SEGURIDAD DE UNA GUARDERÍA
Serret Martínez Paola Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Eduardo Vázquez Santacruz, Universidad Autónoma Metropolitana
PLANTEAMIENTO DEL PROBLEMA
Bien es sabido que todas las guarderías toman sus medidas de prevención a la hora de proteger a los menores en cuestión de alejarlos de todos los peligros al interior de la estancia, sin embargo, debemos de tomar en cuenta que también hay peligros al exterior, dicho esto se refiere que, aunque el personal conozca a los padres de familia, puede haber situaciones en que haya un cierto descuido de dicho personal, ocasionando que algún extraño y/o conocido pueda aprovechar esta situación para sustraer a un menor sin la autorización del tutor. Es por ello que la implementación de un sistema de reconocimiento facial, puede ser un gran mecanismo para controlar las salidas de los menores, siendo también algo más higiénico ya que no se necesita el contacto.
METODOLOGÍA
Se llevó a cabo la exploración en la página de OpenCV, acto seguido se descargó Python 3.8.2., OpenCV, Pycharm y haarcasde.frontalface_default.xml.
En PyCharm se hizo un archivo nombrado webcam.py, en el cual se usaron unos comandos los cuales son para que se pueda ingresar una matrícula con la cual se guardará la carpeta en donde se almacenarán las fotos, al igual que esta dicha matricula ayuda a que se relacionen el menor con los tutores haciendo uso de una terminación de números iguales. La carpeta se crea automáticamente, se comienza a capturar el rostro y se guardan las imágenes sacadas por la cámara web en dicha carpeta.
Se llevó a cabo un entrenamiento, en el cual se arrojó un modelo almacenado.
Luego en un archivo nombrado reconocimiento.py se pusieron unos comandos, los cuales permitían que con la ayuda de la cámara web detecte a las personas y aparezca la matrícula con la que se tiene registro, de lo contrario se arrojaría un mensaje de desconocido.
CONCLUSIONES
El uso de OpenCV fue de gran ayuda ya que es una biblioteca de código abierto que contiene implementaciones que abarcan más de 2500 algoritmos. Además, está especializada en el sistema de visión artificial y machine learning.
Mientras que Python es un lenguaje de programación de alto nivel. Los desarrolladores pueden leer y traducir el código Python mucho más fácilmente que otros lenguajes.
Gracias a estos recursos se pudo crear un programa el cual permite que a través de una matrícula automáticamente se cree una carpeta que se relacionarán con el menor y los tutores, en ella se guardarán las diversa imágenes que tome la cámara web de la persona y se creará un modelo, el cuál servirá para detectar si el rostro de alguna persona está guardada o de lo contrario sería algún desconocido que no tendrá permitido el acceso a las instalaciones de la guardería y con ello se tendría la seguridad de que los menores estén resguardados hasta que llegue la persona autorizada para recogerlo.
Este método es más higiénico que el detector de huellas, ya que solo es cuestión de capturar el rostro de las personas, con ello, no se requiere el contacto con otras personas más.
Simbron Mckay Valentin Augusto, Universidad de Guadalajara
Asesor:Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
DESARROLLO DE PROTOTIPOS DE AUTOMATIZACIóN
DESARROLLO DE PROTOTIPOS DE AUTOMATIZACIóN
Simbron Mckay Valentin Augusto, Universidad de Guadalajara. Asesor: Dr. Rubén Ruelas Lepe, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El constante aumento de la industria en el mundo ha desencadenado una serie de problemas de los cuales requieren soluciones precisas, óptimas y de bajo costo. El sector privado demanda tecnología para facilitar y automatizar procesos de producción. Esto se traduce que se generarán nuevos empleos que exigirán habilidades más especificas. Según la revista El Economista El mercado laboral tendrá una transformación total debido a los cambios tecnológicos. Sin embargo, el problema no será la generación de empleo, sino la especialización del capital humano.
Para que una empresa pueda funcionar necesita tecnología para producir cualquier producto. Según él Dr. Jorge Carillo Las tecnologías para las empresas se clasifican en duras y blandas, la tecnología dura va, generalmente, a las máquinas, lo que se conoce como hardware, mientras la blanda tiene que ver con el software.
Un estudio publicado en 2017 por la Universidad de Tufts, se analizó a 60 países a través de 170 categorías, tales como leyes de propiedad intelectual, alcance de la banda móvil, y cuánto progresaron en ellas entre 2008 y 2015. México ocupó el lugar 47 en cuanto a desarrollo tecnológico, pero ocupó el lugar 13 como país con mayor ritmo de crecimiento.
En México en términos de crecimiento industrial, está bien posicionado pero el problema surge en cuanto a desarrollo tecnológico. Esto surge por falta de educación interna, y la falta de organización para desarrollar proyectos y concluirlos. Otro problema que enfrenta el país es la falta de tecnología nacional, para lograr el desarrollo tecnológico se requiere desarrollar e importar.
Source: El Colegio de la Frontera Norte. (2018, 5 abril). La industria en México | El Colegio de la Frontera Norte. Gobierno de México. https://www.colef.mx/estemes/la-industria-en-mexico/
METODOLOGÍA
El proyecto se base en una línea de producción flexible, donde se busca reducir el inventario y mejorar la productividad. En vez de almacenar materia prima con anticipación a las necesidades del futuro, gracias a está metodología es posible reducir la estructura de gestión y utilizar los recursos de forma óptima. Otro punto importante al utilizar la producción flexible es que se puede: Eliminar el gasto innecesario de materia prima, se puede minimizar el inventario, se puede cumplir las exigencias de los clientes, se da responsabilidad a los trabajadores y se crea una cultura de mejora continua.
Bajo este concepto se desarrolló el prototipo para representar como operaría una línea de producción flexible, en nuestro caso se utilizaron fichas de distinto tamaño y color en representación de la materia prima. Se busca representar de una forma integrada el funcionamiento de distintos procesos de producción, esto nos daría una visión de cómo operan las grandes cadenas de producción y cómo funciona su automatización.
El trabajo que realicé fue el desarrollar un alimentador de piezas, donde se colocarán las fichas. Se desarrolló utilizando el software Inventor de Autodesk, posteriormente se imprimieron en una impresora 3D, utilizando PLA de 1.75 mm como material principal, las dimensiones de las fichas son de 4 mm, 6 mm y 8 mm.
Otro problema que me tocó solucionar fue el desarrollo de una pieza donde estarán ubicados los sensores que van a detectar qué tipo de pieza se está procesando y el color, esta parte es importante, este sensor nos ayudará a detectar si una pieza está en el proceso adecuado o no.
Con ayuda del software se desarrolló el sensor donde están colocados los emisores y receptores. Las dimensiones son de 58 mm x 75.5 mm x 29.0 mm. Para reducir los costos del material, se tomó la decisión de integrar el sensor con la banda donde pasarán las fichas y así reducir el material de fabricación. Dicha banda tiene las siguientes dimensiones 253 mm x 27.9 mm x 55 mm.
Por tanto, diseñé la compuerta que se activaría para retirar la ficha de la banda de producción en conjunto con el soporte del servomotor.
La compuerta, la cual funciona como separador de fichas, cuenta con las dimensiones son 49 mm x 19 mm x 36 mm. De igual manera se hizo el soporte del servomotor y la banda por donde pasan las fichas.
Soporte del servo: 89 mm x 46.7 mm x 19 mm
Banda: 36 mm x 34.5 mm x 11.6 mm
Con ayuda del simulador de estrés de Inventor, se pudo tener una visión mas clara si utilizar PLA o ABS, dicho informe dio como resultado que el material (PLA) soporta el esfuerzo aplicado por el servomotor y utilizar ABS era innecesario.
CONCLUSIONES
A modo de conclusión, a lo largo del verano se planteó soluciones a problemas presentados, siendo conscientes sobre proponer soluciones eficaces a bajo costo. Mi aportación del proyecto fue importante, la parte de diseño mecánico, en cualquier prototipo es de vital importancia porque aquí se desarrolla la conceptualización de lo que se quiere representar. Considero que gracias a mi participación en esta línea de investigación desarrollé capacidades y habilidades para trabajar en la solución de problemas reales. Esto me permitió poner en práctica los conocimientos adquiridos a lo largo de mi formación universitaria.
Socha Hurtado Daniel Felipe, Universidad Tecnológica de Pereira
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
Hernández Rizo María del Rocío, Universidad de Guadalajara. Socha Hurtado Daniel Felipe, Universidad Tecnológica de Pereira. Velazquez Sanchez Luis Aaron, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Potenciales evocados visuales de estado estacionario (SSVEP) son señales electroencefalográficas que se provocan a través de estímulos visuales. Estas señales son importantes en las Interfaces Cerebro-Computador (BCI). Una BCI es un sistema computacional que permite la comunicación sin medir actividad muscular y que consta de los siguientes elementos:
EEG no invasivo
Preprocesamiento
Machine Learning
Control de interfaces
Retroalimentación
Un SSVEP se obtiene al generar un estímulo y esto genera en el usuario un potencial evocado, en ese sentido, se genera un estímulo visual que se detecta en la corteza occipital y con esta información se puede llegar a diferentes aplicaciones en personas que tienen dificultad para moverse, un ejemplo de esto sería poder escribir sin necesidad de teclado a través de estímulos visuales.
Los evocados se pueden detectar de diferentes maneras:
PSDA Power Spectrum Density Analysis, FFT, trasformar del dominio del tiempo a la frecuencia.
Métodos de filtrado especial: CSP, MEC, CCA Análisis de correlación canónica.
METODOLOGÍA
Para la adquisición de datos participaron 5 sujetos de prueba que fueron durante 3 sesiones estuvieron recibiendo estímulos visuales a través de una pantalla de monitor. Los SSVEP se adquirieron a través de un EEG que constaba de 8 canales ubicados en la corteza occipital de acuerdo con el sistema internacional 10-20. Las señales EEG se adquirieron a una frecuencia de muestreo de 256 Hz.
Durante la adquisición de datos, el participante se sienta frente a una pantalla de monitor en la cual hay un cuadrado apagado, se ilumina el cuadrado durante 2 segundos, lo que corresponde a la presentación del objetivo, luego durante 1 segundo se apaga, lo que corresponde a la etapa de preparación, a continuación durante 15 segundos se prenderá a diferentes frecuencia, lo que corresponde a la etapa de estimulación, y finalmente tendrá 5 segundos, lo que corresponde al descanso, una vez que se termina el descanso se repite el mismo bloque (trial) pero a una frecuencia diferente.
Las frecuencias de estimulación son 11: 5 Hz, 5.4545 Hz, 6 Hz, 6.6667 Hz, 7.5 Hz, 8.5714 Hz, 10 Hz, 12 Hz, 15 Hz, 20 Hz y 30 Hz, también se considera un bloque en el que no hay estimulación. Las frecuencias de estimulación se presentan en un orden aleatorio.
Por convención se trabajó con el participante 1. Con los datos obtenidos se graficó la señal EEG, posteriormente se aisló la señal EEG adquirida por cada canal. A continuación, se identificó el inicio de la fase de estimulación de cada trial y su frecuencia que comprenden del segundo 3 al 18 y se realizó un análisis de frecuencia. Luego se identificó la potencia espectral en la frecuencia fundamental y su primer y segundo armónico.
Con esta información se usó la aplicación de Machine Learning llamada Clasification Learner de MATLAB para hacer un clasificador binario. Se hicieron diversos estudios para encontrar el mejor clasificador a una frecuencia de estimulación elegida, se comparó el mismo clasificador con las demás frecuencias. Se identificaron las frecuencias que mejor clasifica y las peores. Con la frecuencia que mejor clasifica se observa la precisión en la frecuencia fundamental y su primer y segundo armónico.
CONCLUSIONES
Para la clasificación de señales SSEVP es preferible solo usar la frecuencia fundamental ya que con los armónicos usualmente se ve reducida la precisión de los clasificadores.
Para el participante 1 las frecuencias de 6 Hz y 15 Hz se diferencian mucho de las demás y por eso presentan un 100% de acierto con el clasificador elegido.
Los clasificadores de clase KNN mostraron un gran desempeño en la clasificación de las señales SSVEP del participante 1.
Solano de Sixto Gabriel, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
García Vázquez Ivan Horacio, Instituto Tecnológico Superior de Ciudad Serdán. Solano de Sixto Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Ventura Lara Diana Laura, Universidad Mexiquense del Bicentenario. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La actividad en redes sociales ha incrementado considerablemente en los últimos años, donde los usuarios comparten información constantemente sobre diferentes temas y opiniones. Por tal motivo, sería de gran interés analizar qué opinan las personas en relación con el turismo para poder clasificar estos comentarios con la ayuda de análisis de sentimientos, identificando que se está expresando, analizando el número de tweets que se han recopilado y las menciones que se han realizado de las diferentes cuentas.
METODOLOGÍA
Se buscaron 10 lugares turísticos por integrante del equipo de investigación, para hacer un total de 30 lugares turísticos en México.
Lugares turísticos seleccionados
African Safari
Atlixco
Catedral de Puebla
Centro Histórico de Puebla
Pahuatlán
San Andrés Cholula.
Teleférico
Tlatlauquitepec
Xicotepec
Zacapoaxtla
Catedral de Toluca
Cosmovitral Jardín Botánico de Toluca
La Marquesa
Plaza de los Mártires
Nevado de Toluca
Centro Ceremonial Otomí
Teotenango
Las Torres Bicentenario
Valle de Bravo
Parque Ecológico de Zacango
Grutas Karmidas Zapotitlán de Méndez, Puebla
Gran telescopio milimétrico Puebla
Cuetzalan, Puebla
Laguna de Chignahuapan,
Libres, Puebla
Museo de la Evolución, Tehuacán, Puebla
Museo Mexicano del Axolote, Chignahuapan, Puebla
Parque nacional Izta-Popo, Puebla
Reserva de la Biosfera Cuicatlán, Tehuacán, Puebla
Valle de piedras encimadas, Zacatlán Puebla.
Recolección de Tweets y almacenamiento
En esta fase se utilizó la red social Twitter,. El software que se utilizó para el proceso de recolección y almacenamiento fue RapidMiner, Para la recolección de los Tweets se utilizaron las siguientes técnicas:
Utilizar Google maps para utilizar las coordenadas geográficas del sitio turístico.
Utilizar símbolos como @ o # y Jugar con las palabras.
Utilizar o buscar por actividades culturales.
Utilizar el nombre del sitio turístico.
Buscar en twitter como se reconocen.
Utilizar diferentes idiomas como inglés, árabe, portugués, español.
Aplicando estas técnicas se obtuvo un total de 19,506 Tweets.
Procesamiento de filtrado
Utilizar una base de datos: Las bases de datos se realizaron con el fin de poder utilizar de manera más rápida y eficaz los Tweets.
Filtrado por selección de atributos: Se utilizó un operador llamado Select Attributes, porque nos enfocamos en los atributos Text, Polaridad, Ironía, e Idioma.
Eliminación de duplicados: Utilizamos el operador llamado Remove Duplicates para remover tweets que se repiten.
Filtrado por palabras: Se utilizó el operador Filter Examples, en donde se colocaron sinónimos de turismo en diferentes idiomas.
Terminando la fase de filtrado de los Tweets obtuvimos un total de 3,163.
Análisis de los textos y sentimientos
Se descargó una extensión por medio de RapidMiner llamada MeaningCloud, ayudó a clasificar los Tweets filtrados en la fase anterior en Positivo, Negativo.
Construcción del ranking
Para la construcción del ranking se utilizaron ciertas técnicas como; el porcentaje de tweets de cada lugar, el porcentaje se mostró en la cantidad de positivos y negativos que tuvo cada lugar, con respecto a los datos sin filtrar y los datos filtrados. Lugares turísticos seleccionados y su porcentaje de positividad ordenados de manera que sea mayor porcentaje, mayor positividad.
Valle de Bravo 6.23%
La Marquesa 5.13%
La plaza de Mártires 3.34%
Las torres Bicentenario 2.25%
Teleférico 1.87%
Centro ceremonial 1.46%
San Andres Cholula 0.96%
Pahuatlán 0.92%
Reserva de la biosfera, Cuicatlán 0.83%
Atlixco 0.75%
Xicotepec 0.65%
Nevado de Toluca 0.57%
Museo Mexicano del Ajolote 0.56%
Centro histórico de Puebla 0.56%
Museo de la Evolución 0.52%
Cuetzalán 0.5%
Catedral de Puebla 0.26%
Parque Ecológico de Zacango 0.24%
African Safari 0.23%
Grutas Karmidas 0.22%
Libres 0.2%
Zacapoaxtla 0.17%
Tlatlauquitepec 0.17%
Catedral de Toluca 0.16%
Gran Telescopio Milimétrico 0.15%
Cosmovitral Jardín Botánico 0.12%
Teotango 0.05%
Valle de piedras encimadas 0.01%
Parque Nacional Izta-Popo 0.01%
Laguna de Chignahuapan 0%
Lugares turísticos seleccionados y su porcentaje de negatividad ordenado de manera descendente, siendo que se indica, entre mayor porcentaje, mayor negatividad.
Laguna de Chignahuapan 0%
Parque Nacional Izta-Popo 0%
Teotenango 0%
Catedral de Toluca 0%
Centro Ceremonial Otomí 0%
Gran telescopio milimétrico 0%
Museo de la Evolución 0%
Grutas Karmidas, Zapotitlán de Méndez 0%
Cosmovitral Jardín Botánico 0.08%
Parque Ecológico de Zacango 0.13%
Valle de piedras encimadas 0.16%
Reserva de la Biosfera Cuicatlan 0.28%
Las Torres Bicentenario 0.31%
Nevado de Toluca 0.60%
Pahuatlán 0.63%
La Marquesa 0.69%
African Safari 0.83%
Catedral de Puebla 1%
Valle de Bravo 1.13%
La Plaza de los Mártires 1.56%
Cuetzalan 1.81%
Xicotepec 1.93%
Atlixco 2.08%
Teleférico 4.16%
Tlatlauquitepec 6.14%
Centro Histórico de Puebla 7.34%
Zacapoaxtla 8%
San Andrés Cholula 8.90%
Museo Mexicano del Axolote 19.85%
Libres 21%
CONCLUSIONES
A lo largo de la realización de este proyecto durante la estancia, con la ayuda de la Dra. Maria Claudia Denicia Carral, nos enfocamos en el sector 11 ciudades y pueblos sostenibles donde aprendimos cómo se realiza un procesamiento de textos para su previo uso en el ranking turístico propuesto, por medio de una red social actualmente demandada (Twitter), haciendo uso de RapidMiner con su debida extensión MeaningCloud, gracias a esta herramienta y a los procesos que se llevaron a cabo para el análisis de sentimientos y de esta manera conocer el grado de aceptación de los lugares seleccionados. El aprendizaje que se logró fue una gran aportación en la manera de cómo se puede utilizar la tecnología para ayudar al centro turístico de la región, además, también se analiza el uso de las redes sociales para el centro turístico.
Solar Hernández Rafael, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
APRENDIZAJE DE ARDUINO, LABVIEW Y VOCABULARIO PURéPECHA MEDIANTE RECONOCIMIENTO DE VOZ
APRENDIZAJE DE ARDUINO, LABVIEW Y VOCABULARIO PURéPECHA MEDIANTE RECONOCIMIENTO DE VOZ
Solar Hernández Rafael, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Empezar una carrera universitaria referente a la electrónica, mecatrónica, ciencias de la computación, entre otras, sin conocimientos previos acerca de programación en lenguaje C y gráfico, así como, el manejo de microcontroladores puede hacerte pensar que no tienes lo necesario para estar en la carrera, lo cual podría llevarte a la deserción.
En los primeros semestres de este tipo de carreras universitarias son muy prácticos, por lo que, haber tenido acercamientos básicos con programación en código y gráfica, electrónica básica y microcontroladores les permite a los estudiantes un mejor desarrollo en el aprendizaje de estos temas en las clases. posteriores.
Dado que las lenguas indígenas son la identidad del país, es necesario dar difusión , donde se pueda aprender vocabulario purepecha de una forma interactiva.
Para incentivar al aprendizaje autodidacto mediante un manual en el cual se pueda aprender conceptos básicos de programación, microcontroladores, programación gráfica y vocabulario purepecha, mediante practicas sencillas utilizando tu propia voz para poder controlar los componentes.
METODOLOGÍA
Primeramente se investigó el funcionamiento del dispositivo reconocedor de voz V3, para esto fue necesario leer el manual, descargar la biblioteca para Arduino llamada VoiceRecognitionV3-master la cual cuenta con ejemplos, el más importante de estos, es el utilizado para entrenar el dispositivo, de tal forma que podamos entrenar los comandos con nuestra voz, un ejemplo que se implementó para poder observar el funcionamiento del dispositivo fue hacer un código para prender y apagar un led bicolor con la voz, debido a las limitaciones que presenta el dispositivo se propuso la idea de hacer un manual , que contenga variados proyectos ocupando Arduino y más componentes electrónicos como sensores, motores , todos controlados por el Reconocimiento de voz, de esta manera se podría llegar a público no experimentado con Arduino o con el reconocimiento de voz, de esta forma se les puede dar los primeros enfoques en la electrónica, programación y si se puede unos ejemplos con un software de instrumentación virtual (Labview).
Se practicaron las funciones del reconocimiento de voz, lo más importante fue entender el funcionamiento del código de la librería llamado vr.simple_train puesto que es la encargada de entrenar las grabaciones así como cargarlas en el dispositivo, por consiguiente se hicieron varias pruebas con los códigos de ejemplo en las librerías, así como una pequeña traducción al código para entrenar el dispositivo.
Se empezaron a plantear los códigos en Arduino, el primero fue un hola mundo, desde controlar un led bicolor con salidas digitales, ya que es los primeros temas necesarios para aprender Arduino, se continuo con otros proyectos ocupando salidas analógicas, así como estructuras de programación ya sea bucles o estructuras de decisión como if, aplicándolo a distintos dispositivos, ya sean motor DC, leds, servomotor, sensores etc.
Una vez terminados algunos códigos se compilaron y se hicieron las pruebas necesarias para que estos funcionaran a la perfección, así como pruebas con los primeros códigos.
Teniendo los códigos terminados , se empezó a implementar la otra herramienta de software (LabView), el cual como se mencionó es un entorno gráfico de programación muy intuitivo, esto se utiliza para fomentar el conocimiento sobre como trabajar otros softwares de programación en conjunto con Arduino u otro microcontrolador ya que LabView acepta infinidad de dispositivos, de igual forma se utilizó como alternativa por si no se cuenta con el material para cada proyecto, de esta forma en LabView se realizaron los códigos para mostrar mensajes, leds, led RGB, servo motor, entre otros, todo esto se puede observar en la carpeta de códigos mencionada con anterioridad.
Como el dispositivo de reconocimiento de voz tiene una capacidad de guardar 80 comandos, es muy fácil confundirse y olvidar el número de comando, esto es puede ser un error ya que para los códigos es necesario conocer la posición de cada comando, por esto se decidió crear un archivo de Excel para tener un registro de todos los comandos utilizados por práctica, de esta forma tendremos todos los comandos ordenados por si se necesita rehacer la practica o reutilizarlos en otros proyectos.
Se hicieron los diseños de los circuitos para que se puedan llevar a cabo la conexión adecuada entre Arduino y la electrónica como fue mencionada con anterioridad, así mismo se hizo la prueba con las herramientas a la mano, de no ser posible hacer las pruebas físicas, se llevaron a cabo en un simulador de circuitos eléctricos para tener un correcto funcionamiento, sin embargo, se llevaron a cabo los programas en LabView para observar cómo sería el funcionamiento, de esta forma se puede analizar gráficamente los proyectos.
Se hizo la prueba de estos códigos en conjunto, Arduino, el dispositivo de reconocimiento de voz utilizando LabView, para que todas las herramientas trabajaran en conjunto y poder obtener el resultado esperado.
Teniendo las practicas, se empezó a desarrollar el manual, el cual está compuesto de objetivos, marco teórico, donde se puede ver los conceptos básicos de programación, la documentación de Arduino así como la documentación de LabView, desarrollo en el cual se encuentra la explicación paso a paso de las practicas propuestas, y por ultimo un apéndice para encontrar los códigos de Arduino.
Cabe mencionar que en cada practica se hizo en español y en purepecha para el aprendizaje de esta lengua.
CONCLUSIONES
En el transcurso de la estancia se obtuvieron los antecedentes teóricos previos, para poder llevar a cabo de manera satisfactoria el manual para el aprendizaje de Arduino, LabView, modulo de reconocimiento de voz y vocabulario purepecha, teniendo un escrito terminado, el cual muestra los conceptos básicos de los softwares y componentes utilizados, así como, la explicación paso a paso de las practicas realizadas.
Soler Garcia Jose Manuel, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
REGISTRO DE DATOS FACIALES 3D PARA APLICACIONES DE SEGURIDAD CON DATOS MéTRICOS
REGISTRO DE DATOS FACIALES 3D PARA APLICACIONES DE SEGURIDAD CON DATOS MéTRICOS
Sánchez García Luis Fernando, Instituto Politécnico Nacional. Soler Garcia Jose Manuel, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Muchas organizaciones manejan información importante u objetos de valor. Estas organizaciones asignan a su personal diferentes privilegios de acceso a información, contenido y zonas de restricción. Para este tipo de aplicaciones, es necesario el desarrollo de sistemas de acceso de seguridad alternativos por medio de datos biométricos. En la actualidad existen diferentes propuestas para el registro de datos biométricos que incluyen reconocimiento facial, inteligencia artificial, escáner de retina, mano, y voz. Entre las aplicaciones de estos sistemas se destacan el control de asistencia de estudiantes, protección de datos personales, reconocimiento automático, flujo digital, evaluación forense, y diagnóstico de asimetría facial. La primordial característica de nuestro proyecto es en el ámbito de la seguridad, ya sea privada o pública, donde se pueda contar con un registro de datos biométricos de las personas. Este proyecto contribuye de gran forma para llevar un orden en la organización de alguna empresa, institución u otra organización, en la que se requiera identificación de rostros. Se crea un método para poder obtener los datos métricos con relativa facilidad.
METODOLOGÍA
Para el inicio se tomaron diferentes patrones de calibración para obtener la matriz de parámetros K de la cámara y proyector que se utilizó. Se capturaron 30 muestras para producir una mejor matriz; una vez obtenida la matriz K, se realizó una última captura para la calibración de nuestros dispositivos. Ya obtenida la calibración, se comenzó la proyección de franjas a los objetos para su digitalización. Obtenidas las proyecciones de franjas de forma horizontal y vertical, las utilizamos para determinar dos mapas de fase asociados a los ejes (X, Y) del proyector, en cada uno de los rostros digitalizados. Posteriormente, los mapas de fase calculados se emplean en la función de triangulación para construir el modelo tridimensional digital del rostro escaneado. La digitalización resultante contiene elementos no deseados, por esta razón se le aplicaron filtros, para eliminar el ruido de la digitalización. También se puede ver que existen zonas que no se alcanzan a digitalizar, es por eso que se realiza nuevamente el proceso de proyección de franjas para el perfil izquierdo y derecho del rostro proyectado. Con los tres perfiles digitalizados, estos se deben unir para obtener un único modelo completo del rostro. Para adquirir una segunda muestra se realiza todo el proceso antes descrito, y así obtener otro rostro completo digitalizado. Obtenidos los modelos 3D, se debe comenzar a registrar los puntos. Se debe de registrar la mayoría de puntos importantes en el rostro, estos datos se almacenan en una base de datos, para posteriormente ser graficados como una malla de datos métricos.
CONCLUSIONES
La investigación, indagación y búsqueda se convirtieron en actividades clave para la estancia de verano. Diariamente se aplicó el método científico para aprender y entender los conceptos descritos y explicados por el investigador. Los cálculos matemáticos fueron antecedentes importantes, ya que se requería de previos conocimientos en álgebra lineal, calculo vectorial y física en general, para entender con mayor satisfacción y facilidad. Se adquirieron nuevos temas fundamentales basados en modelos de cámaras, extracción y proyección de franjas, codificación en software de vectores, matrices y funciones, que implican una atención precisa en su compresión e implementación. Estos temas, además de contribuir en un logro más de aprendizaje, también ayudaron a rectificar y completar conceptos relacionados. Se obtuvieron resultados satisfactorios en el registro de datos faciales, todo esto logrado con ayuda de la construcción de nuestro perfilómetro óptico, en el cual pudimos digitalizar los rostros necesarios para su visualización 3D en la interfaz de nuestra computadora. La digitalización facial 3D se realizó en tres perfiles importantes, el frente, costado izquierdo y derecho de la cara. La unión de los tres perfiles fue lo más precisa posible, debido a que esta digitalización del rostro ayudaría en la obtención de los datos biométricos de cada individuo. Con la digitalización facial 3D realizada, se obtuvieron los puntos de la malla de datos biométricos que identifica de forma única a la persona.
La malla es mejor definida entre más puntos se tomen, en nuestro caso tomamos únicamente 37 puntos de los cuales algunos no se pudieron obtener en la digitalización y se tuvieron que omitir en la generación de la malla. Con esto podemos crear aplicaciones de reconocimiento facial que utilicen la malla creada. También es posible emplear los datos obtenidos para hacer animaciones en 3D basadas con las mallas obtenidas cambiando los gestos de la persona. Hay algunas partes que se pueden automatizar como la calibración de la cámara y proyector, también la obtención de los puntos métricos del rostro. La principal aplicación de este proyecto es para poder registrar los datos métricos de una persona para que funcione como un sistema de seguridad. Sin embargo, no es la única función en la que se puede aplicar, también se puede utilizar para detectar rostro de personas que se quieran localizar. A pesar de que existen diversas aplicaciones que realizan este mismo funcionamiento, el perfilómetro óptico desarrollado en este proyecto es una opción más accesible y rápida de generar una digitalización y comprender el funcionamiento de reconocimiento facial.
Solis Cabrera Clara Silvia, Universidad Veracruzana
Asesor:Dr. Gaspar Virilo Mendez Cruz, Universidad Nacional de Cajamarca
SISTEMA DE AGUA POTABLE EN ZONAS RURALES.
SISTEMA DE AGUA POTABLE EN ZONAS RURALES.
Antonio Castellanos Brandon Alejandro, Universidad Veracruzana. Solis Cabrera Clara Silvia, Universidad Veracruzana. Asesor: Dr. Gaspar Virilo Mendez Cruz, Universidad Nacional de Cajamarca
PLANTEAMIENTO DEL PROBLEMA
El planeta Tierra tiene una cantidad total de agua estimada de 1.386 millones de km³.Pero la distribución del agua es muy desigual ya que el 97,5% del volumen total de agua es salada y el 2,5% agua dulce. Del agua dulce, apenas un 0,3% se encuentra en estado líquido y en la superficie. (Fundación, s.f.).
En el estado de Veracruz, una región perteneciente a los Estados Unidos Mexicanos, la geografía de la región tiene un área que presenta características eficaces para las actividades agropecuarias, las mismas que ya se desarrollan convenientemente en la región.
Las actividades que se desempeñan en la región han creado una excesiva demanda de agua, llegando a priorizar su consumo antes que el del ser humano, fundamentalmente, ello ocurre en la zona rural de nuestro país, involucrando a la región de Veracruz. A pesar que, se sabe que el agua es un compuesto indispensable para la vida, teniendo como prelación de uso, al ser humano.
En la región de Veracruz, en base a los datos estimados por la CONAGUA para el año 2012, el 60 % de agua del estado era utilizado para el uso agrícola, el 12 % para el abastecimiento público, el 20 % hacia industrias autoabastecidas y el 8 % para termoeléctricas. (CONAGUA, 2012).
En México, la región veracruzana, es el principal productor de caña de azúcar, maíz grano, naranja, limón y piña. (Rural, 2016). Debido a ese importante alcance económico, su población, tiene experiencia y capacidad de realizar dichos cultivos, y a la vez, en su gran mayoría, la población rural cuenta con espacio en sus viviendas, lo que implica tener huertos, que les sirve como posibilidad de tener sus propios alimentos.
Es así, como, en las zonas rurales, su población tiene un consumo de agua potable de cierta forma, excesiva, sin tener en cuenta el uso prioritario que se le debe dar. Por lo tanto, se constituye en un problema cuantificado en la siguiente pregunta ¿Qué cantidad de agua consume un poblador rural de la región de Veracruz?
METODOLOGÍA
Bajo un enfoque en las ODS, llevados a cabo en Conferencia de las Naciones Unidas sobre el Desarrollo Sostenible, celebrada en Río de Janeiro. El propósito era crear un conjunto de objetivos mundiales relacionados con los desafíos ambientales, políticos y económicos con que se enfrenta nuestro mundo. El ODS N.º 6 Agua Limpia y Saneamiento donde se ha de enfocar de manera eficaz, el adoptar medidas urgentes para combatir una crisis social y sus efectos, dando a la sociedad la concientización de la cantidad de agua que en realidad se está utilizando.
Con el fin de garantizar el acceso universal al agua potable segura y asequible para todos, es necesario conocer la realidad y en función a ello, realizar inversiones adecuadas en infraestructura, proporcionar instalaciones sanitarias, capacitaciones y fomentar la educación sanitaria.
Para iniciar el proceso de conocer el consumo de agua potable en la región, se realizó el trabajo de campo, para ello se seleccionó un municipio del estado de Veracruz, en el cual nos permitieron tener información sobre las colonias, comunidades y colindantes de la región.
Dando así comienzo con la determinación de las zonas urbanas y zonas rurales, mismo se define como: La zona rural se encuentra vinculada al territorio con escasa cantidad de habitantes donde la principal actividad económica es la agropecuaria. (Merino., 2015)
La característica principal para la selección de la muestra, fue el conocer si su población tenía su sistema de agua potable complementario de otro sistema o era independiente, además si el sistema tenía un servicio de 24 horas. Además, se seleccionó aleatoriamente algunas viviendas para conocer su realidad, respecto al consumo de agua potable. De tal manera que se obtuvo un espacio muestral de 100 viviendas entrevistadas, dentro de las cuales existían un aproximado de entre 3 a 5 integrantes por familia.
En las principales informaciones, para poder estimar si la población hace un consumo excesivo de agua, era necesario conocer la cantidad de agua consumida por la población de la vivienda seleccionada, en un día. Como tal se lograría tener la información aproximada de la dotación, en litros/persona/día, siendo este el objetivo de nuestra investigación, para luego relacionarla con la población usuaria, y así se tendría el caudal real de distribución del agua potable del sistema.
En tal sentido, se planteó la estrategia de realizar, nuestro trabajo en función de encuestas a los usuarios. En las mismas, se pudo determinar que muchos de ellos, en realidad desconocen su consumo diario que tienen, puesto que la falta de medidores limita el conocimiento de esto, asimismo, muchos de ellos, no conocen que un sistema de agua de consumo tiene un costo real, definido para la operación del servicio y para el mantenimiento de cada uno de sus componentes, por ello el pago que realizan no representa la verdadera dimensión de su consumo, más aún, siendo el pago bastante bajo, en tiempo de estiaje, lo utilizan en otros usos, además de tener muy poca preocupación por los desperdicios que tiene.
Por ende, el excesivo consumo de agua de ciertos usuarios trae consecuencias significativas en el consumo de otros usuarios, en ambos casos por su ubicación, topografía y otros, generando un fuerte problema social. Ello, sin tomar en cuenta que, la demanda del recurso hídrico va creciendo sosteniblemente, mientras que la oferta de dicho recurso sigue siendo la misma.
CONCLUSIONES
En base al tema de investigación junto con los resultados de encuestas realizadas, se logro adquirir un conocimiento teórico de la realidad, en lo que respecta al consumo de agua potable en torno a las zonas rurales, teniendo las siguientes conclusiones:
Los sistemas de agua potable para poblaciones rurales no tienen micromedición.
El usuario de agua potable hace uso excesivo del consumo de agua.
La demanda de agua potable es cada vez mayor y la oferta hídrica es la misma.
El trabajo de investigación que se ha realizado, por la envergadura y por el tiempo limitante a realizarlo, nos permite realizar recomendaciones:
Realizar mediciones en viviendas rurales con el apoyo de instrumentos de medición (micromedidores). Si no es posible, tener este alcance, se sugiere realizarlo a nivel del reservorio, midiendo el tirante de agua en las horas de mayor consumo, en un determinado día.
Solís Molina Daniel, Instituto Tecnológico de Lázaro Cárdenas
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFíA DE GASES Y LíQUIDOS PARA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO
CROMATOGRAFíA DE GASES Y LíQUIDOS PARA DETECCIóN DE COMPUESTOS DE INTERéS AMBIENTAL Y BIOLóGICO
Solís Molina Daniel, Instituto Tecnológico de Lázaro Cárdenas. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es considerada como una técnica de separación muy versátil, utilizada para la caracterización de mezclas complejas, teniendo aplicación en todos los campos de la ciencia y física e implementada por la mayoría de los químicos en investigación.
Se considera a Friedlieb Ferdinand Runge como el primer químico en desarrollar el método de la cromatografía de papel en 1850, sin embargo, el botánico ruso Mikhael Semenovich Tswett empleó por vez primera el termino cromatografía al establecer una clara definición del proceso de la técnica en 1903.
En la actualidad, las técnicas cromatográficas han ocupado un lugar importante entre los métodos de análisis modernos, esto debido a la alta resolución que representa al realizar la separación, identificación y cuantificación de diversas especies químicas, además de contar con la posibilidad de asociar otra técnica instrumental como la espectrofotometría o la espectrometría de masas.
Ningún otro método de separación es tan potente y de aplicación tan general, tiene la particularidad de tener técnicas muy variadas, pero todas comparten la aplicación de una fase móvil y una fase estacionaria.
METODOLOGÍA
La cromatografía es una técnica analítica para separar componentes de una mezcla. La mezcla se disuelve en una sustancia llamada fase móvil, que la lleva a través de una segunda sustancia llamada fase estacionaria.
Los distintos componentes de la mezcla viajan a través de la fase estacionaria a diferentes velocidades, lo que hace que se separen entre sí. Las especificaciones de la fase móvil y fase estacionaria determinan que sustancias viajan más rápido o lentamente. Estos diferentes tiempos de viaje se denominan tiempo de retención.
La cromatografía de adsorción es una técnica se separación en donde el soluto de una fase móvil liquida o gaseosa adsorbe a las partículas sólidas de la fase estacionaria. La fase estacionaria retiene a los solutos, debido al efecto de las fuerzas físicas de superficie, denominadas fuerzas de Van der Waals.
Las características de adsorción en ambas columnas son similares y los tiempos de retención se alargan a medida que aumenta la polaridad del analito. Una característica particular de esta técnica cromatográfica es su capacidad para diferenciar compuestos isómeros de mezclas.
Los parámetros cromatográficos nos facilitan el tabular y comunicar los resultados obtenidos en un cromatograma, esto debido a que los parámetros cromatográficos que describen al cromatograma se correlacionan con las descripciones de los procesos moleculares que ocurren en las separaciones de la mezcla de interés.
En la cromatografía, existen distintos tipos de parámetros cromatográficos, los más importantes son: Selectividad, Resolución, Números de platos teóricos, Límite de detección, Límite de cuantificación.
La selectividad es la relación de los tiempos de retención de dos componentes, donde las variables utilizadas son: Tiempos de retención y Coeficientes de distribución de los componentes.
Dependiendo del valor de la selectividad se puede determinar si se obtendrá una buena o mala separación cromatográfica.
La resolución es un parámetro que expresa el grado de separación que puede obtener un sistema cromatográfico para dos componentes. La resolución se puede observar en base al cromatograma de picos.
Para identificar si se tiene una buena resolución, los picos no se solapan y cada pico está perfectamente delimitado. Cuando se tiene una mala resolución, los picos están solapados, de forma en que se distinguen las crestas, pero no la base.
El número de platos teóricos es el equilibrio de distribución de la muestra entre la fase móvil y la fase estacionaria. Básicamente este parámetro se utiliza como medida de la eficiencia de la columna y depende de varios factores tales como: Velocidad de flujo, temperatura de fase móvil, calidad del relleno, uniformidad del relleno dentro de la columna, diámetro y longitud de la columna.
El límite de detección se puede definir como la menor cantidad de un analito, la señal puede distinguirse de la señal del ruido. Además, el límite de detección considera la amplitud de la señal y el ruido de la línea de fondo.
El límite de cuantificación es la cantidad más pequeña de un analito que puede determinarse con cierta precisión y exactitud, bajo condiciones experimentales de un analito, se puede cuantificar confiablemente por el instrumento.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos acerca de la historia de la cromatografía, los elementos principales de separación cromatográfica, los parámetros a determinar para la validación del método cromatográfico y las aplicaciones de la cromatografía en distintos sectores de la industria.
En mi caso particular, se revisó la bibliografía acerca de la determinación de residuos de antibióticos veterinarios en productos de origen animal y se llegó a la conclusión que la técnica más eficiente para detectar y cuantificar residuos antibióticos en productos de origen animal es usando la Cromatografía liquida de alta eficiencia (HPLC) empleando un detector (MS en tándem). Debido a que permite la separación de matrices complejas a base del compuesto molecular o sus fragmentos.
La detección de residuos de antibióticos en productos de origen animal es importante debido a que se considera como un problema de salud pública cuando los residuos del fármaco o sus metabolitos llegan al consumidor en niveles que pueden ser perjudiciales para su salud.
Solorio Huerta Elvira Alejandra, Instituto Tecnológico de Morelia
Asesor:Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
Niño Merchán Julián José, Universidad Autónoma de Bucaramanga. Rosales Alarcón Olimpia Nohemi, Universidad de Guadalajara. Solorio Huerta Elvira Alejandra, Instituto Tecnológico de Morelia. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardíacas afectan a la población en general de México tal que representan el 19.74% de las causas de defunciones para ambos sexos, de acuerdo con el Instituto Nacional de Cardiología Ignacio Chávez (2020). La isquemia miocárdica es parte de estas enfermedades, y según la Comisión Nacional de Arbitraje Médico (CONAMED) la principal patología causal de muerte prematura tanto en hombres como mujeres siendo el 58% y 42% respectivamente. La isquemia miocárdica se produce cuando se reduce el flujo sanguíneo al corazón, impidiendo que reciba suficiente oxígeno y nutrientes a las células contráctiles. La reducción del flujo sanguíneo suele ser el resultado de una obstrucción parcial o total de las arterias del corazón (arterias coronarias). Una obstrucción repentina y grave de una arteria coronaria puede provocar un ataque al corazón y ritmos cardíacos anormales graves. Para diagnosticar una enfermedad del corazón se utilizan las señales electrocardiográficas (ECGs), estas señales se adquieren de forma no invasiva y registran la actividad eléctrica del corazón del paciente, presentando características muy específicas de acuerdo al estado de salud del corazón. Sin embargo, el análisis de estas señales para un posible diagnóstico de cardiopatías requiere de un médico especialista que en muchos casos no se encuentra disponible, por lo tanto, el desarrollo de un algoritmo que proporcione un diagnóstico semiautomatizado permitiría contar con una herramienta de apoyo para brindar un mejor tratamiento al paciente y a tomar decisiones oportunamente. En este trabajo se propone el desarrollo de un algoritmo basado en Octave que permita identificar en una señal ECG, las características propias de la isquemia cardíaca.
METODOLOGÍA
La detección automática de la isquemia miocárdica, empleando la señal ECG como principal herramienta, implica dos procesos. En el primero se hace la clasificación de latidos que presenten la anomalía y la detección de episodios que ocurren. El estudio para obtener las señales donde se detecta la isquemia suele ser el registro de una señal ECG durante un largo tiempo de monitoreo que va desde las 2 horas y 24 horas. El sitio web PhysioNet ofrece registros médicos de diversas enfermedades relacionadas con el corazón, proporciona una base de datos de libre acceso que contiene un grupo de tomas de una o más señales de ECG digitalizadas, así como sus correspondiente diagnóstico. Dentro de esta base de datos existen distintos registros, para nuestro caso de estudio empleamos la base de datos ST-T Europea la cual concentra 90 registros con anotaciones de cardiólogos.
Dentro de esta base de datos se pueden encontrar 4 tipos de archivos. El archivo .hea que muestra las anotaciones de cabecera, archivos de anotaciones, como lo son los archivos .atr y .xws, y un archivo con la señal, .dat.
Una de las herramientas más utilizadas en la extracción de características de una señal ECG es la transformada Wavelet, esta consiste en la descomposición de una señal sobre el conjunto de funciones obtenidas de una única función llamada wavelet madre por medio de dilataciones y contracciones o bien escalados (coeficientes de aproximación), así como desplazamientos en el tiempo (coeficientes de detalle).
En el desarrollo de este proyecto se creó un código en Octave el cual, a partir de señales ECG, se procesan y se aplica una transformada wavelet que elimina el ruido de la toma y destaca sus componentes, esto con el fin de localizar y determinar si se encuentran anomalías en el registro, como la depresión del segmento ST o la inversión de la onda P, de esta forma podemos destacar descriptores propios de la isquemia y sugerir si existe la presencia de ésta o no.
En las señales ECG existen 3 niveles de frecuencias, una más grande que la otra; en nuestro caso deseamos mantener el segmento ST que se encuentra en las frecuencias más bajas de la señal y eliminar las otras dos, discriminando tanto altas frecuencias como frecuencias medias, requiriendo una acción de pasa banda.
La Transformada Wavelet resulta ser la mejor opción, ya que separa la señal en diferentes bandas de frecuencias; de esta forma el filtrado de paso de banda puede eliminar algunas bandas de frecuencia. El filtrado pasa banda puede lograrse eliminando coeficientes wavelet de escalas tanto inferiores como superiores de la señal ECG que no contribuyan a resaltar las características de interés. En el algoritmo que aquí se propone se utilizó symlet 7 con un nivel de descomposición de 4, y se extrajeron los 8 y 5. Al reconstruir la señal con estos coeficientes se observó que se mantuvo el segmento ST que se desea resaltar. Luego con el uso de un algoritmo de detección estándar de picos localizamos el segmento ST. El algoritmo, implementado en Matlab, primero solicita un archivo .mat con la señal ECG que será tratada y normaliza la amplitud de la señal. Luego calcula la Transformada Wavelet discreta de máximo solapamiento, y con una siguiente línea de código extrae sólo los coeficientes que se necesitan, después calcula la Transformada Wavelet Inversa y en términos del tiempo se realizan algunos cálculos estadísticos que permiten identificar las características de la cardiopatía isquémica.
CONCLUSIONES
A través de este proyecto se determinó que la transformada wavelet es una herramienta matemática muy útil para la identificación de cardiopatías ya que es eficaz en la extracción de características en una ECG, de igual forma se profundizó en los patrones y características que tiene un ECG y cómo diagnosticar la isquemia en la cuarta derivada. Se presenta un algoritmo capaz de resaltar las características irregulares en los picos de señales ECG en la cuarta derivada, los cuales son indicadores propios de la isquemia cardíaca para la posible detección de dicha cardiopatía.
Solorio Tapia Rafael Leonardo, Instituto Tecnológico de La Piedad
Asesor:Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
INTERNET ENGINE
INTERNET ENGINE
Solorio Tapia Rafael Leonardo, Instituto Tecnológico de La Piedad. Asesor: Dr. Yehoshua Aguilar Molina, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En la actualidad el internet sigue revolucionando al mundo y la vida cotidiana de las personas, podemos encontrar un sinfín de aplicaciones y usos que tenemos gracias a él, lo podemos utilizar para aprender, entrenamiento, comunicarnos, entre otras.
Ha aumentado el número de dispositivos que se conectan a internet, y se espera siga en aumento la cantidad, y con ello se ha extendido el área de internet de las cosas (IoT). Antes no se esperaba que electrodomésticos o equipos de control se pudieran conectar a internet, ahora es algo muy común.
Es probable que se presenten problemáticas con las redes de internet, algunos de ellos pueden ser saturación de la red que se refleja en un internet lento al utilizar diferentes equipos y aplicaciones que necesitan conectarse a internet, durante el verano de investigación se buscará desarrollar una aplicación para celulares que compile datos respecto al servicio de internet de un usuario con la finalidad de administrar su internet y a la vez informarle cuáles de las aplicaciones, servicios y dispositivos en casa consumen más datos.
METODOLOGÍA
Se estableció un formulario para pedirle al usuario que registre datos puntuales tales como características del internet del usuario como su velocidad, su uso, la cantidad de dispositivos usados en casa y los diferentes equipos que se tienen conectados a internet.
El formulario forma parte de una aplicación móvil que fue desarrollada usando el IDE de Android Studio. Este IDE de desarrollo cuenta con diferentes herramientas que facilitan la creación de aplicaciones y el uso de librerías y APIs para integrarlas a las aplicaciones, y que además cuenta con la capacidad de desarrollar los programas en Java, C++ y Kotlin. Para esta investigación la aplicación se desarrolló en Java.
Una vez que el entorno de trabajo está listo, en primer lugar, se debe configurar la parte gráfica de la aplicación, para ello se define el tipo de datos de entrada para cada pregunta para así tener más control en cuanto al formato de entrada de los datos. Para tener una noción de cómo se visualizaría la aplicación ya en un dispositivo, se configura finalmente el dispositivo en el entorno de Android para ver la previsualización de la funcionalidad de la aplicación.
Para la programación, en primer lugar, se desarrolla el código para lectura y manejo de datos que se ingresarán en la aplicación, debido a que en el desarrollo de la parte gráfica de la aplicación se utilizan diferentes tipos de datos de entrada, para ello es necesario leer los datos y convertirlos a un mismo formato para así poder tener un mejor manejo de estos.
Para que los datos se almacenen en la base de datos online, se utiliza la base de datos en tiempo real de Firebase, en la que en primer lugar se debe crear una cuenta, y ya una vez creada la cuenta, en la consola creamos un proyecto nuevo y creamos la base de datos. Para la conexión de la base de datos y el programa, solo toma algunos minutos ya que Android Studio en su menú de herramientas ya cuenta con Firebase y ofrece instrucciones para realizar la conexión.
Una vez que la aplicación contiene la conexión con la BD, se crea la clase para el objeto con sus propiedades definidas, en el código principal agregamos el método para la para crear un objeto nuevo para cada registro, cada que se cree un nuevo objeto se le asignará de forma aleatoria un id, este id lo genera Firebase.
Con el código terminado, se inicia el testing de la aplicación, cada que se realiza un registro de forma inmediata se genera el registro en la base de datos. Todos los registros se van anidando y se puede acceder a cualquiera, también se puede exportar toda la base de datos a un archivo JSON para su posterior análisis.
CONCLUSIONES
La administración y el uso que un usuario convencional le puede dar a una red de internet puede ser deficiente ya que en muchas ocasiones existen aplicaciones de segundo plano corriendo que no son necesarias y dispositivos que están quitando recursos y que no se están utilizando, pero siguen descargando y cargando archivos por medio de internet provocando deficiencia en la red para tareas que los usuarios necesitan realizar. Debemos buscar soluciones a esta problemática reduciendo o limitando el uso de la red a aplicaciones y dispositivos.
Durante la estancia de veranos pude adquirir conocimientos respecto a internet de las cosas, softwares y aplicaciones que puede tener. Se aprendió a crear y desarrollar aplicaciones para dispositivos móviles en Android Studio, la implementación de APIs en nuestro programa para facilitar el desarrollo de las aplicaciones, crear una base de datos para almacenar información y generar archivos JSON para almacenar datos y un posterior análisis de estos.
Sopeña Rios Alan Giovani, Universidad Autónoma de Occidente
Asesor:Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
SINAFOOD
SINAFOOD
Palacio Castillo Luz del Carmen, Universidad Autónoma de Occidente. Sopeña Rios Alan Giovani, Universidad Autónoma de Occidente. Tirado Angulo Andrea de Jesus, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Sinaloa es considerado el estado agrícola más importante de la Federación. Adicionalmente, cuenta con la segunda flota pesquera más grande del país y culturalmente, es conocido a nivel nacional e internacional por su gastronomía y música típica, la Banda o Tambora.
La gastronomía del Estado de Sinaloa es impactante, existen variedad de platillos realizados con productos de la región, desde el campo hasta el mar, en manos de maestros culinarios locales, nacionales e internacionales, como el aguachile de camarón, callo de hacha y pescado zarandeado.
Actualmente, en el ámbito gastronómico, los recursos tecnológicos han ido adquiriendo especial relevancia y ha venido a transformar procesos, técnicas e instrumentos culinarios; hoy existen diversas aplicaciones sociales como WhatsApp, Messenger, Instagram y Facebook en donde puedes localizar diversas recetas culinarias. Sin embargo; se han detectado los siguientes problemas: la pérdida del patrimonio gastronómico en la población, el desinterés de la población por conservar la gastronomía de la ciudad y los cambios que ha sufrido la biodiversidad. Por ello, es importante que la población conozca los platillos, los postres y las bebidas típicas del Estado de Sinaloa.
METODOLOGÍA
De acuerdo con la relevancia y el contexto del presente estudio, se plantearon tres objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en técnicas de investigación documental y de campo bajo un enfoque mixto. En la técnica de investigación documental se consultaron libros electrónicos, fuentes históricas y diversos artículos científicos, mientras que en la técnica de campo se diseñó una encuesta.
La encuesta, constó de 10 preguntas, se aplicó a 50 ciudadanos, sus edades oscilaban entre los 18 y los 54 años y eran de distintos Municipios del Estado de Sinaloa, entre ellos: Mazatlán, San Ignacio, Concordia y Escuinapa.
La aplicación móvil, cuyo desarrollo se va a cubrir a continuación recibe el nombre de SinaFood. Su principal objetivo es dar a conocer a la población y a turistas que en el Estado de Sinaloa existe una diversa variedad gastronómica, así como distintos tipos atractivos que visitar. Para la creación de esta, se llevaron a cabo diversas etapas: Análisis, Diseño y Desarrollo.
En la etapa de análisis, se definen tanto los objetivos como los requisitos que se deben satisfacer para cumplirlos. Por lo cual, a través de la utilización de fuentes de investigación documental, reuniones en equipo y la aplicación de las encuestas a los ciudadanos, se realizó un análisis minucioso de la información.
En la etapa de diseño, se definieron varios puntos importantes de la aplicación antes de proceder a su creación. Era necesario definir el logotipo, considerando el tipo de letra y la gama de colores. Además, también se realizaron prototipos de las distintas pantallas de la aplicación para que fueran la base de la creación de la interfaz final.
En la etapa de desarrollo, se utilizó Dart y Flutter, las cuales proporcionan soporte tanto para el lenguaje como para las peculiaridades del framework y la elección de Visual Studio Code viene dada por su velocidad.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el estudio de la gastronomía del Estado de Sinaloa y conocimientos prácticos en el desarrollo de una aplicación móvil. En SinaFood podrá encontrar de manera ágil información gastronómica de los municipios Culiacán, Mazatlán, Cosalá, Elota, San Ignacio, Concordia, Rosario y Escuinapa. Se pretende que el proyecto crezca, incluyendo la promoción de los 18 municipios del Estado de Sinaloa, a través de la ubicación por geolocalización (GPS) para que los pobladores y visitantes puedan situar y visitar los lugares emblemáticos y esté disponible para teléfonos y tabletas bajo el sistema Android.
Soriano Barragán María Guadalupe, Instituto Tecnológico Superior de Apatzingán
Asesor:Prfnal. Johan David Mardini Bovea, Universidad de la Costa
ESTUDIO COMPARATIVO DE TéCNICAS DE SELECCIóN DE CARACTERíSTICAS CON REDES NEURONALES ARTIFICIALES APLICADAS A LA PREDICCIóN DE ENFERMEDADES CARDIOVASCULARES.
ESTUDIO COMPARATIVO DE TéCNICAS DE SELECCIóN DE CARACTERíSTICAS CON REDES NEURONALES ARTIFICIALES APLICADAS A LA PREDICCIóN DE ENFERMEDADES CARDIOVASCULARES.
Alejandre Tavira Juan Manuel, Instituto Tecnológico Superior de Apatzingán. Soriano Barragán María Guadalupe, Instituto Tecnológico Superior de Apatzingán. Asesor: Prfnal. Johan David Mardini Bovea, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Proponer un modelo funcional soportado en distintas técnicas de selección de características (chi square, info gain, gain ratio, relief, one R) hibridadas con redes neuronales para optimizar la detección de enfermedades cardiovasculares.
Establecer un estudio comparativo de las técnicas de selección de características (chi square, info gain, gain ratio, relief, one R).
Realizar una revisión sistemática de la literatura de la implementación de las redes neuronales artificiales enfocadas a las enfermedades cardiovasculares.
Desarrollar un prototipo de sistema de detección de enfermedades cardiovasculares que integre las técnicas de selección de características y las técnicas de clasificación RNA.
Evaluar el sistema propuesto y determinar la eficacia del mismo mediante la aplicación de distintas métricas de calidad.
METODOLOGÍA
La presente investigación implica la ejecución de dos fases: exploratoria y experimental.
En la fase exploratoria se pretende recabar un sólido marco de fundamentación o estado del arte que sirva de soporte a este y a futuros proyectos de investigación afines al área objeto de estudio.
En la etapa experimental se pretende plantear un modelo funcional capaz de clasificar la tendencia de un paciente de padecer enfermedad cardiovascular , mediante la implementación de diferentes técnicas tanto de selección como de clasificación.
CONCLUSIONES
Bajo la implementación del conjunto de datos CLEVELAND , se pudo realizar un modelo predictivo de enfermedades cardiovasculares implementando técnica de inteligencia artificial SOM , en el cual se pudo evidenciar lo siguiente :
Las características mas relevantes del conjunto de datos son: Colesterol, tipo de dolor en el pecho, edad, sexo, angina inducida por el ejercicio.
El modelo de mayor resultado teniendo en cuenta la característica de evaluación de modelo EXACTITUD es la que implementa la técnica de selección RELIEFF con la técnica de entrenamiento SOM, obteniendo 83,29% de exactitud.
Sosa Rosales Karla Irais, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango
SISTEMA DE LECTURA EN IMPRESORA BRAILLE.
SISTEMA DE LECTURA EN IMPRESORA BRAILLE.
Sosa Rosales Karla Irais, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Julio Cesar Martinez Hernandez, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
La vista es probablemente el sentido más desarrollado en los seres humanos. Es tan importante que se puede imponer sobre la lógica. Cuando la vista se bloquea o elimina, se ponen en alerta el resto de los sentidos. Los ojos, que son el centro neurálgico del sentido de la vista, son órganos muy pequeños, pero a la vez muy delicados, estos resultan ser una de las facultades más importantes para el ser humando debido a que le permite relacionarse con su entorno.
La discapacidad visual es cualquier alteración del sentido de la vista, puede ser total o parcial. Para entender la realidad que entraña esta discapacidad basta tener en cuenta que a través del sentido de la vista obtenemos el 80% de la información del mundo exterior. En el mundo hay aproximadamente 285 millones de personas con discapacidad visual, de las cuales 39 millones son ciegas y 246 millones presentan baja visión.
Las dificultades relacionadas con la visión representan retos para las personas que las padecen y están ligadas a la complejidad de enfrentarse a un entorno que no siempre se encuentra adaptado a sus necesidades, lo cual tiene como consecuencia, que la actividad y la participación de la persona disminuya.
METODOLOGÍA
Un sistema braille de lectoescritura que se lleva a cabo a través del tacto que utilizan las personas ciegas, esto le facilita el acceso a la información, es un sistema alternativo más directo, se utiliza para transmitir mensajes entre dos personas. El interlocutor deletrea en la mano de la otra persona el contenido que se desea comunicar y lo hace letra a letra, utilizando las correspondencias de cada letra del alfabeto con el sistema braille.
La persona coloca sus manos con la palma hacia abajo y el intérprete utiliza los tres dedos centrales de cada una de las manos de la persona sordociega como si fueran las 6 teclas de un teclado braille estándar, que se corresponden con los 6 puntos del signo generador braille.
Se trata de un dispositivo portátil de lectura para invidentes que integran sensores ópticos capaces de procesar un texto impreso, un sistema electrónico que memoriza los softwares adaptados para reconocer los caracteres impresos, así como los softwares de conversión de dichos caracteres en caracteres Braille, una zona de reconocimiento táctil y una microcápsula fijada a una funda en la que se introduce la punta del dedo índice del invidente a modo de dedal.
Se propone un nuevo lector electrónico portátil de Braille que se caracteriza ya que comprende una pantalla capacitiva, la cual consiste en una pantalla que mediante un toque directo sobre su superficie permite la entrada y salida de datos y ordenes al lector electrónico portátil; la información para la lectura se ingresa a la pantalla a través de un puerto de entrada o cualquier otro medio adecuado y la información es descodificada y codificada por un microprocesador para convertirlas en caracteres del alfabeto Braille que pueden ser reconocidos por un dedal que se coloca en el dedo del lector para que este pueda reconocer los características Braille que corresponden a determinadas posiciones sobre la pantalla y una guía de líneas para asegurar que el dedal se deslice en la dirección y trayectorias correctas durante la lectura.
El Braille lector lleva a cabo por al menos una mano de un operador y se mueve siguiendo un dedo utilizado para prelectura para leer Braille e incluye al menos un Braille sensor, Braille medios de salida de señal de información para la salida de una señal de información Braille detectada por el sensor Braille tiene una carcasa para la carcasa, y está dispuesta en la superficie inferior de la carcasa, en la superficie del miembro que muestra un aparato de lectura Braille a Braille que comprende un miembro guía que contacta y guía la carcasa hacia moverse linealmente. Una de las ventajas que nosotros tenemos es la facilidad del montaje y desmontaje de piezas
El elemento de guía puede estar dispuesta en una esquina de un rectángulo o un cuadrado que rodea el braille sensor. El miembro guía es un rodillo. Como resultado, la rectitud del dispositivo de lectura braille se mejora enormemente, y es posible rastrear con precisión la trayectoria del dedo para la lectura previa una vez que se realiza el posicionamiento primero, lo cual proporciona un poco o nulo de mantenimiento. También el miembro de guía está dispuesto a que una porción de extremo de punta del mismo sobresalga de la superficie inferior de la carcasa y la altura saliente está formada de tal manera que el Braille sensor no contacta con el Braille y como resultado, los brailles colisionan con el sensor de braille y pueden leer el Braille sin dañar el Braille y siempre pueden leer el braille en el mismo estado; una diferencia representativa es el ahorro de energía ya que se alimenta de 12V CD.
CONCLUSIONES
De acuerdo con lo expuesto en esta investigación se logró adquirir conocimientos sobre el sistema Braille y los problemas que tienen las personas con discapacidad visual, se desarrolló un diseño ergonómico del sistema de lectura, el cual debe tener en cuenta el objetivo de su funcionamiento y la comodidad que debe proporcionar a las personas, al mismo tiempo permitir a las personas con discapacidad visual o invidentes leer cualquier material impreso que se incorpore a dicho lector, cabe mencionar, que este diseño ergonómico es de excelente ayuda para las personas invidentes, así mismo, es de manera sencilla el manejo de este diseño, el sistema Braille en la actualidad es de gran ayuda ya que las personas invidentes, se les ha facilitado el uso de este sistema, y así mismo, poder comunicarse de fácil manera, esta herramienta es de fácil manejo, cabe destacar que es muy eficaz y valida, para que las personas aprendan a leer y escribir de la manera más sencilla y eficaz.
Soto Eugenio Jessica Ailyn, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Miguel Agustín Ortega Carrillo, Universidad de La Salle Bajío
LA EDUCACIóN ENFOCADA EN EL APRENDIZAJE BASADA EN MéTODOS DE ESTUDIOS, TRABAJO EN EQUIPO Y MOTIVACIóN
LA EDUCACIóN ENFOCADA EN EL APRENDIZAJE BASADA EN MéTODOS DE ESTUDIOS, TRABAJO EN EQUIPO Y MOTIVACIóN
Soto Eugenio Jessica Ailyn, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Miguel Agustín Ortega Carrillo, Universidad de La Salle Bajío
PLANTEAMIENTO DEL PROBLEMA
En México la educación es uno de los activos más valioso con el que se cuenta, esto de acuerdo por el reporte de educación para la democracia y el desarrollo de México por el NEE en el año 2018, por lo que es esencial entender las técnicas de educación actuales centradas en la enseñanza y asimilar que esta puede mejorar y tener un mayor rango de eficiencia dando una inclinación hacia otro tipo de métodos centrados en el aprendizaje.
Es importante también conocer e implementar este desarrollo para generar propuestas de innovación en métodos que los estudiantes puedan generar, desarrollar y aplicar por sí mismos, fomentando el trabajo en equipo y la investigación y motivación, y dado los resultados de esta dirección de enseñanza se puedan mejorar los indicadores de los alumnos e incrementar sus habilidades y retención de conocimientos a largo plazo, impulsado la innovación y criterio propio.
El problema radica principalmente en la actual enseñanza centrada en la catedra, donde se impulsa a que el profesor desarrolle los temas y los presenten el mismo, y a los alumnos se les impulsa a mantener una constante en este método donde se les limita la innovación en propuestas de enseñanza basada en su aprendizaje y criterio propio, además de presentarse constantemente un obstáculo más dado por los procesos burocráticos que limitan el desarrollo de ideas para presentar un cambio en la estructura del aprendizaje.
METODOLOGÍA
Se utilizo un método mixto para la obtención de resultados, de ahí surgieron dos etapas dada la primera por una exploración cuantitativa que nos dio como resultado una relación cualitativa, de donde se obtuvieron la mayoría de los datos iniciales.
Para la obtención de los resultados iniciales, como primera etapa se aplicó una encuesta a diferentes escuelas manteniendo una comparación de resultados, con el fin de entender cuáles son las ideas y conceptos que tienen los estudiantes con respecto a su educación actual dando mayor importancia a los datos cualitativos que dio una referencia más acertada y dirigida a los sentimientos, motivaciones y preocupaciones de estos, además se mantuvieron los datos cualitativos para tener una comparación de la relación de escuelas y analizar y comprender como es que se denotan los cambios en respuestas y resultados entres estas instituciones.
Como segunda etapa se desarrollaron instrumentos y técnicas de recolección de información como lo son las entrevistas semiestructuradas y focus group, aplicadas con el fin de aprender más a fondo la estructura de pensamiento de los estudiantes, y conocer así sus preocupaciones iniciales y las futuras de su educación continua, esto tanto para personas que lo vivieron presencialmente a las que lo han vivido solo con una enseñanza online, además nos dio una entrada para comprender casos particulares y como este se motiva ante diversas situaciones planteadas entorno a su aprendizaje.
Como tercera etapa se hizo un análisis de la información recolectada que dio como resultado a la propuesta de ideas estructuradas de una nueva forma de aprendizaje, esto basado en resultados y criterio propio, usando la imaginación, innovación, relación, análisis, comparación investigación y sobre todo motivación, de acuerdo a esto y la estructura se determinaron dos ideas iniciales basadas en el aprendizaje orientado a los alumnos y métodos de retención de información a largo plazo.
Lo anterior dio paso a la última etapa de desarrollo de propuesta que dio como resultado una etapa inicial de un método de enseñanza basada en aprendizaje en donde a los alumnos se les presenta una clase con las bases dadas para que ellos mismos relacionen, se motiven, investiguen, y le den sentido a su aprendizaje diario dando una relación bien especifica de los resultados que obtendrán estudiando el tema, la relación con bolsas de trabajo actuales, y su aplicación en las organizaciones específicamente dado por su carrera, estos resultados fueron presentados como ultima estancia y actividad.
CONCLUSIONES
Se crearon ideas para la enseñanza basadas en el aprendizaje del alumno, desarrollando métodos de estudio y trabajo en equipo, en donde se quiera mejorar la eficiencia del aprendizaje, al mismo tiempo se vuelve un entorno enriquecedor donde surjan ideas, innovación e interés por aprender, esto estimula el crecimiento del propio alumno por interés propio, y motiva a que lo presente y comparta los conocimientos adquiridos.
Dentro del desarrollo de ideas y hasta el último momento de la presentación se mantuvo una aplicación de esta misma técnica de enseñanza dirigida al aprendizaje, que dio, valga la redundancia, los resultados dados por esta investigación hasta la presentación final.
Estas ideas no presentan una estructura terminada pues se presta para el desarrollo de diversos temas en especifico o el desarrollo a término de una sola propuesta a largo plazo o con una extensión mayor.
Soto Miranda Pedro Francisco, Universidad de Sonora
Asesor:Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
DIAGNóSTICO DE LA ENVOLVENTE DE EDIFICIOS EN DIVERSOS CLIMAS, PARA LA CLIMATIZACIóN Y AHORRO DE ENERGíA
DIAGNóSTICO DE LA ENVOLVENTE DE EDIFICIOS EN DIVERSOS CLIMAS, PARA LA CLIMATIZACIóN Y AHORRO DE ENERGíA
Soto Miranda Pedro Francisco, Universidad de Sonora. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El principal problema es el consumo de energía eléctrica que generan los edificios, en este caso por la necesidad de implementar aires acondicionados para poder cumplir un confort térmico, el uso de sistemas de aires acondicionados se centra en cumplir el confort de los allegados que se encuentran en el edificio.
En la siguiente tabla podemos observar la cantidad de energía eléctrica que se consume en tres diferentes climas en México, en distintos tipos de edificios.
Al diseñar un edificio en muchas ocasiones no toman en cuenta que el diseño de la envolvente no obtenga una gran ganancia de calor y al no considerar este importante detalle el edificio no cumpliría con un confort térmico, lo cual proceden a la implementación de aires acondicionados para que el confort se cumpla. Para identificar el comportamiento térmico del edificio se hace un diagnóstico basado en el diseño de la envolvente, los materiales y la orientación, debido a que esto repercute mucho en el desarrollo de la ganancia de calor, dependiendo del bioclima donde se estará analizando el edificio.
METODOLOGÍA
El este trabajo aspira a evaluar el comportamiento térmico de un edificio de oficinas donde el diseño de la envolvente se simulará en diez regiones climáticas ubicándolo en diferentes ciudades. Como método utilizaremos el criterio expuesto la Norma Oficial Mexicana NOM-008-ENER-2001 para poder obtener resultados de la eficiencia energética de un edificio de oficinas. Terminado el diagnóstico, se presentarán alternativas y se aplicarán en los sistemas constructivos diseñando así una nueva envolvente para el mismo edificio y ver nuevamente como se comporta y que tan eficiente puede llegar a ser.
Paso 1: Tomamos un edificio de oficinas con un diseño base
Paso 2: Seleccionamos los diez climas y las ubicaciones del edificio
Paso 3: Diagnosticar el comportamiento térmico de la envolvente por componentes que la conforman con el método de la NOM-008-ENER-2001
Paso 4: Proponer alternativas de materiales para los sistemas constructivos
Paso 5: Proponer un nuevo diseño de la envolvente con las alternativas dadas
Cabe destacar que, para el caso de estudio del diseño base del edificio de oficinas, se diagnosticará en un solo bioclima en específico para demostrar la metodología del trabajo y el paso a paso mencionado. Una vez ya demostrado esto, los resultados del comportamiento térmico del edificio serán comparados entre los diez bioclimas y ver el efecto que tiene en cada uno, así como también una comparación entre las alternativas que se darán.
Por último, con los resultados arrojados del diseño base, se presentará el diagnóstico del nuevo diseño de la envolvente armado con las alternativas, de igual manera aplicándolo en un solo bioclima y haciendo la comparación con el resto.
CONCLUSIONES
Se realizó el diagnóstico de la envolvente de un diseño base y, con la propuesta de materiales alternativos, se llevó a cabo una adecuación para el mismo edificio teniendo resultados muy eficientes para casi todos los bioclimas.
Podemos concluir que el diseño es muy importante en la construcción de cualquier edificio o vivienda, ya que podemos lograr muchos beneficios haciendo esto de manera correcta para cada bioclima de la zona donde se llevará a cabo la instalación.
Con el diseño alternativo se logró un ahorro energético, un confort térmico y, aunque no se haya analizado, mitigar el impacto al medio ambiente como lo son las emisiones de CO2, con el simple hecho de saber que el edificio tendrá una temperatura agradable para la sensación de las personas, significa que no existirá la necesidad de implementar sistemas de aires acondicionados, mitigando así gases de efecto invernadero y, por supuesto, un ahorro económico.
Soto Pérez Jesús, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
INTEGRACIÓN DE TÉCNICAS DE LA MEJORA CONTINUA EN LA EMPRESA "KAMILA MUEBLES"
INTEGRACIÓN DE TÉCNICAS DE LA MEJORA CONTINUA EN LA EMPRESA "KAMILA MUEBLES"
Correa Duran Nayeli Carina, Instituto Tecnológico Superior de Ciudad Hidalgo. Soto Pérez Jesús, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: M.C. Yasmin Elizabeth Reyes Martinez, Instituto Tecnológico Superior de Ciudad Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El siguiente proyecto fue realizado en la empresa Kamila muebles ubicada en la Calle Insurgentes #5-A Colonia Centro CP. 61100, Ciudad Hidalgo, Michoacán, empresa dedicada a la fabricación de muebles de todo tipo para la decoración y satisfacción de sus clientes de acuerdo a sus necesidades.
Durante la producción de los diferentes muebles se han presentado diversas inconformidades como lo son; la carencia de un balanceo de líneas dentro de su producción, de herramientas de Lean Manufacturing y normas ISO que permitan aumentar la productividad de la empresa.
Actualmente, la empresa Kamila muebles ha presentado una gran cantidad de cuellos de botella en el área de producción, lo que ha generado pérdidas de tiempo para la obtención de las piezas en el proceso , lo que traduce a una productividad deficiente de la empresa. El principal factor en la generación de los cuellos de botella es originado por la excesiva acumulación de material en las máquinas, lo que genera que la producción sea deficiente, además de elevar gastos como lo es de mano de obra, de maquinaria, entre otros. Es por esto que el balanceo de líneas permitirá disminuir o en su defecto eliminar cada uno de los cuellos existentes en el área de producción.
De igual forma, en distintas áreas de la empresa mueblera se han detectado algunos problemas como lo es la rotación del personal, procesos innecesarios, sobreproducción, entre otros. Por lo cual se aplicará la metodología denominada Las 7 mudas presentadas dentro de la empresa Kamila muebles esta permitirá incrementar la productividad, disminuir los costos y los desperdicios.
Asimismo, la empresa presenta diversos problemas, tales como; la falta de la señalización necesarias, las áreas de trabajo no se encuentran delimitadas, la clasificación de los materiales no es el adecuado e incluso en ciertas áreas se cuenta con un exceso del mismo, no se tiene la limpieza ni el orden adecuado lo que ocasiona un gran desperdicio de la madera y pérdida de tiempo en su localización. Siendo así que la implementación de las 9´S mejorará las áreas de trabajo y aumentará los estándares dentro de su producción permitiendo tener una mejora de la calidad en cada una de las áreas que integran la empresa.
Sin embargo, con la implementación documental de la ISO 9001:2015 en la empresa, permitirá mejorar cada una de las deficiencias existentes en los productos, teniendo así un control de los procesos con el objetivo de mejorar la calidad y así poder satisfacer las necesidades de los clientes.
METODOLOGÍA
Para el desarrollo del presente proyecto se realizó la integración de diversas técnicas de mejora continua en la empresa Kamila Muebles, para contrarrestar cada una de sus necesidades y problemas presentados dentro de la empresa.
En la metodología del balanceo de líneas se realizó el Layout de la empresa con el fin de identificar las áreas que integran a la misma, así mismo, se desarrolló un diagrama SIPOC del proceso de armado del muebles y diagramas de cada una de las áreas de trabajo con las que cuenta la empresa para identificar las operaciones que se deben realizar, de igual manera se realizó una visita Gemba en la empresa para establecer áreas de oportunidad en los problemas identificados , asimismo, se llevó a cabo un estudio de tiempos con la finalidad de eliminar los movimientos innecesarios y sustituir métodos en el área de producción.
En la metodología de Lean Manufacturing se llevó a cabo la implementación de 2 herramientas Lean, las cuales son: 7 mudas y 9 S. Para la herramienta de las 7 mudas se realizaron mapas de procesos en conjunto con su respectivo diagrama SIPOC para cada una de las áreas de trabajo de la empresa, además se realizó un análisis FODA para conocer la situación de la empresa, de igual manera se aplicaron entrevistas para identificar oportunidades de mejora y para finalizar con esta herramienta Lean se desglosaron cada una de las 7 mudas permitiendo dar solución a los problemas identificados en Kamila muebles. Para la segunda herramienta Lean la cual es la metodología de las 9 S se desarrolló un diagrama SIPOC en el cual se indican los proveedores de la empresa hasta la obtención del mueble y los posibles clientes. Se generó una Gemba con el objetivo de identificar las condiciones físicas de cada una de las áreas contemplando cada punto de las 9S, al igual que se realizaron auditorías para conocer el estado actual de la empresa con la ayuda de bitácoras y gráficas en Excel para evaluar cada área de trabajo y así poder establecer áreas de oportunidad.
Para la norma ISO 9001:2015 se desarrolló un apartado de documentación e implementación del Sistema de Gestión de Calidad de acuerdo a las requerimientos establecidos en la empresa Kamila muebles, en donde se establecieron actividades basadas en el círculo de calidad Deming (PHVA).
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las técnicas de mejora continua y ponerlas en práctica con la implementación del balance de líneas, 7 mudas, 9 S y la norma ISO 9011:2015. Por esta razón, este proyecto tiene como enfoque la integración de técnicas de mejora continua dentro de la empresa Kamila muebles para garantizar el óptimo desarrollo de cada una de las áreas que conforman la empresa, elevando considerablemente la productividad de la misma.
Siendo así que con la aplicación de las herramientas antes mencionadas y cada una de las áreas de oportunidad identificadas se logró dar solución a cada una de las necesidades y problemáticas de la empresa con el fin de obtener una mejora continua en cada uno de los procesos de la empresa Kamila muebles, con el fin de satisfacer las necesidades de sus clientes en tiempo y forma.
Soto Quezada Giselle, Universidad Autónoma de Baja California
Asesor:Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León
EFECTOS DEL TRATAMIENTO TéRMICO EN EL COMPORTAMIENTO A LA CORROSIóN DE ALSI10MG Y AL6061 FABRICADOS POR SLM
EFECTOS DEL TRATAMIENTO TéRMICO EN EL COMPORTAMIENTO A LA CORROSIóN DE ALSI10MG Y AL6061 FABRICADOS POR SLM
Soto Quezada Giselle, Universidad Autónoma de Baja California. Asesor: Dr. Francisco Humberto Estupiñan Lopez, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
El proceso de fusión selectiva por láser se ha desarrollado significativamente desde su origen, al usarse para la fabricación de piezas con aleaciones basadas en aluminio; con esto, se han sorteado las dificultades derivadas del material que se suelen tener con la fabricación tradicional, pero se han presentado otras nuevas (que incluyen defectos de la estructura cristalina, estrés interno, entre otros.). En esta investigación, se presentan los efectos del tratamiento térmico en el comportamiento a la corrosión de las aleaciones basadas en aluminio: AlSi10Mg y Al6061, fabricados por SLM con parámetros específicos; los tratamientos térmicos posteriores conducen a la disminución de la resistencia a la corrosión de las aleaciones de Al-Si y de las aleaciones de Al-Si-Mg. Además, se discuten: su microestructura, comportamiento mecánico y resistencia a la corrosión.
METODOLOGÍA
Modalidad de la investigación documental con contextualización, clasificación, categorización y análisis de la literatura sobre la fusión selectiva por láser, los defectos de producción por SLM, las aleaciones de aluminio ALSI10MG y AL6061 por SLM y fabricación tradicional, tratamientos térmicos, y los efectos en la corrosión.
CONCLUSIONES
El proceso de SLM es de naturaleza compleja, cuyos parámetros del proceso pueden influir en la fabricación y en consecuencia, en la calidad de la pieza final. Los parámetros más críticos son: la potencia del láser, la velocidad de escaneo del láser, el tamaño del punto del láser, el espacio y estilo de la trama y el grosor de la capa.
Un uso óptimo del proceso SLM da la posibilidad de producir una pieza operativa donde no se requiera un acabado de máquina de post procesamiento. Hasta la fecha, este objetivo aún no se ha logrado, puesto que las condiciones de la superficie obtenidas después del SLM no cumplen con las especificaciones para ciertas aplicaciones, particularmente en la aeronáutica.
En general, las aleaciones de aluminio tienen mejor resistencia en comparación con otros metales más densos. El Al6061 sin tratamiento térmico es dúctil y resistente. Al comparar Al6061 (sin Tratamiento térmico) y SLM de AlSi10Mg T6, esta última tiene mayor dureza, y se logró una microestructura fina en el tratamiento térmico (envejecimiento). Después del proceso de tratamiento térmico, la dureza disminuye en 2 horas. Después del envejecimiento, la dureza del material se reduce ligeramente debido al tiempo, las temperaturas, los defectos de Al6061 son menores que los de AlSi10Mg sin tratamiento, pero se logra una mejor templabilidad en AlSi10Mg con envejecido.
Las aleaciones SLM muestran un mayor potencial de corrosión y una densidad de corriente de corrosión significativamente menor en comparación con las aleaciones fundidas.
También se ha encontrado que los tratamientos térmicos posteriores conducen a la disminución de la resistencia a la corrosión de las aleaciones de Al-Si y de las aleaciones de Al-Si-Mg, debido a la evolución de las redes de Silicio que se formaron durante el proceso SLM.
Con la protección de la red eutéctica de Si y los precipitados reducidos debido al rápido enfriamiento y solidificación, los efectos de las celdas microgalvánicas son limitados y el Si fino facilita la formación de la película de óxido durante la inmersión.
Los parámetros posteriores al tratamiento térmico afectan la microestructura de las aleaciones SLM Al, por lo que afectan los comportamientos de corrosión. Los granos de Al de mayor tamaño dan como resultado la aceleración de la reacción de corrosión, y las partículas de Si aisladas impiden la formación de una película de óxido compacta en las superficies de aluminio.
Suárez Quiroz Mireya, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Agustin Jaime Castro Montoya, Universidad Michoacana de San Nicolás de Hidalgo
ANáLISIS TERMODINáMICO DE LA DESHIDRATACIóN DE ETANOL MEDIANTE LA REACCIóN WATER GAS SHIFT (WGSR)
ANáLISIS TERMODINáMICO DE LA DESHIDRATACIóN DE ETANOL MEDIANTE LA REACCIóN WATER GAS SHIFT (WGSR)
Suárez Quiroz Mireya, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Agustin Jaime Castro Montoya, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El etanol es un subproducto natural (bioproducto) de la fermentación vegetal que puede usarse como un combustible renovable producido de materiales de plantas como maíz, caña de azúcar y pastos.
El etanol es más volátil que el agua, inflamable, arde con una llama azul clara y tiene excelentes propiedades de combustible para motores de combustión interna de encendido por chispa. Su índice de octano de investigación (RON) es 109, su índice de octano de motor (MON) es 90 y su octanaje promedio es 99, mientras que el último para la gasolina regular es típicamente alrededor de 88. Por otro lado, la eficiencia del motor se puede mejorar al operar a relaciones de compresión más altas que aprovechan las mejores propiedades de combustible del etanol puro, y el etanol puede alcanzar aproximadamente el 75% o más del rango de gasolina en volumen para un etanol optimizado. En algunos países, la gasolina ya contiene un porcentaje etanol, comúnmente es una mezcla llamada E10, compuesta por un 10% de etanol y un 90% de gasolina. Aunque, hay otras mezclas como, E85 también llamado combustible flexible, que es una mezcla de etanol y gasolina que contiene del 51% al 83% de etanol, pero este combustible.
Una gran problemática hoy en día es la dependencia al petróleo y las emisiones de los gases de efecto invernadero. Lo que hace la mezcla de etanol con gasolina es oxigenar el combustible y reducir la contaminación del aire. El emplear una mezcla de etanol-gasolina tiene un impacto bastante significante en el medio ambiente y índice de octanaje que tiene el etanol es más alto que el de la gasolina, lo cual evitar que el motor golpee y mantiene la capacidad de conducción por lo cual se puede considerar que contiene propiedades de una mezcla Premium y que puede ser buena opción para uso como carburante.
METODOLOGÍA
Se empleó una reacción llamada water gas shift reaction (WGSR):
En una simulación en el software Aspen Plus, en un reactor Gibbs, se alimentó una relación 1:1 de CO/H2O y se probaron diferentes temperaturas para así, elegir cuál de éstas consumía más el agua (H2O) a la salida del reactor Gibbs.
Al tener la mejor temperatura que cumple con esta condición, se procedió nuevamente a simular en Aspen Plus. Ahora, probando con diferentes relaciones de CO/ H2O en la alimentación al reactor Gibbs con el objetivo de encontrar la mejor relación que haga que se consuma lo más posible el agua (H2O) a la salida del reactor Gibbs.
Ya teniendo la mejor temperatura y la mejor relación estequiométrica, en una simulación en Aspen Plus, se alimentan dos corrientes de alimentación en el reactor Gibbs, una con monóxido de carbono (CO) y la otra corriente con una mezcla de 90% agua (H2O) y 10% de etanol (C2H5OH). En la salida del reactor Gibbs se cómo productos hidrogeno (H2), dióxido de carbono (CO2), agua (H2O), monóxido de carbono (CO) y etanol (C2H5OH).
Estos productos se alimentan a un flash con el objetivo de separar una corriente gaseosa y una corriente liquida. En la corriente gaseosa se encuentran el hidrogeno (H2), monóxido de carbono (CO), dióxido de carbono (CO2) y agua (H2O) y en la corriente líquida el etanol (C2H5OH).
Se simula variando las condiciones de temperatura y presión hasta obtener etanol (C2H5OH) al 99% de pureza en la salida del flash.
En otra simulación se realiza lo mismo, con excepción de que ahora los productos provenientes del reactor Gibbs se alimentan a una columna de destilación RadFrac con condensador parcial, se prueban diferentes condiciones y se determina cuál es la mejor para poder obtener etanol con 99% o más de pureza.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos acerca de las diferentes vías para obtener etanol a partir de bioproductos, también sobre la reacción water gas shift reaction (WGSR) y sus múltiples usos en diferentes áreas, así como también, su comportamiento en el equilibrio de la WGSR y conocer sus condiciones para poder emplearla en la obtención de etanol con alta pureza.
Para que en la WGSR se pueda consumir la mayor cantidad de agua posible. Al ser una reacción exotérmica, las constantes de equilibrio decrecen conforme aumenta la temperatura en la reacción, lo cual, energéticamente es favorable porque la reacción puede efectuarse a temperatura ambiente (20°C) y no gastar mucha energía. No hay cambio en el volumen de los reactante a productos porque esta reacción no se ve afectada por la presión.
La mejor relación de CO/H2O que obtuvo fue de 2:1. Lo cual, en el reactor Gibbs se alimentó una corriente con 180 kmol/hr de CO, 90 kmol/hr de H2O y 10 kmol/hr de etanol. A la salida del reactor Gibbs se consumió favorablemente el agua que era lo que se buscaba.
Sin embargo, esos productos obtenidos se deben separar, se ingresaron a un flash a 20°C de temperatura y 14 bar de presión. La pureza de etanol a la salida del flash es del 99% y entre más se aumente la presión, más puro se obtendrá el etanol.
Otra opción para separar los productos provenientes del reactor Gibbs, fue utilizar una columna de destilación RadFrac. Se ocuparon 3 platos y a 1 bar de presión se puede obtuvo etanol con 100% de pureza.
Por ambas vías se consiguió obtener etanol al más de 99% de pureza, sin embargo, es más favorable utilizar la columna de destilación, ya que, a diferencia del flash, la columna opera a menor presión y solo se necesitan 3 platos como mínimo.
Talamantes Villagrana Mauro, Instituto Politécnico Nacional
Asesor:Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional
DESARROLLO DE APLICACIONES PARA DETECTAR TEMPRANAMENTE DEMENCIA EN ADULTOS MAYORES CON APOYO DE LA INTELIGENCIA ARTIFICIAL
DESARROLLO DE APLICACIONES PARA DETECTAR TEMPRANAMENTE DEMENCIA EN ADULTOS MAYORES CON APOYO DE LA INTELIGENCIA ARTIFICIAL
Talamantes Villagrana Mauro, Instituto Politécnico Nacional. Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La enfermedad de Alzheimer es la forma más común de demencia, la cual se refiere a la pérdida de memoria y de la capacidad cognitiva de las personas para realizar actividades de la vida diaria. Con el tiempo, los síntomas empeoran y la persona enferma requiere un cuidado completo.
De acuerdo con la revista Epidemiología de la enfermedad de Alzheimer y otras demencias, publicada en 2018 presenta que la enfermedad de Alzheimer es el subtipo más frecuente de demencia representando el 60%-80% de todos los casos. Se tiene establecido que la demencia se presenta e incrementa en adultos mayores a 65 años, siendo éste un panorama poco alentador; ya que durante las próximas décadas el número de casos se verá incrementado por el progresivo envejecimiento poblacional y el incremento de la esperanza de vida. Sin embargo, a través de estrategias de prevención primaria de la salud sobre los factores de riesgo conocidos, se espera que en un futuro disminuya y se prevenga la carga de la demencia.
La mayor problemática es tomar decisiones a tiempo para envejecer con calidad de vida, siendo la detección prematura una parte fundamental para el tratamiento clínico de la enfermedad de Alzheimer, por lo que durante el verano de investigación se llevó a cabo el estudio de la inteligencia artificial e información multimedia para desarrollar herramientas tecnológicas que logren este objetivo.
METODOLOGÍA
Para llevar a cabo el trabajo de investigación se estudió y se analizó qué es la demencia, cuáles son sus subtipos más presentes en el ser humano y cómo estos afectan en las actividades instrumentales de la vida diaria y en la calidad de vida. Lo primordial para este trabajo de verano de la investigación fue analizar y establecer cómo la tecnología puede ser un gran aliado de las personas que presentan la enfermedad de Alzheimer, sobre todo la relación de la tecnología en la parte de la detección de esta enfermedad. Para esto se tienen dos procedimientos a fin de realizar el diagnóstico: el no-invasivo y el invasivo; siendo el no-invasivo el punto de partida en esta investigación para detectar la demencia por medio de aplicaciones multimedia en combinación con las técnicas de Inteligencia Artificial y el Deep Learning. De esta forma se trabajó en obtener los mapas de profundidad del contenido multimedia, lo cual permitirá relacionar el entorno de la persona con su actividad de la vida diaria, y de esta forma tener información para el análisis de la enfermedad de Alzheimer.
Para realizar el procesamiento de la información de contenido multimedia se trabajó con una arquitectura de red neuronal convolucional (CNN, Convolutional Neural Network) para la clasificación de la dataset MNIST, la cual contiene 60,000 imágenes monocromáticas para entrenamiento y 10,000 para pruebas, con una resolución de 28x28 pixeles.
Ya configurada la dataset se definió una arquitectura de red neuronal convolucional. Siguiendo un modelo secuencial, con 10 filtros y un tamaño de Kernel de 3x3. Teniéndose 3 capas de convolución, 2 de Max-pooling, 1 de Flatten, 1 de activación ReLu y 1 de SoftMax. Con esta red neuronal convolucional se obtuvieron resultados con una precisión del 99%.
Para el análisis de los mapas de profundidad se implementaron el filtro Gaussiano y el filtro de Roberts. Al tener estos se trabajó directamente sobre la obtención del mapa de profundidad. Se utilizó la arquitectura de red neuronal convolucional conjunta de vista única de profundidad CNN y una CNN de estimación de pose de la cámara propuesta por Tinghui Zhou et al de UC Berkeley, y Google. Esta red hace uso de aprendizaje no supervisado de profundidad y movimiento del ego a partir del video. Esta arquitectura de red permite obtener el mapa de profundidad y la pose por medio de fotogramas de videos. En este caso se utilizó el dataset de KITTI raw eigen y de KITTI odometría para las pruebas.
La arquitectura de red CNN conjunta se desarrolló tomando en cuenta la versión 1.0 de Tensorflow y CUDA 8.0. Su implementación se realizó en Google Colab de Tensorflow, teniéndose los datos en Google Drive. Se prepararon los datos de entrenamiento reformateándolos. Una vez los datos fueron reformateados se usaron para entrenar el modelo y finalmente probar como extrae las predicciones de profundidad de la vista única en KITTI.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la enfermedad de la demencia, análisis de imágenes, geometría proyectiva, inteligencia artificial, reconocimiento de patrones y objetos, programación en Python, Matlab y Deep Learning. Estos conocimientos fueron puestos en práctica con el desarrollo de las arquitecturas de redes neuronales convolucionales.
Personalmente mi experiencia fue bastante gratificante, mi asesor siempre fue paciente y estuvo al pendiente de mi a través de todo el verano. Me gustó mucho que desde el principio todo fue bastante estructurado y planeado, incluyendo que nunca se sintió pesado el verano ni monótono; ya que no era solo sentarse y escuchar; fue interactivo, hubo actividades, revisiones, investigaciones, clases, partes donde uno tenía que buscar la solución y respuestas y no esperar a que nos las dieran, las dudas de cualquier cosa siempre fueron una opción en cualquier momento.
Tapia Zarate Karla Andrea, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
CROMATOGRAFÍA DE LÍQUIDOS Y GASES PARA LA DETECCIÓN DE COMPUESTOS DE INTERÉS AMBIENTAL Y BIOLÓGICO
CROMATOGRAFÍA DE LÍQUIDOS Y GASES PARA LA DETECCIÓN DE COMPUESTOS DE INTERÉS AMBIENTAL Y BIOLÓGICO
Tapia Zarate Karla Andrea, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Lidia Esmeralda García Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La cromatografía es un método muy utilizado ya que nos permite la separación, identificación, determinación y cuantificación de los componentes químicos en mezclas complejas. Juega un papel importante en muchos sectores, como la industria farmacéutica, de alimentos, medio ambiente, química y biológica, ya que presenta diversos campos de usos como el control de pureza y calidad de un producto, el análisis de medicamentos, de sustancias en matrices biológicas, de residuos de plaguicidas, etc. En el presente trabajo nos basaremos en la cuantificación de concentración los flavonoides provenientes del extracto de ceda de maíz, pues contiene grandes cantidades de dicho compuesto.
En el cuerpo humano, existen diversos metabolismos que producen sustancias como especies reactivas de oxígeno y radicales libres con fuertes propiedades oxidantes(Tian et al., 2021). El problema en ellas está en que, si no se logran eliminar a tiempo, dañan las membranas biológicas y las funciones celulares provocando envejecimiento, enfermedades cardiovasculares y cáncer (Ruiz et al,. 2018). Existen moléculas capaces de retardar o prevenir la oxidación de otras moléculas, las cuales son llamadas antioxidantes, estas podrían eliminar los radicales libres, reduciendo así su daño al cuerpo humano. Gracias a ello, el desarrollo de antioxidantes naturales eficientes se ha convertido en un foco de investigación (Tian et al., 2021)
En los últimos años, se ha descubierto que los flavonoides son importantes metabolitos secundarios que pueden eliminar eficazmente los radicales libres reactivos (M. Arivalagan, et al., 2018), se encuentran comúnmente en las plantas, específicamente, en la seda del maíz y tienen propiedades antioxidantes y beneficios para la salud. Es por todo esto, que decidimos cuantificar, por medio de HPLC, la concentración de flavonoides presentes en la seda de maíz.
METODOLOGÍA
Clasificación de la cromatografía
Existen diversos criterios para clasificar a la cromatografía, ya sea por el tipo de la fase móvil, el soporte físico sobre el cual se lleva a cabo la separación, o el estado físico de ambas fases, y también, por el tipo de mecanismo empleado.
El estado físico de la fase móvil determina la primera gran división de los métodos cromatográficos. Principalmente, se utilizan como fase móvil a algún tipo de líquido o fluido, dando lugar a la cromatografía liquida. Por otro lado, los gases también pueden ser usados como fase móvil, y los métodos basados en este principio denominan a la cromatografía gaseosa. En esta cromatografía tanto la fase móvil como el analito a estudiar, deben ser un gas.
La clasificación basada en el soporte físico donde se lleva a cabo la separación, da lugar a la cromatografía en columna o en papel. Cuando la fase estacionaria se encuentra dentro de una columna, se le da el nombre de cromatografía en columna. Cuando la fase estacionaria puede distribuirse como una capa fina y homogénea sobre un soporte plano de material inerte, o simplemente en un papel, se denominan cromatografías en capa fina o en papel. (Corzo, 2019)
Los métodos cromatográficos también pueden clasificarse según el tipo de interacción entre el soluto y la fase estacionaria (Sgariglia et al., 2010) como lo son la cromatografía de reparto, de adsorción, exclusión por tamaño y la de afinidad. Por otro lado, tenemos la clasificación dependiente del estado físico de las fases, dando lugar a las cromatografías Liquido-liquido, Liquido-solido, Gas-Solido, y la de alta eficiencia (HPLC).
Componentes de un cromatógrafo.
Un cromatógrafo, generalmente cuenta con diferentes componentes comouna o varias bombas, un detector, inyector, desgasificador, horno, y una PC para poder leer los resultados.
Las bombas tienen como misión suministrar un caudal constante, adecuado y libre de pulsos de la fase móvil, a través de la columna y así evitar el ruido de fondo en la detección y puede operar con 2 disolventes.
En el caso de los detectores, estos miden las propiedades físicas de los analitos o de la fase móvil, la cual, va a depender de su composición y naturaleza.
El inyector, es el encargado de introducir la muestra directamente en la columna, por lo tanto, este siempre va a estar situado entre la bomba y la columna.
Aplicación del método cromatográfico. Cuantificación de flavonoides presentes en la seda de maíz.
En nuestro caso particular, para la detección y cuantificación de los flavonoides presentes en la seda de maíz, anteriormente mencionados, se pretende hacer uso de la técnica HPLC de fase inversa, puesto que dicha técnica permite la determinación de concentraciones muy bajas de moléculas no volátiles, en mezclas con una alta precisión.
Con base a las propiedades de nuestro analito, el cual es polar (Cartaya, 2001), se decidió usar un método de gradiente lineal de H2O/MeOH de 20% a 90% de MeOH en 35 min, a una velocidad de flujo de 1 ml/min, con una longitud de onda para la detección de 340 nm. En una columna de 2.8 C18 y a una temperatura de 30°C. (Snook et al., 1995).
CONCLUSIONES
Durante la estancia en este verano, se adquirieron conocimientos acerca de la historia de la cromatografía, así como los fundamentos, clasificación y especificaciones de dicha técnica y los principios básicos y componentes de un cromatógrafo para su buen funcionamiento.
Particularmente, se realizó una revisión bibliográfica a cerca de la determinación de la concentración de flavonoides presentes en la seda del maíz.Basándonos en las propiedades de nuestro analito, logramos determinar, la técnica correcta para la determinación, la cual fue la cromatografía líquida de alta eficacia. Posteriormente se establecieron las especificaciones que esta tendría que cumplir, es decir, el tipo de columna, de fase móvil, la velocidad de flujo, la longitud de onda etc. Gracias a esto, tenemos como resultados, la correcta aplicación de la cromatografía, ampliando nuestro panorama para la solución de problemáticas relacionadas con analitos de interés en cualquier rama de la ciencia.
Tautimez Rivera Oscar Uriel, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ESTUDIO DE VARIABLES DE REFLECTANCIA
ESTUDIO DE VARIABLES DE REFLECTANCIA
Camacho Denogean Sofia Guadalupe, Universidad de Sonora. Campa Haro Miguel Angel, Universidad de Sonora. Laprada Mancinaz Ana Paula, Universidad de Sonora. Tautimez Rivera Oscar Uriel, Universidad de Sonora. Tirado Luna Rubén Alejandro, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los espejos utilizados en los heliostatos, se encuentran expuestos a diferentes variables que pueden interferir en la eficacia de estos, tales como, transmitancia, reflectancia y absortancia. Esta investigación se enfocará en la reflectancia de estos.
La problemática a tratar es conocer si la reflectancia de los espejos disminuye o incrementa al aumentar el grosor de éstos, ya que al ser un camino óptico mayor el que tiene que recorrer la luz solar a través del vidrio, se espera que se pierda una pequeña cantidad de radiación solar.
METODOLOGÍA
Los espejos utilizados tienen una capa de 3mm y 5mm respectivamente, ambos vidrios están formados de arena de sílice, carbonato de sodio y caliza, además de una capa delgada de plata, que es lo que le da su propiedad reflectiva.
El estudio se realizó el día 26 de julio del 2021, entre las 10:56 AM y las 11:42 AM en la Plataforma Solar de Hermosillo, ubicada en la ciudad de Hermosillo, Sonora (29.0275795,-111.1456932). Las medidas se realizaron durante días despejados debido a que las condiciones medioambientales también pueden afectar los resultados obtenidos. Es importante considerar la limpieza de la superficie de los espejos, ya que la suciedad (provocada por polvo, lluvias, etc) afecta en gran manera la reflectancia de estos.
El dispositivo que se usó para las pruebas fue un pirheliómetro con seguimiento solar. El funcionamiento de este dispositivo comienza al momento que entra luz solar por medio de una ventana, donde al llegar la radiación, por medio de termopilas, esa cantidad de energía proveniente de los rayos del sol, las transforma en señales eléctricas que van hacia un dispositivo electrónico capaz de interpretarlas, que en esta ocasión el dispositivo que se usó fue un multímetro convencional.
La experimentación para llevar a cabo las mediciones fue la siguiente; primeramente, se calculó la radiación solar que llegaba al pirheliómetro directamente, se guardaban los datos, y proseguimos a calcular la radiación reflejada de los espejos de 3 y 5 milímetros con el pirheliómetro, en donde se trató de colocar los espejos lo más normal al sol para evitar errores por factor coseno, que son las pérdidas proporcionales al coseno del ángulo que se forma entre la normal a la superficie reflectiva con la dirección que tiene la incidencia de la radiación directa. Estos pasos se repitieron 5 veces por cada espejo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos sobre el uso de helióstatos, sus diversas aplicaciones y tipos. Estudiamos cualitativamente y cuantitativamente los beneficios que nos brindan este tipo de tecnologías para así lograr analizar qué tan sustentables son este tipo de proyectos tomando en cuenta las pérdidas de energía que se dan durante la transformación debidas a diversos factores tales como las características reflectivas de los espejos.
Según los resultados obtenidos, tiene una mayor eficiencia un espejo delgado con respecto a uno de mayor grosor, esto se cumple para los espejos con vidrios de igual transmitancia. Esta diferencia de 2mm logró mejorar la eficiencia hasta un 9%, también es importante tomar en cuenta que entre más delgado sea el vidrio más frágil será, y tendrá que tener un mayor cuidado a la hora de su instalación.
Consideramos importante invertir en espejos que tengan gran resistencia a los factores ambientales que pueden afectar su calidad, que soporten altas y bajas temperaturas, tormentas de arena, aire, lluvia, etc.
Tejeda Maya César Uriel, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. David Choque Quispe , Universidad Nacional José María Arguedas
BIOSORCIóN MEDIANTE EL USO DE PERICARPO DE LICTCHI PARA RETIRAR PLOMO Y MAGNESIO EN AGUAS RESIDUALES.
BIOSORCIóN MEDIANTE EL USO DE PERICARPO DE LICTCHI PARA RETIRAR PLOMO Y MAGNESIO EN AGUAS RESIDUALES.
Tejeda Maya César Uriel, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. David Choque Quispe , Universidad Nacional José María Arguedas
PLANTEAMIENTO DEL PROBLEMA
Las aguas residuales son una fuente de contaminación para el consumo, riego e insumo para la elaboración de productos estas aguas se caracterizan por tener metales pesados, material orgánica o compuestos activos que la dañan y alteran su estructura química (H2O), generando daños a la salud; que es la causa principal por la que a lo largo de los años se generan estudios para retirar dichos contaminantes.
Basado en hechos teóricos hay una diversidad de métodos para retirar, neutralizar o cambiar estructuras en el agua formando así compuestos más amigables con el medio ambiente, lo que genera aguas de riego pero no de consumo humano. Implementando el método de absorción atómica se podrá determinar la cantidad de metal retirado en ciertos mL de agua presente, esto con ayuda de un material orgánico (cascara de lichi) previamente activado generando que se adhiera a él una cierta cantidad de metal pesado, contrarrestado de esta manera directamente la contaminación de agua y medio ambiente en general dándole un segundo uso de vida al desperdicio de la materia orgánica.
METODOLOGÍA
Determinación de las propiedades del pericarpo (cascara) y % en peso
La materia orgánica con la que se trabajó proviene de una fruta exótica llamada Lictchi, se trata de una extraordinaria fruta que aportaron los chinos a la fruticultura Mexicana a finales del siglo XIX esta proviene de un árbol frutal tropical originario del sur de China.
La piel de Litchi (cascara) presenta altos niveles de flavonoides, vitamina C, compuestos fenólicos, antocianinas, lípidos, proteínas, cenizas y fibra.
El fruto consta de la siguiente morfología;
Pedículo: Es la unión entre la lictchi como fruto y el árbol (ramas) generando una tención por gravedad y aportando los nutrientes necesarios para el crecimiento del fruto.
Pericarpo (8.9 a 15.9 %): Mejor conocido como cascara, es el recubrimiento del arilo protegiendo la excrecencia carnosa.
Arilo (67.4 a 79.1 %): Excrecencia carnosa del hipocotílo, la única fuente comestible que aporta además vitaminas B1, B2, B3, C y E, minerales como potasio y magnesio. Este arillo recubre a la semilla.
Semilla (9.7 a 15.8 %): Esta es de color café y prácticamente es una semilla grande en comparación a otras morfologías y en esta se origina un nuevo producto por medio de cultivación.
Teniendo en promedio una longitud del fruto en 36.3 mm, diámetro 28.8 mm, peso 19.3 g, cáscara 4.1 g, pulpa 11.9 g y peso de semilla de 3.0 g. García Eliseo y Atlagua A. (2010)
Secado y molienda del pericarpo (cascara)
Primeramente se limpia y se quita el exceso de arilo si es que contiene, por lo regular ya sale limpia a la hora del consumo humano.
Dejar secando dentro de un horno de convección para retirar el exceso de humedad adquirida por el medio ambiente durante un periodo de 2 horas a 40°C
El pericarpo se molió en un mortero de cerámica
Se tamizo el polvo para obtener 2 tamaños de partículas una de 1 mm y la otra de 2 mm
Después de obtener el polvo se mete nuevamente a horno para que este no absorba humedad y conforme se utiliza se va retirando del mismo.
Alcalinizar (activar con ácido o basé)
Los polvos resultantes se alcalinizaron con NaOH (Hidróxido de sodio) para tratar de alcanzar un pH adecuado a una base, de esta manera activar el pericarpo, la solución se trabajó dentro de un vaso de precipitado, con una disolución antes preparada al 0.5 N de NaOH durante 20 min, trabajando con un pH de 4 a 5.
Los polvos posteriormente se pasaron a un papel filtro enjuagando de 3 a 4 veces con agua destilada retirando el exceso de NaOH y por ultimo fueron secados nuevamente a 40°C constantes hasta utilizarlos nuevamente aislándolos de la superficie para evitar humedad.
Soluciones de plomo y cadmio para la cinética de absorción
Para la preparación de las soluciones de los metales pesados se manejó la relación de 1000 mg/L de Pb y Cd respectivamente para retirar las siguientes alícuotas:
Se diluyeron 100 mL de la solución con 1 L de agua destilada.
50 mL de la solución madre con 500 mL de agua destilada.
5 mL de solución madre se diluyen en 50 mL de agua destilada.
Por ultimo tener 10mg sobre 1 ion seleccionado.
Por último se ajusta el pH de la solución utilizando NaOH a 0.1 M para la disolución fresca.
Una vez ya establecidas las soluciones con los diferentes metales pesados presentes en agua destilada con el pH ajustado, se vierten 50 mL de estas aguas en un matraz de 250 mL con un total de 0.5 g de pericarpo ya previamente tratado y activado con NaOH a un tamaño de partícula de 1 y 2 mm.
Cuando la solución esta lista con el matraz se trabaja a temperatura ambiente con 158 rpm. Esta agitación se llevó a cabo durante 60 min para alcanzar y asegurar el equilibrio de la biosorción.
Al término de los 60 min se retiró la solución y la suspensión se filtró y acoplo inductivamente para pasar a la lectura en el equipo de absorción atómica.
Pruebas en el equipo de espectroscopia de absorción atómica
Se utiliza la espectroscopia de absorción atómica para analizar la concentración de los diferentes iones metálicos presentes en el filtrado.
CONCLUSIONES
La biosorción en la actualidad es una de las alternativas para tratar aguas residuales que mejor se ajusta al cuidado del medio ambiente usando un material orgánico absorbente que retirara en cierta cantidad metales pesados presentes. Esta materia es fuente de reciclaje al aprovechar sus propiedades en cascaras que han sido desechadas dándoles un segunda vida útil con un previo tratamiento o activación. El pericarpo es una fuente orgánica denominada comúnmente como cascara de lictchi, este recurso natural tiene la capacidad de absorber metales pesados como el Plomo (Pb) y Magnesio (Mg) a simple vista, para determinar la cantidad exacta será necesario en estudios posteriores realizar la espectroscopia de absorción atómica adecuando el material de manera inductivamente.
Tellez Guzmán Jesus Jair, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
Tellez Guzmán Jesus Jair, Instituto Tecnológico Superior de Huauchinango. Vazquez Bustamante Gil Esau, Instituto Tecnológico Superior de Huauchinango. Velazquez de los Santos Jonathan, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Las actuales tendencias en el establecimiento de estrategias competitivas en las escuelas son interactivas y atractivas para mayor aprovechamiento de aprendizajes significativos para nivel básico. Se ha implementado la realidad virtual en la educación de distintas formas, como es la realidad aumentada y la inmersiva, utilizando software para imágenes tridimensionales, como lo es Blender y Unity.
El presente proyecto plantea aplicar nuevas estrategias de enseñanza, haciendo uso de las herramientas de la realidad virtual, con ello contenga información de la materia de historia de la región de Huauchinango. Esta aplicación creará un ambiente virtual incluyendo efectos visuales y sonoros, simulaciones de la realidad.
METODOLOGÍA
Este proyecto surge de la necesidad de enseñar la materia de historia de no ser tediosa para los alumnos, que en su mayoría es teórica. Por estas problemáticas es necesario utilizar herramientas informáticas para colaborar de manera creativa y tener un desempeño escolar agradable. Por lo tanto, se decidió el desarrollo de una aplicación con realidad virtual.
Para ello se siguió la siguiente metodología en el cual cuenta con las siguientes etapas:
Recopilación de información. Para esta etapa se recopila la información necesaria para el mundo de la realidad virtual inmersiva, para ello se realiza un trabajo de campo, que abarca la investigación del tema de historia, información fotográfica del entorno, los modelos tridimensionales de la fotogrametría y hardware.
Creación del entorno virtual. En esta etapa se crea las escenas por cada una de las partes que conforman la experiencia virtual. Para la realización de esta etapa se hace uso del software Blender y Unity.
Programación. En esta etapa se desarrolla el programa de realidad virtual, se busca que el usuario pueda interactuar con el mundo creado por computadora utilizando las características que brinda la tecnología de realidad virtual.
CONCLUSIONES
Se desarrolló un entorno virtual diseñado en el programa blender y unity sobre la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro). Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás.
Tenorio Montes de Oca Guidion, Instituto Politécnico Nacional
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
SISTEMA DE PRODUCCIóN EN LAS VIVIENDAS, A TRAVéS DE LA IMPLEMENTACIóN DE BIOHUERTOS CON SUMINISTRO DE ATRAPA NIEBLAS.
SISTEMA DE PRODUCCIóN EN LAS VIVIENDAS, A TRAVéS DE LA IMPLEMENTACIóN DE BIOHUERTOS CON SUMINISTRO DE ATRAPA NIEBLAS.
García Cruz Ramón, Instituto Tecnológico de Comitán. Tenorio Montes de Oca Guidion, Instituto Politécnico Nacional. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
El asentamiento humano cerro cachito ubicado en el distrito Chalaco de Ventanilla, en Lima Perú, fundado el 23 de febrero del 2003, es el lugar de vivienda de varias personas con diferentes discapacidades, que no se rinden. A pesar de las dificultades en las que se encuentra su localidad y viviendas, con la llegada del coronavirus se enfrentan a una dificultad más, esta población con discapacidades no tiene una fuente de ingresos fijos, por la falta de trabajo, tanto por las discapacidades como por la contingencia sanitaria ya que tratan de salvaguardar su salud cumpliendo con las disposiciones de aislamiento que el gobierno ha declarado. Por lo tanto, la economía se ha visto altamente afectada, debido a que la mayoría de estos habitantes generaba ingresos con empleos informales. A partir de estas condiciones es que se ha detectado la amplia problemática a la que se enfrentan los pobladores de cerro cachito.
METODOLOGÍA
A partir de una investigación exploratoria y descriptiva tanto de las condiciones bio climáticas como de los habitantes del asentamiento humano sector cerro cachito, se logró identificar que una ayuda viable para mejorar los ingresos económicos de estos habitantes es implementar el cultivo de alimentos orgánicos (hortalizas) mediante un sistema de riego de atrapanieblas, creando la posibilidad de autoconsumo o comercialización. Mediante el desarrollo e instalación de un atrapanieblas en las viviendas, durante algunos periodos del año se podrá recolectar hasta 6.5 litros de agua al día por cada metro cuadrado que tenga la malla que captura la niebla y a través de un sistema de goteo se captará y utilizará dicha agua para el riego de los bio-huertos. Con esto se plantea implementar sistemas de producción dinámicos; la persona siembra de manera simultánea una amplia gama de hortalizas de período corto ajustándose a los cambios en la demanda del mercado y practica la rotación de cultivos para optimizar el uso del suelo. Dentro de esta zona, la producción de alimentos tendrá lugar en huertos familiares que ocupan espacios reducidos como 4.00 m2 y también se propone trabajar en espacios comunitarios de hasta 200.00 m2, principalmente se implementarían los biohuertos en las viviendas, ya que al crear una cadena productiva es conveniente que los habitantes contribuyan para salir adelante todos juntos. La producción es generalmente para autoconsumo, sin embargo, se considera la comercialización en pequeña escala, de la producción de hortalizas orgánicas. Esto beneficiara a los productores que se dedican a estas actividades dejándoles ingresos económicos, aunado a la posibilidad de tener una dieta variada basada en alimentos frescos, buscando así el bienestar integral de estas personas. En cuanto a la factibilidad de implementación de este sistema de producción, se tomó en cuenta la posibilidad de que las personas puedan desarrollar las actividades ya que éstas no requieren tanto esfuerzo, es preciso saber que discapacidad jamás será incapacidad.
CONCLUSIONES
Considerando todas las premisas explicadas anteriormente, los bio-huertos representan una oportuna alternativa para los habitantes del asentamiento cerro cachito, ya que en ellos podrán cultivar, cosechar y comercializar productos de hortalizas, generándoles una nueva oportunidad de ingreso económico. Mediante un estudio de factibilidad sobre la producción y comercialización de hortalizas orgánicas se determina que los elementos que lo conforman resultan ser de bajo costo y fácil instalación estando al alcance tanto económico como físico de las personas, resultando ser viable su implementación y la recreación en el lugar de estudio, todo esto mediante la investigación que realizamos. Con base en la realización de proyecciones y análisis de información de la viabilidad del proyecto, se idean las técnicas de producción y comercialización para las hortalizas orgánicas, que determinan los beneficios a los que son acreedores las personas que implementen este tipo de proyecto.
Tenorio Suárez Mauricio Ivan, Instituto Politécnico Nacional
Asesor:Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
DESARROLLO DE UNA INTERFAZ EN LABVIEW PARA EL PROCESAMIENTO DE SEñALES FONOCARDIOGRáFICAS FETALES Y ESTIMACIóN DE LA FRECUENCIA CARDIACA.
DESARROLLO DE UNA INTERFAZ EN LABVIEW PARA EL PROCESAMIENTO DE SEñALES FONOCARDIOGRáFICAS FETALES Y ESTIMACIóN DE LA FRECUENCIA CARDIACA.
Tenorio Suárez Mauricio Ivan, Instituto Politécnico Nacional. Asesor: Mtro. Francisco Javier Ramírez Arias, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La frecuencia cardiaca fetal (fHR), es uno de los parámetros más importantes para la evaluación del bienestar fetal durante el periodo del embarazo. Uno de los métodos acústicos pasivos para la estimación de la fHR y para el diagnóstico temprano de cardiopatías fetales, es el uso de la auscultación cardíaca mediante la fonocardiografía. Este método consiste en colocar un transductor acústico en el abdomen de la madre, con el fin de capturar la señal generada por los movimientos cardiacos fetales.
Algunas de las ventajas que ofrece esta técnica son que es de bajo costo y que no se transmite energía al feto. Sin embargo, las señales cardiacas fetales son de baja amplitud y suelen estar ampliamente contaminadas por diferentes ruidos que llegan a interferir en la estimación de la fHR. Los ruidos que interfieren primordialmente en el registro de la señal son: movimiento fetal, movimiento del transductor, sonidos cardíacos maternos, sonidos respiratorios, sonidos digestivos maternos, atenuación acústica por tejidos y ruido externo.
Es por ello que durante este verano de investigación, se propuso utilizar el entorno de desarrollo Labview, para el desarrollo de una interfaz que permita cargar señales fonocardiográficas fetales (fPCG), para su posterior filtrado y procesamiento, con el fin de facilitar una estimación de la fHR y su clasificación entre normal o anormal, de acuerdo a los valores promedio de latidos por minuto.
METODOLOGÍA
Se utilizó una base de datos de physionet, que posee un total de 37 señales sintéticas, obtenidas mediante un software simulador de señales fPCG, desarrollado en 2011 por la Universidad Federico II, de Italia. El cual es capaz de simular diferentes estados fisiológicos y condiciones patológicas fetales, con una relación señal-ruido en un rango de -26.7 dB a -4.4 dB, siendo estos valores muy similares a los que se tendrían en señales fPCG reales.
La primera etapa del programa propuesto fue la lectura de la señal, y para ello se utilizó la librería Biomedical de Labview, debido a que esta permite leer archivos con extensión .hea. Una vez que la señal es cargada, se obtienen algunos datos informativos sobre ella, como el nombre de la señal, el intervalo de muestreo, tasa de muestreo, número de muestras y duración en segundos de la señal cargada, con el fin de brindar al usuario una breve descripción de la señal original.
Posteriormente, la siguiente etapa fue el filtrado y preprocesamiento de la señal adquirida. Esto se realiza mediante un filtro IIR, pasa banda, de séptimo orden, tipo Butterworth, con un ancho de banda de 25 a 115 Hz, ya que el rango estimado para las señales fPCG es de 20 a 110Hz. Ya con la señal filtrada, se aplica una transformada wavelet de tipo discreta, de 8 niveles, y de tipo biortogonal, para reducir más el ruido de la señal. Ambas técnicas fueron implementadas mediante los bloques Filter y Wavelet Denoise de Labview.
Después, se elevó al cuadrado cada uno de los términos de la señal resultante, para analizar la señal sólo en el dominio de los números reales positivos. Y finalmente se aplicó un filtro promediador, con una ventana de tipo cuadrada y con 20 muestras. Para así, obtener una señal con las componentes cardiacas principales (S1 y S2) mejor definidas.
Con la señal preprocesada, la siguiente etapa del programa fue la detección de las componentes S1, ya que estas corresponden a la sístole ventricular. Y el tiempo que transcurre entre dos componentes S1, permite obtener la fHR una vez que se hace la división de 60 (correspondiente a los segundos en un minuto) y dicho periodo de tiempo entre dos sístoles ventriculares. Para ello, se utilizó el bloque Peak Detector, el cual depende de un valor umbral. El valor umbral propuesto fue el valor RMS de la señal adquirida, mediante el bloque Amplitud and Level Measurments. A la salida del bloque detector de picos se obtuvieron todos los puntos de la señal que son potenciales componentes S1, mismos que serían seleccionados mediante un algoritmo propuesto, que contempla una duración entre dos picos S1 entre un intervalo de 0.2 y 0.6 segundos.
Finalmente, con las componentes S1 detectadas, se obtiene la señal de la fHR promedio. Esta señal es introducida al bloque Statistics para conocer algunos de sus parámetros estadísticos, con el fin de conocer la dispersión de la señal obtenida. De igual forma, se utiliza la estimación de la fHR promedio, para establecer una clasificación entre una señal cardiaca normal (si está entre 110 y 160 latidos por minuto) o anormal (de tipo bradicardia o taquicardia dependiendo si está por arriba o por abajo del rango normal).
CONCLUSIONES
Hasta el momento, los resultados obtenidos con la metodología propuesta han dado resultados correctos para el set de señales seleccionado, pues en su mayoría, se obtienen señales resultantes con las componentes S1 remarcadas correctamente, aun considerando el ruido de la señal original. Sin embargo, sólo funciona con archivos .hea, pues se ha probado la misma metodología con archivos .wav de señales fPCG y se obtienen resultados menos precisos en la estimación de la fHR.
También, se observa que el método propuesto para la clasificación de las componentes S1 obtenidas a la salida del bloque peak detector, permite una identificación más robusta, a comparación de una detección por nivel de umbral común, pues permite estimar correctamente las componentes S1 que tienen menor amplitud o estimar componentes S1 faltantes.
Tiburcio Delgado Maria Fernanda, Instituto Tecnológico Superior de Xalapa
Asesor:Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
CONTROL Y MONITOREO DE TEMPERATURA EN UNA CáMARA TéRMICA
CONTROL Y MONITOREO DE TEMPERATURA EN UNA CáMARA TéRMICA
Tiburcio Delgado Maria Fernanda, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
PLANTEAMIENTO DEL PROBLEMA
Una cámara térmica es un espacio o contenedor cerrado en donde ocurren ciertos fenómenos de transferencia y transporte de calor mediante variaciones de temperatura.
En este sentido, se entiende que la distribución de calor en este espacio puede variar dependiendo de factores como la forma o construcción de la cámara y las condiciones de temperatura externas a ésta.
La problemática a resolver en la cámara es lograr un equilibrio y balance de temperatura dentro de ella, por ende, se debe crear un sistema de control para la ventilación, inyección y extracción de aire para adecuar las variaciones de temperatura de la cámara y así mantener sus condiciones constantes.
METODOLOGÍA
Este proyecto se basa en el diseño, construcción y monitoreo de un sistema de medición y control de temperatura dentro de una cámara térmica que servirá como base para la construcción de un deshidratador de alimentos, el cual tendrá un sistema de flujo de aire forzado en sus paredes.
La primer fase del proyecto contempla el diseño y arreglo de los sensores dentro de la cámara para la medición de temperatura y la distribución del sistema de inyección y extracción de aire. De esta forma, se define el circuito de control y medición con dos partes principales; la primera, el grupo de sensores, utilizando sensores de temperatura LM35 programados y controlados por un microprocesador Arduino; y la segunda, el sistema de flujo de aire forzado, un grupo de ventiladores, un sistema de inyección de aire caliente y extractores del mismo.
Posteriormente, la programación del Arduino se realizó con base a las características de la cámara térmica considerando como condición inicial una temperatura constante. Se comenzó así con las pruebas de funcionamiento, considerando que cada vez que la temperatura dentro de la cámara excediera el valor deseado, se energizarían al mismo tiempo el sistema de ventilación y el de extracción de aire, de tal manera que se ajustara este exceso de temperatura al valor deseado y se regresara al estado de funcionamiento ideal; en caso contrario, si en la cámara se presenta una temperatura por debajo del límite a considerar, se prendería el sistema de inyección de aire caliente para así aumentar la temperatura dentro de la misma hasta alcanzar el valor deseado; y finalmente, si la temperatura en la cámara es la ideal, el único sistema que debe de estar trabajando es el de ventilación el cual trabaja de forma intermitente, encendiéndose y apagándose cada determinado tiempo a fin de lograr un flujo continuo de aire.
De igual forma, el programa cuenta con una comunicación serial con el equipo de computo al cual se conecta para que así el usuario pueda ingresar el valor de la temperatura a mantener dentro de la cámara o en su debido caso, un cierto rango de temperaturas y a su vez se proyectan en la pantalla de la computadora las lecturas de temperatura de cada uno de los grupos de sensores.
Una vez realizada la programación bajo condiciones iniciales ideales, se experimentó con otros parámetros de temperatura dentro de la cámara térmica y se realizaron pruebas físicas de todo el sistema y la simulación del control de la cámara.
CONCLUSIONES
Durante el desarrollo de este proyecto se lograron aplicar los conocimientos de automatización y control de procesos para un fin práctico de tal forma que el resultado obtenido, que es el sistema de control de temperatura, pueda ser utilizado para un propósito real que cumpla con las especificaciones requeridas y que pueda ser mejorado para futuras adecuaciones siendo así una base para el desarrollo del prototipo final.
Tirado Angulo Andrea de Jesus, Universidad Autónoma de Occidente
Asesor:Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
SINAFOOD
SINAFOOD
Palacio Castillo Luz del Carmen, Universidad Autónoma de Occidente. Sopeña Rios Alan Giovani, Universidad Autónoma de Occidente. Tirado Angulo Andrea de Jesus, Universidad Autónoma de Occidente. Asesor: Dra. Diana Carolina Fonseca Polanco, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Sinaloa es considerado el estado agrícola más importante de la Federación. Adicionalmente, cuenta con la segunda flota pesquera más grande del país y culturalmente, es conocido a nivel nacional e internacional por su gastronomía y música típica, la Banda o Tambora.
La gastronomía del Estado de Sinaloa es impactante, existen variedad de platillos realizados con productos de la región, desde el campo hasta el mar, en manos de maestros culinarios locales, nacionales e internacionales, como el aguachile de camarón, callo de hacha y pescado zarandeado.
Actualmente, en el ámbito gastronómico, los recursos tecnológicos han ido adquiriendo especial relevancia y ha venido a transformar procesos, técnicas e instrumentos culinarios; hoy existen diversas aplicaciones sociales como WhatsApp, Messenger, Instagram y Facebook en donde puedes localizar diversas recetas culinarias. Sin embargo; se han detectado los siguientes problemas: la pérdida del patrimonio gastronómico en la población, el desinterés de la población por conservar la gastronomía de la ciudad y los cambios que ha sufrido la biodiversidad. Por ello, es importante que la población conozca los platillos, los postres y las bebidas típicas del Estado de Sinaloa.
METODOLOGÍA
De acuerdo con la relevancia y el contexto del presente estudio, se plantearon tres objetivos. Los métodos, técnicas e instrumentos para recolectar los datos y cumplir con los objetivos propuestos están cimentados en técnicas de investigación documental y de campo bajo un enfoque mixto. En la técnica de investigación documental se consultaron libros electrónicos, fuentes históricas y diversos artículos científicos, mientras que en la técnica de campo se diseñó una encuesta.
La encuesta, constó de 10 preguntas, se aplicó a 50 ciudadanos, sus edades oscilaban entre los 18 y los 54 años y eran de distintos Municipios del Estado de Sinaloa, entre ellos: Mazatlán, San Ignacio, Concordia y Escuinapa.
La aplicación móvil, cuyo desarrollo se va a cubrir a continuación recibe el nombre de SinaFood. Su principal objetivo es dar a conocer a la población y a turistas que en el Estado de Sinaloa existe una diversa variedad gastronómica, así como distintos tipos atractivos que visitar. Para la creación de esta, se llevaron a cabo diversas etapas: Análisis, Diseño y Desarrollo.
En la etapa de análisis, se definen tanto los objetivos como los requisitos que se deben satisfacer para cumplirlos. Por lo cual, a través de la utilización de fuentes de investigación documental, reuniones en equipo y la aplicación de las encuestas a los ciudadanos, se realizó un análisis minucioso de la información.
En la etapa de diseño, se definieron varios puntos importantes de la aplicación antes de proceder a su creación. Era necesario definir el logotipo, considerando el tipo de letra y la gama de colores. Además, también se realizaron prototipos de las distintas pantallas de la aplicación para que fueran la base de la creación de la interfaz final.
En la etapa de desarrollo, se utilizó Dart y Flutter, las cuales proporcionan soporte tanto para el lenguaje como para las peculiaridades del framework y la elección de Visual Studio Code viene dada por su velocidad.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre el estudio de la gastronomía del Estado de Sinaloa y conocimientos prácticos en el desarrollo de una aplicación móvil. En SinaFood podrá encontrar de manera ágil información gastronómica de los municipios Culiacán, Mazatlán, Cosalá, Elota, San Ignacio, Concordia, Rosario y Escuinapa. Se pretende que el proyecto crezca, incluyendo la promoción de los 18 municipios del Estado de Sinaloa, a través de la ubicación por geolocalización (GPS) para que los pobladores y visitantes puedan situar y visitar los lugares emblemáticos y esté disponible para teléfonos y tabletas bajo el sistema Android.
Tirado Luna Rubén Alejandro, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
ESTUDIO DE VARIABLES DE REFLECTANCIA
ESTUDIO DE VARIABLES DE REFLECTANCIA
Camacho Denogean Sofia Guadalupe, Universidad de Sonora. Campa Haro Miguel Angel, Universidad de Sonora. Laprada Mancinaz Ana Paula, Universidad de Sonora. Tautimez Rivera Oscar Uriel, Universidad de Sonora. Tirado Luna Rubén Alejandro, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los espejos utilizados en los heliostatos, se encuentran expuestos a diferentes variables que pueden interferir en la eficacia de estos, tales como, transmitancia, reflectancia y absortancia. Esta investigación se enfocará en la reflectancia de estos.
La problemática a tratar es conocer si la reflectancia de los espejos disminuye o incrementa al aumentar el grosor de éstos, ya que al ser un camino óptico mayor el que tiene que recorrer la luz solar a través del vidrio, se espera que se pierda una pequeña cantidad de radiación solar.
METODOLOGÍA
Los espejos utilizados tienen una capa de 3mm y 5mm respectivamente, ambos vidrios están formados de arena de sílice, carbonato de sodio y caliza, además de una capa delgada de plata, que es lo que le da su propiedad reflectiva.
El estudio se realizó el día 26 de julio del 2021, entre las 10:56 AM y las 11:42 AM en la Plataforma Solar de Hermosillo, ubicada en la ciudad de Hermosillo, Sonora (29.0275795,-111.1456932). Las medidas se realizaron durante días despejados debido a que las condiciones medioambientales también pueden afectar los resultados obtenidos. Es importante considerar la limpieza de la superficie de los espejos, ya que la suciedad (provocada por polvo, lluvias, etc) afecta en gran manera la reflectancia de estos.
El dispositivo que se usó para las pruebas fue un pirheliómetro con seguimiento solar. El funcionamiento de este dispositivo comienza al momento que entra luz solar por medio de una ventana, donde al llegar la radiación, por medio de termopilas, esa cantidad de energía proveniente de los rayos del sol, las transforma en señales eléctricas que van hacia un dispositivo electrónico capaz de interpretarlas, que en esta ocasión el dispositivo que se usó fue un multímetro convencional.
La experimentación para llevar a cabo las mediciones fue la siguiente; primeramente, se calculó la radiación solar que llegaba al pirheliómetro directamente, se guardaban los datos, y proseguimos a calcular la radiación reflejada de los espejos de 3 y 5 milímetros con el pirheliómetro, en donde se trató de colocar los espejos lo más normal al sol para evitar errores por factor coseno, que son las pérdidas proporcionales al coseno del ángulo que se forma entre la normal a la superficie reflectiva con la dirección que tiene la incidencia de la radiación directa. Estos pasos se repitieron 5 veces por cada espejo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos sobre el uso de helióstatos, sus diversas aplicaciones y tipos. Estudiamos cualitativamente y cuantitativamente los beneficios que nos brindan este tipo de tecnologías para así lograr analizar qué tan sustentables son este tipo de proyectos tomando en cuenta las pérdidas de energía que se dan durante la transformación debidas a diversos factores tales como las características reflectivas de los espejos.
Según los resultados obtenidos, tiene una mayor eficiencia un espejo delgado con respecto a uno de mayor grosor, esto se cumple para los espejos con vidrios de igual transmitancia. Esta diferencia de 2mm logró mejorar la eficiencia hasta un 9%, también es importante tomar en cuenta que entre más delgado sea el vidrio más frágil será, y tendrá que tener un mayor cuidado a la hora de su instalación.
Consideramos importante invertir en espejos que tengan gran resistencia a los factores ambientales que pueden afectar su calidad, que soporten altas y bajas temperaturas, tormentas de arena, aire, lluvia, etc.
Toala Garcia Adi Daniela, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
MANTENIMIENTO Y REHABILITACIóN DE UNA ESTACIóN METEOROLóGICA.
MANTENIMIENTO Y REHABILITACIóN DE UNA ESTACIóN METEOROLóGICA.
Toala Garcia Adi Daniela, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
PLANTEAMIENTO DEL PROBLEMA
Los alimentos vegetales constituyen una importante fuente de nutrientes que impulsan el desarrollo físico y mental del ser humano, contribuyendo a tener una buena salud para quien los consume.
A nivel mundial México ocupa el 13 lugar en producción de bienes agropecuarios y entre sus actividades primarias dicha actividad es la que más se realiza. El trabajo en el campo Mexicano para el cultivo alimentos vegetales se ve afectado por las condiciones meteorológicas, generalmente los sembradores tienen sus cultivos alejados de casa, lo que imposibilita tener un constante monitoreo de las afectaciones del clima en sus campos.
Dada la importancia de esta actividad económica, diversas instituciones privadas y de gobierno realizan constantes inversiones en alternativas tecnológicas que enriquezcan la investigación, desarrollo y producción de productos en el campo.
El Instituto Tecnológico de Tlajomulco de Zúñiga es una institución de estudios superiores que se dedica mayormente al ámbito agropecuario, estando en estos términos, el proyecto del verano científico está enfocado al mantenimiento y rehabilitación de una estación meteorológica, equipo utilizado con propósitos estudiantiles y de investigación.
METODOLOGÍA
Debido a que la estación meteorológica no registraba datos en la Micro-SD, componente que venía incorporado, ni aun haciéndole algunos ajustes, se tomó la decisión de realizar el desmontaje total de las diferentes placas, microcontroladores y sensores, así como la realización desde cero del código.
Se comenzó utilizando la placa Arduino Mega, una placa tipo protoboard y módulo lector de memoria Micro-SD, se programó para que se crearan dos archivos; Estacion.txt y Estacion.csv, en los cuales se almacenara la información recogida por los sensores, se creó otro archivo llamado Tiempo.txt, en el cual el usuario colocara el intervalo de tiempo entre cada medición hecha por los sensores. El programa busca la existencia de los dos archivos en los que se almacenan las mediciones, de encontraros solo escribe la información sin eliminar los datos ya almacenados, de no encontrarlos los crea, no sucede así con el Tiempo.txt, este archivo no debe eliminarse pues el programa no creara otro archivo tiempo. Para comprobar su buen funcionamiento se guardaron datos numéricos generados aleatoriamente, con ello se pudieron observar algunos detalles que fueron corregidos.
Luego se conectó el módulo RTC, utilizado para llevar un seguimiento del año, mes, día, hora, minutos y segundos. Se añadió al código de tal forma que se almacenara la fecha y la hora en los archivos Estacion.txt y un Estacion.csv, seguido de esto se conectó el sensor SHT 10 (sensor de temperatura y humedad) y el sensor MAX6675 (sensor de temperatura en el suelo), se llevó una busque sobre estos sensores para conocer más sobre su funcionamiento y especificaciones técnicas, la conexión fue mediante comunicación SPI. El sensor AM2315 (mide temperatura y humedad) se conectó utilizando comunicación I2C. Durante el proceso se presentaron algunos detalles en el código que requirieron se empleara más tiempo, también se usó un eliminador de voltaje de 5V y 1-2 A, para no provocar posibles daños en la computadora a la hora de alimentar el circuito. Por último se planeaba conectar el sensor SP-110-SS (mide la radiación), se usó un ADC de 16-Bit que incorpora un amplificador operacional, con la finalidad de que Arduino reconociera el voltaje que venía del sensor ya que estaba en el orden de los mili volts, el sensor se conectó al módulo ADC y este al Arduino, se realizó el código con ayuda de la librería para el sensor, se tomó en cuenta el factor de calibración que el fabricante señala en el manual del sensor, no obstante, se necesitaba comprobar el valor que el sensor de radiación enviaba para aseurase de la fiabilidad de los mismos, debido a que en ese instante no se contaba con un medidor digital de energía solar y a que era el penúltimo día de la estancia no se pudo continuar con la conexión de este sensor, tampoco se conectó el anemómetro (sensor de velocidad y dirección del viento).
CONCLUSIONES
Faltaron varias cosas por terminar realmente, conectar las pilas al Arduino Mmega usando el Solar Power Manager, conectar la placa NodeMCU-Wifi, hacer una aplicación para sistemas Android (o por lo menos buscar una interfaz de comunicación entre la estación meteorológica y el teléfono móvil, montar el circuito en la estructura de la estación, realizar pruebas y ajustes pertinentes, aun así la experiencia y el aprendizaje en el manejo de los sensores fue bastante amplio y útil, ya que para poder conectarlos se necesitaba saber cómo funcionaban y que representaba cada cable del sensor, así como de factores de calibración, correcto uso y manejo.
Toledo Montesinos Uzziel, Instituto Politécnico Nacional
Asesor:Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
REMOCIóN DE METALES PESADOS EN FASE ACUOSA EMPLEANDO CARBONES ACTIVADOS SINTETIZADOS A PARTIR DE RESIDUOS AGROINDUSTRIALES
REMOCIóN DE METALES PESADOS EN FASE ACUOSA EMPLEANDO CARBONES ACTIVADOS SINTETIZADOS A PARTIR DE RESIDUOS AGROINDUSTRIALES
Bernal Ibarra Maria Danea, Instituto Tecnológico de Tepic. Toledo Montesinos Uzziel, Instituto Politécnico Nacional. Asesor: Dr. Adrian Bonilla Petriciolet, Instituto Tecnológico de Aguascalientes
PLANTEAMIENTO DEL PROBLEMA
Actualmente, la contaminación del agua se contempla como uno de los temas vitales a tratar por la Agenda 2030 para el desarrollo sostenible. Su objetivo principal es proteger el planeta, ratificar la prosperidad para todas las personas y asegurar el futuro de las próximas generaciones en la Tierra. Específicamente, el 6to Objetivo de Desarrollo Sostenible (ODS) pretende dar solución a la crisis mundial del agua, mismo que establece garantizar la disponibilidad, gestión sostenible y el saneamiento de este recurso para todos (ODS, 2015). Previamente establecido el panorama de la situación referente a la contaminación del agua, los metales pesados se encuentran en mayor proporción en afluentes de diferentes industrias; entre ellas, la industria minera, la siderúrgica y la petroquímica representan el mayor riesgo en la liberación de estos agentes a cuerpos de agua. La crisis de los contaminantes radica en el riesgo que representan para la salud humana y el daño que causan a los ecosistemas en los cuales existe un afluente de agua contaminada (Escobar, 2002). Para esto se tiene como medida correctiva la adsorción usando materiales sintéticos y naturales como una de las técnicas con mejor desempeño para la remoción de iones metálicos. Entre los materiales naturales con alto potencial de adsorción para este tipo de contaminantes se encuentran las biomasas lignocelulósicas. Dichas biomasas son usadas de forma cruda y como materia prima para la preparación de adsorbentes a base de carbón.
Con base a este planteamiento, en este trabajo se aprovecharon desechos agroindustriales como precursores para la remoción de metales pesados. Entre estos residuos se encuentra el orujo de uva (OU), bagazo de la caña de azúcar (BC), fruto de la jacaranda (FJ) y semilla de guayaba (SG), los cuales no tienen uso alguno en la industria agroalimentaria, por lo que es importante darles una aplicación alternativa para favorecer el ciclo de la economía circular de un modelo sostenible.
METODOLOGÍA
Durante la estancia virtual, el investigador anfitrión compartió material multimedia en el cual se mostró a grandes rasgos el trabajo que se realiza en el laboratorio de investigación de ingeniería y tecnología del agua del Instituto Tecnológico de Aguascalientes. En total se recibieron 7 vídeos, (uno por cada semana) en los cuales se describen las actividades del plan de trabajo. Para poner en práctica los conocimientos adquiridos se obtuvieron los porcentajes de remoción de diferentes metales pesados empleando residuos agroindustriales. A continuación, se describe la metodología tomando como referencia la información proporcionada.
En primera instancia las biomasas se trituraron, tamizaron para obtener un tamaño de partícula entre 0.50 - 0.84 mm y lavaron hasta tener un pH constante del agua de lavado. Los materiales obtenidos fueron modificados fisicoquímicamente bajo diferentes condiciones experimentales. Para evaluar el impacto de las variables involucradas (tipo de biomasa, agente químico, concentración, tiempo de impregnación, temperatura de pirólisis y tiempo de residencia) se planteó un diseño de experimentos (L16 de Taguchi). La modificación química de los precursores se llevó a cabo en un sistema cerrado. Los materiales modificados se pusieron en una estufa para continuar con la activación. El proceso de pirólisis de los materiales impregnados se realizó en un horno tubular. Los adsorbentes obtenidos se emplearon en la remoción de Zn2+, Pb2+ y Hg2. Los experimentos de adsorción se llevaron a cabo durante 24 h en condiciones por lote a pH 5, 30 °C, empleando una relación adsorbente-adsorbato de 2 g/L y soluciones con concentraciones iniciales de 200 mg/L. Una vez que se alcanza el equilibrio, se mide la concentración remanente del metal. La medición de las concentraciones iniciales (C0) y finales (Ce) para los respectivos metales se realiza con un espectrofotómetro Thermo Scientific Ice 3000. La información obtenida para los adsorbentes modificados con ZnCl2 fue proporcionada por el investigador anfitrión y se utilizó para calcular los porcentajes de remoción (R, %) mediante la siguiente ecuación:
R=((C0-Ce)/(C0))*100
Cabe destacar que la secuencia de cálculos se realizó en el software Excel.
CONCLUSIONES
Los porcentajes de remoción de los diferentes adsorbentes fueron de 23.76, 36.65, 40.02 y 42.92 % para SG, FJ, OU y BC, respectivamente. Por otro lado, con respecto a los adsorbatos de interés dicho parámetro presentó la siguiente tendencia Zn2+ < Hg2+ << Pb2+. Para la eliminación de Hg2+ se registró que el adsorbente con mayor potencial de adsorción se obtuvo a partir de SG (con un 27.39 % de remoción). En segundo lugar, se encuentra el BC (26.61 %) seguido del FJ (24.49 %) y el OU (8.70 %), respectivamente. Con respecto al Pb2+ el desempeño de los adsorbentes es el siguiente BC (82.94 %) > FJ (80.76 %) > SG (71.79 %) >> OU (31.03 %). Para el Zn2+ se obtuvieron los siguientes porcentajes de adsorción: 7.98, 7.07, 3.92 y 0.99 % para FJ, BC, SG y OU, respectivamente. De acuerdo con la información proporcionada estos estudios se van a complementar con estudios cinéticos y de equilibrio de adsorción a distintas temperaturas.
Finalmente, se concluye que con la participación en el verano de investigación virtual se logró adquirir conocimientos teóricos de la remoción de metales pesados del agua usando adsorbentes sintetizados a partir de biomasas lignocelulósicas. De acuerdo con lo que se observó en los diferentes videos, en un laboratorio de investigación es relevante la reproducibilidad de los datos experimentales. Por tanto, es importante la aplicación de medidas estrictas en el manejo de equipo de instrumentación analítica y la destreza para manipular el material de laboratorio (por ejemplo: pipetas, matraces volumétricos), con el objetivo de obtener resultados confiables.
REFERENCIAS
J. Escobar. La contaminación de los ríos y sus efectos en las áreas costeras y el mar. CEPAL. 50 (2002) 5-5.
ODS. 2015. Objetivo de desarrollo sostenible. ¿Qué es la Agenda 2030? Recuperado de https://www.gob.mx/agenda2030
Tomas Acosta Andrea Monserrat, Universidad Autónoma de Guerrero
Asesor:M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
DEFINICIÓN DE LA ESTRATEGIA DE TI PARA UNA ORGANIZACIÓN (LOS SERVICIOS DE TI, LA OPERACIÓN Y LA ESTRATEGIA ORGANIZACIONAL)
DEFINICIÓN DE LA ESTRATEGIA DE TI PARA UNA ORGANIZACIÓN (LOS SERVICIOS DE TI, LA OPERACIÓN Y LA ESTRATEGIA ORGANIZACIONAL)
Tomas Acosta Andrea Monserrat, Universidad Autónoma de Guerrero. Asesor: M.C. Fernando José Aguirre Ceballos, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
El entorno actual de las organizaciones requiere el uso de los servicios de Tecnologías de la Información, esto con la finalidad de proveer un valor organizacional de calidad, no solamente para ofertar productos, servicios o cuestiones tecnológicas, sino también para proveer valor a los clientes en términos de servicios.
Las capacidades de los profesionales de TI han ido cambiando constantemente, la comunicación y el entendimiento con las empresas ha generado que las organizaciones cambien sus paradigmas e implementen nuevas estrategias de TI para poder satisfacer sus funciones y poder gestionar la demanda de prestaciones tecnológicas de una manera eficiente para la empresa y el consumidor.
Bajo este enfoque, se podría plantear una estrategia que pueden seguir las organizaciones para gestionar sus operaciones de una manera eficiente.
METODOLOGÍA
Para la realización de este trabajo se utilizó la búsqueda de documentación bibliográfica, la cual fue utilizada para realizar un análisis de manera general sobre como las empresas emplean los servicios de Tecnologías de la Información durante sus operaciones y su estrategia organizacional.
La gestión de servicios en las organizaciones debe ser responsabilidad de un área de TI, aunque por razones estratégicas no siempre suele ser de esta manera. Existe algo llamado gobierno de las TI, la cual en las organizaciones se refiere a la gestión de la estrategia de servicios para responder a las necesidades de la empresa, a nivel de una estrategia es necesario evaluar las condiciones en las que se encuentra la organización para así saber cuáles son sus necesidades.Una vez que conocemos las necesidades de la empresa, es necesario disponer de una herramienta que nos ayude a saber qué elementos de las TI podemos emplear. Antes de plantear una estrategia, es importante conocer los servicios de TI que pueden ser ofertados internamente y externamente, ya sea como soporte a los servicios operacionales de la organización o bien a la oferta de servicios.
Posterior a esto, basándonos en las estrategias de distintas organizaciones se logró obtener una visión más clara sobre las distintas metodologías que se emplean en las organizaciones.
CONCLUSIONES
De la presente investigación se logró obtener un concentrado de información bibliográfica sobre el uso de las TI empleadas en las distintas organizaciones, así también se obtuvo una propuesta de una estrategia que las organizaciones pueden seguir basándose en el uso de las TI.
Se llegó a la conclusión de que las TI desempeñan un papel fundamental en cuanto al respaldo de las operaciones organizacionales, sus servicios que ofrecen y sus estrategias. De la recopilación de información se pudo observar que las organizaciones necesitan aplicar mejores prácticas de TI para lograr optimizar sus servicios, esto proporcionando enfoques y objetivos específicos para obtener una buena planificación de sus estrategias, esto para poder ofrecer mejores servicios y que la implementación de sus operaciones sean más óptimas, para así poder satisfacer los requisitos comerciales y organizacionales actuales.
Toquillás Gastelum Yolanda Guadalupe, Universidad Autónoma de Sinaloa
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
APLICACIóN MóVIL PARA SEGURIDAD Y LOCALIZACIóN DE USUARIOS PERDIDOS CON ANDROID.
APLICACIóN MóVIL PARA SEGURIDAD Y LOCALIZACIóN DE USUARIOS PERDIDOS CON ANDROID.
Toquillás Gastelum Yolanda Guadalupe, Universidad Autónoma de Sinaloa. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
La inseguridad ha crecido gradualmente tanto en los países desarrollados como en todo el mundo. En la vida cotidiana se percibe que la seguridad podría ser frágil, poniendo en peligro la integridad de una persona donde existe la posibilidad de ser una víctima.
Muchos países en el mundo sufren altos índices de criminalidad y violencia, siendo los países con más inseguridad: Brasil, Colombia, Venezuela, El Salvador y México.
Los efectos cotidianos de la violencia, inseguridad y criminalidad tiene dos sentidos: por la comunidad y sus miembros, sea bajo la forma de eventos concretos, a través de la sensación de inseguridad. Esta sensación de inseguridad desarrolla expresiones concretas emocionales, algunas de las más importantes son el miedo, la angustia y la ansiedad.
Uno de los objetivos específicos es analizar y estudiar el impacto que conlleva la importancia, donde el peligro es un factor de riesgo, que se determina principalmente por la inseguridad pública delictiva.
Los efectos cotidianos de la inseguridad presenta la oportunidad del desarrollo de una herramienta, una aplicación móvil con geolocalización en tiempo real que le permita al usuario tener monitoreo mediante otra persona de absoluta confianza que localice y esté alerta del usuario activo, con la finalidad de que el índice de inseguridad disminuya.
Los dispositivos móviles se han vuelto uno de los mejores inventos que han existido, los cuales poseen un sin fin de funciones, entre las cuales, podemos mencionar el procesamiento e intercambio de información. Entre todas las características, nos permite estar conectados con el resto del mundo en todo momento, dando la posibilidad a los usuarios el acceso a infinidad de datos y servicios.
Por otro lado, está la herramienta de geolocalización que ofrecen estos dispositivos, esta está unida a la conexión de internet, lo cual despliega un gran abanico de posibilidades para usuarios y programadores.
METODOLOGÍA
En la primera etapa se investigó el impacto de la seguridad e inseguridad en la sociedad, la inseguridad es un miedo que se presenta y hace referencia al temor de la población a ser víctima de la delincuencia, es un referente de este problema social, la seguridad se define como la protección y la salvaguarda del derecho de la vida, así como la integración de valores y derechos.
Una vez investigado el impacto que conlleva la inseguridad, se planteó crear una aplicación móvil para la seguridad y localización de usuarios perdidos con Android, con la finalidad que disminuya los índices de inseguridad en ciudades y países con más casos de criminalidad y violencia. Ejemplos de esto se presentan en la siguiente tabla.
Posterior a eso se investigó sobre las aplicaciones móviles y la geolocalización, las aplicaciones móviles o apps son un potente motor de innovación, son piezas de software diseñadas para ser instaladas y utilizadas en dispositivos móviles, que se pueden adaptar a las limitaciones de estos dispositivos, pero también permiten aprovechar sus posibilidades tecnológicas. De esta manera se concreta como una herramienta eficaz para el desarrollo del proyecto.
Las capacidades de los dispositivos nos aportan mucha información en nuestro entorno, la más clara y conocida es la posición geográfica actual, que nos permite realizar aplicaciones basadas en la localización. La geolocalización es una herramienta para situar a las personas u objetos en el espacio mediante coordenadas y que ha cobrado una nueva dimensión a partir de la aparición de internet y de los dispositivos móviles. Es una herramienta de comunicación entre el mundo físico y el digital, desde lo local a lo global, desde el lugar a la nube.
Finalmente, se desarrolló una aplicación en Android Studio que es una herramienta óptima para desarrollar aplicaciones Android, es un sistema operativo de Google, para smartphones. Se basa en la herramienta de programación IntelliJ IDEA, un entorno de desarrollo simple e intuitivo. El lenguaje que utilizó para desarrollar la aplicación fue Java.
CONCLUSIONES
Durante la estancia de verano se estudiaron conceptos teóricos importantes para la obtención de datos de inseguridad, principalmente que se encuentran en nuestra sociedad y enfocado a países de Latinoamérica.
En este proyecto se ha conocido el principal problema de inseguridad, que no solo se encuentra en mi estado o país, si no, en casi todo el mundo. El aporte a este problema fue el desarrollo de una herramienta, con el objetivo de que bajen los índices de desaparición e inseguridad a personas con dispositivos Android.
Se estudiaron los conceptos de dispositivo móvil, Android y geolocalización, para el desarrollo de la Aplicación móvil para seguridad y localización de usuarios perdidos con Android. Las aplicaciones móviles se han considerado un motor de innovación ya que su principal funcionamiento es la creación, gestión y comunicación.
Se desarrolló la primera fase de la aplicación que cumpla las principales características de geolocalización, usuarios, contraseñas y diseño. En general Android Studio y Adobe XD fueron las herramientas para la elaboración, también se aprendió lo básico del lenguaje de programación JAVA.
En futuras etapas se buscará implementar el sistema operativo iOS, aportando seguridad a un grupo mayor de la población con el desarrollo de la aplicación móvil para ese SO.
Toribio Cortes Marvin Nahum, Instituto Politécnico Nacional
Asesor:Dra. Rocío Alejandra Aldeco Pérez, Universidad Nacional Autónoma de México
ANáLISIS DE CIFRADO DE FACEBOOK MESSENGER
ANáLISIS DE CIFRADO DE FACEBOOK MESSENGER
Toribio Cortes Marvin Nahum, Instituto Politécnico Nacional. Asesor: Dra. Rocío Alejandra Aldeco Pérez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Debido a la pandemia el uso de plataformas de mensajería ha tenido un gran crecimiento, actualmente la aplicación de Facebook Messenger la utilizan aproximadamente 93 millones de mexicanos, lo que representa un 92.3% de la población.
Dentro de la plataforma se envía información sensible (cuentas bancarias, contraseñas, fotos, numero celular, etc.), por eso debemos de estar seguros de que la información solo la verán quienes estén en la conversación.
Por ello hemos decidido revisar el cifrado de los paquetes de Messenger, para asegurarnos que no cualquier persona conectada a la red puede ver los mensajes.
METODOLOGÍA
Facebook Messenger es una aplicación de código cerrado por esta razón no es posible realizar un análisis del código ejecutado cuando lo usamos en nuestro celular o en nuestra computadora. Por esta razón, se decidió realizar un análisis del tráfico cuando esta aplicación de mensajería es usada. Para esto usaremos Wireshark con el cual capturaremos los paquetes y posteriormente estos serán analizados.
Este proceso se realizó en dos tipos de escenarios: (1) de celular a celular y (2) de celular a computadora.
Para esto se utilizó una antena wifi 802.iin USB, el sistema operativo Parrot y el sniffer Wireshark.
Para hacer el crear este entorno de pruebas se configuró el modem dejando la red abierta y así evitar que este cifre los datos mientras pasan por la red. Cabe señalar que se utilizó para hacer las pruebas una red de 2.4GHz.
CONCLUSIONES
Durante la estancia de verano se lograron adquirir conocimientos de seguridad informática enfocada en la captura y análisis de paquetes de internet, creando un artículo del análisis el cifrado de datos de la aplicación Facebook Messenger*, donde se obtuvieron los siguientes resultados:
Se puede garantizar el servicio de confidencialidad en esta aplicación por lo que se puede asegurar que la información está siendo tratada de manera segura.
Facebook Messenger efectivamente cifra los datos de los paquetes enviados por los usuarios, haciendo uso de los protocolos DHCPv6, ICMPv6, LLMNR, MDNS, NBNS, SSDP, UDP, ARP e IGMPv3.
La diferencia que existe en la cantidad y tipo protocolos usados en los dos escenarios, en la comunicación de celular a computadora se utilizaron menos protocolos (SSDP, UDP, ICMPv6, IGMPv3 y ARP) y en la de celular a celular se utilizaron más protocolos (DHCPv6, MDNS, NBNS, SSP, LLMNR, UDP, ICMPv6, ARP). Esto es algo esperado debido a que en la computadora se hace uso de un navegador a diferencia de cuando se ejecuta una aplicación en un celular.
A nivel transporte se hace uso del protocolo de transmisión UDP que es más propenso a perder los paquetes de datos y a reenviar más datos, generando una posible saturación en la red, pero una mayor velocidad en transmisión (se esperaba el uso del protocolo TCP sobre http, ya que antes de enviar los datos por la red este protocolo los cifra para evitar que se puedan visualizarse en claro).
Así podemos concluir que los datos que son enviados a nivel aplicación por los usuarios del servicio de Facebook Messenger están siendo cifrados y un atacante que pueda escuchar los paquetes no será capaz de descifrarlos para hacer mal uso de ellos.
*El artículo se puede ver en el siguiente link: https://drive.google.com/file/d/183txTgSqipkkaWt7APBl2RFjVsuQwZb8/view?usp=sharing
Toro Moreno Luisa Carolina, Instituto Tecnológico Metropolitano
Asesor:M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit
IMPLEMENTACIóN DE UN VOICE COIL COMO RECOLECTOR DE ENERGíA PARA EL APROVECHAMIENTO DE VIBRACIONES MECáNICAS.
IMPLEMENTACIóN DE UN VOICE COIL COMO RECOLECTOR DE ENERGíA PARA EL APROVECHAMIENTO DE VIBRACIONES MECáNICAS.
Toro Moreno Luisa Carolina, Instituto Tecnológico Metropolitano. Asesor: M.C. Auro Andres Gonzalez Hernandez, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la recolección de energía juega un papel crucial en el suministro de energía eléctrica a diversas aplicaciones, como pequeños dispositivos inalámbricos autónomos, sistemas de monitoreo y en general, aquellos que requieran baja potencia. Si bien, existen desarrollos tecnológicos en sistemas recolectores de energía donde se hace uso de la transducción piezoeléctrica, fotovoltaica, térmica entre otras, estas requieren de altos costos y características para tener su máximo aprovechamiento. Por esta razón, se desea estudiar el funcionamiento de los sistemas electromagnéticos de recolección de energía debido a su sencillez y su posible implementación con elementos de fácil acceso y disponibilidad de materiales, partiendo del aprovechamiento de las vibraciones mecánicas del ambiente y de la determinación de configuraciones apropiadas de sistemas tipo Voice Coil.
METODOLOGÍA
Teniendo como punto de partida que el principal objetivo de un recolector de energía es transformar la energía mecánica en energía eléctrica de baja potencia, se propone la implementación de dos arreglos de Voice Coil en los que se consideran configuraciones de circuitos magnéticos y eléctricos, que permitan aprovechar las vibraciones mecánicas del ambiente provenientes de fuentes tales como entornos industriales y de fabricación, operación de automóviles, trenes, aviones, electrodomésticos; obras de construcción, entre otros, con el fin de energizar dispositivos electrónicos que no requieran altas potencias.
Los Voice Coil, al ser mecanismos con un funcionamiento similar al de los motores lineales, funcionan según el principio de un campo magnético permanente y un bobinado que a partir de su interacción hacen que surja la fuerza de Lorentz, situación que, como en la mayoría de los fenómenos electrogenos, puede ser reversible. Adicionalmente, se tiene presente que, para este mecanismo, se abordó el análisis de un sistema lineal de resorte-masa-amortiguador como dispositivo de captación de energía, así como el estudio del comportamiento de parámetros tanto eléctricos como magnéticos mediante análisis de elementos finitos (FEA).
CONCLUSIONES
Analizando los distintos dispositivos que hacen uso del Voice Coil (discos duros, micrófonos, altavoces), fue posible la comprensión de sus mecanismos y de los principios físicos que interactúan para su funcionamiento; de esta manera se posibilitó el uso de la simulación computacional a fin de validar su comportamiento electromagnético, donde se encontró que los dos arreglos de Voice Coil propuestos, están cercanos en cuanto a su valor de voltaje inducido con una diferencia del 24.4% (9.09046mV), lo que hace que cualquiera de los dos sea útil al permanecer constante en el tiempo.
Sin embargo, se debe tener en cuenta que, un arreglo compuesto por una masa pequeña (imán externo), alcanza mayor velocidad que una grande (imán interno) donde al relacionarla con la frecuencia, tendrá problemas para vibrar más rápido que una de masa pequeña, lo que haría que el sistema no fuese eficiente en cuanto a la inducción del voltaje.
En general, el Voice Coil como dispositivo recolector de energía, al tener poca masa y poca inercia, permite la presencia de las altas velocidades de aceleración y desaceleración necesarias para las aplicaciones que requieran precisión tales como dispositivos médicos de control, monitoreo de sistemas industriales, entre otros.
Torres Alarcón Ezequiel, Universidad Autónoma de Occidente
Asesor:M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
ROBÓTICA EDUCATIVA.
INTRODUCCIÓN A LA ELECTRÓNICA APLICADA Y AL DESARROLLO DE ROBOTS CON ENFOQUE DIDÁCTICO.
ROBÓTICA EDUCATIVA.
INTRODUCCIÓN A LA ELECTRÓNICA APLICADA Y AL DESARROLLO DE ROBOTS CON ENFOQUE DIDÁCTICO.
Torres Alarcón Ezequiel, Universidad Autónoma de Occidente. Asesor: M.C. Juan Carlos Ojeda Alarcon, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
Asesor: M.C. Juan Carlos Ojeda Alarcón, Universidad Autónoma de Occidente, Mazatlán, Sinaloa, México.
Estudiante: Ezequiel Torres Alarcón, Universidad Autónoma de Occidente, Mazatlán, Sinaloa, México.
El siguiente proyecto busca la participación de docentes y estudiantes en el área de la tecnología, más específicamente en la robótica aplicada y la mecatrónica, con el fin de que los alumnos de nivel básico reconozcan las ventajas del uso de la robótica en sus actividades diarias, así como los principios que esta disciplina lleva.
En el área de Tecnología e Industria, el M.C. Juan Carlos Ojeda Alarcón, con el apoyo del M.C. Ángel González Navarrete han sido un gran apoyo para la realización del proyecto siendo ambos profesionales en las áreas de mecatrónica, IoT, programación y educación.
Se desarrollará una serie de secuencias didácticas enfocadas a los principios de la robótica y programación, procurando como actividad de cierre un proyecto de robótica con el cual se busca apoyar la enseñanza de la robótica en el área educativa.
METODOLOGÍA
Como ya se mencionó, se estaba buscando realizar una introducción dinámica en la robótica, con el fin de que cada vez nos veamos más involucrados en las áreas de la tecnología.
Con la guía de nuestro investigador logramos identificar las áreas problemáticas en la educación de niños y jóvenes. A lo largo de la estancia del programa delfín se abordaron temas introductorios en la robótica, así como también se desarrollaron proyectos que aplicaban los conocimientos obtenidos en sesiones dinámicas entre compañeros e investigadores.
Durante la primera semana nuestros investigadores nos brindaron una serie de fuentes en las cuales se encontraban los diversos proyectos que realizaríamos a lo largo de la estancia, entre ellos se encontraban desde robots autómatas hasta prótesis hidráulicas. Estas propuestas fueron bien recibidas y para nuestra segunda semana ya habíamos terminado 1 de las propuestas de robótica aplicada que nuestros investigadores postularon. Todos los proyectos debían ser documentados con un formato en específico expuesto por nuestros investigadores, y posteriormente presentados en la reunión virtual semanal frente a todos los participantes, ya sea si el proyecto fue realizado en equipo o de manera individual, todos participaríamos y responderíamos las dudas que se presentaran. Como extra de cada actividad también debía realizarse un video en el que se explique el propósito, funcionalidad y desarrollo de este, así como la correcta documentación en nuestro propio espacio en la página oficial de registro del programa delfín brindada por nuestros investigadores.
La página de internet
Nuestros investigadores nos proporcionaron un espacio en un sitio alojado en Google Sites, en el cual todos podíamos editar y subir nuestros avances del verano de investigación. Este sitio en especial es muy amigable al usuario ya que no es necesario tener conocimientos previos de programación web algún tema parecido, pues con un par de clics es suficiente para crear páginas enteras llenas de contenido llamativo. Permitiéndonos utilizar nuestro contenido almacenado en nuestra cuenta de Drive. Cada proyecto era una página nueva por crear.
Las sesiones semanales
Cada viernes estaba programada una sesión virtual en la plataforma de Zoom, en esta se compartían los avances y productos finales de cada semana. Cada uno de nosotros mostraba el desarrollo de su proyecto y respondía las dudas que se presentaban en el momento, después, los investigadores realizaban una retroalimentación acompañada de comentarios constructivos y enriquecedores para mejorar aún más nuestra participación. Las sesiones se llevaban a cabo a las 8:00 pm zona horaria de Mazatlán, ya que algunos otros compañeros estudiantes se encontraban en diferentes zonas horarias de Latinoamérica las sesiones no podían durar más de horas, sin embargo, ese era tiempo suficiente para realizar las actividades planeadas.
Talleres
Durante la tercera semana de actividades los investigadores programaron una sesión especial en la que un maestro de la Universidad Autónoma de Occidente Unidad Regional Mazatlán brindó una clase completa a uno de los simuladores online más poderosos en áreas de la electrónica, modelado 3D y programación en Android: Tinkercad. El profesor Eugenio Rodríguez Palomares fue el encargado de brindarnos ese taller introductorio, en el que se mencionaron los principios de la electrónica, las presentaciones de los diversos módulos, así como una explicación muy completa sobre Arduino. Como segunda parte de este taller se nos permitió crear un proyecto propio en el simulador, era completamente libre. En esta ocasión experimenté con las capacidades de un solo Arduino implementándolo en varios procesos al mismo tiempo. En la imagen se ve que un solo Arduino puede controlar 3 diferentes módulos independientes.
CONCLUSIONES
Con los conocimientos obtenidos a lo largo de este mes y medio de actividades pudimos generar una visión panorámica de la importancia de la robótica en la vida diaria de las personas, así como los principios que esta posee. Además de diversas herramientas que apoyan a los usuarios a experimentar y seguir creciendo en esta área. El proyecto más ambicioso realizado durante el verano constó de la realización de una secuencia didáctica enfocada a la enseñanza o refuerzo de temas escolares usando algún robot que nosotros mismos desarrollamos. Esta prueba requirió el uso de simuladores (Tinkercad) y Arduino, en conjunto para crear una serie de actividades aplicables no solo en niveles básico de educación, incluso en niveles superiores. Lo mejor de todo es que también nos basamos en la reutilización de materiales de fácil acceso para la creación de estos útiles robots.
Torres Flores Lucia Grisel, Instituto Tecnológico de Chihuahua II
Asesor:Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
LOGíSTICA DE GASODUCTOS VIRTUALES
LOGíSTICA DE GASODUCTOS VIRTUALES
Torres Flores Lucia Grisel, Instituto Tecnológico de Chihuahua II. Zubia Almanza Yolanda Selene, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
La demanda de gas natural y el transporte de combustibles líquidos es importante que se lleve a cabo diversas estrategias para que se logre abastecer a los clientes ubicados geográficamente a lo largo de Colombia que lo necesitan, por medio de vehículos que transportan gas comprimido, como gasoductos virtuales o estaciones de servicio.
METODOLOGÍA
Mediante una investigación en la base de datos se logra obtener suficiente informaciones para identificar los gasoductos virtuales, donde la demanda de gas natural presenta mayor capacidad en las redes de transporte, para poder ampliar la ya instalada y mejorando las situaciones de operación, hace referencia a un método que utiliza herramientas de distintas simulaciones.
A través de las simulaciones se logra establecer distintas estrategias para optimizar la logística de transporte en gasoductos virtuales, se obtuvo mediante la información de los diversos artículos que ayudaron a identificar las fallas y las necesidades de ellos. Por lo tanto se tuvo que optimizar el abastecimiento de los gasoductos virtuales en las ciudades cercanas a Colombia.
Los aspectos de gran importancia que se relacionan con los cambios de circulación de la energía asociados al incremento del transporte del gas natural licuado por vía marítima, donde las reservas de gas natural en regiones alejadas de las grandes ciudades, existen tres diferentes mercados; sector residencial y comercial, industrial y de electricidad. Cada uno de ellos presenta diferentes picos en el invierno y verano, son uno de los factores que se involucran en el abastecimiento de gas natural.
Se logra analizar y comprar la información obtenida del abastecimiento de los combustibles líquidos y gaseosos, donde los gasoductos virtuales se utilizan para la distribución de gas natural licuado, donde se realiza mediante tanques o contenedores criogénicos que permiten transportarlo.
Una vez obtenida la información adecuada y correcta, se logra considerar aspectos de suma importancia como:
El transporte por medio de gasoductos virtuales
El gas natural licuado como factor importante
La circulación de la red de transporte
Integridad estructural de tuberías de transporte
Simulación y análisis de sensibilidad
Al tomar en cuenta la información, para poder obtener los parámetros de operación y diseño para aumentar la seguridad en el transporte, aplicando criterios de evaluación y administración para redactar un artículo final sobre los gasoductos virtuales.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos de las estrategias y la logística utilizadas en el transporte de gas líquido, el cual se logra hacer líquido por medio del proceso de licuefacción, al pasarlo por este proceso hace más fácil su transporte. Se debe de transportar a lugares lejanos, para poder llevar a cabo esto se utilizan los gasoductos virtuales los cuales ayudan al transporte de este gas de una manera más segura y se puede transportar a cualquier lugar. Sin embargo el transporte de este tipo de gas es un extenso trabajo el cual se encuentra en proceso de simulaciones para observar cuales son las mejores estrategias y los menores costos para el transporte del gas.
Torres González Olga, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
GENERACIóN DE BIOCOMBUSTIBLES DE SEGUNDA GENERACIóN A PARTIR DE RESIDUOS AGRíCOLAS Y DE TERCERA GENERACIóN A PARTIR DE MICROALGAS
Céspedes Jiménez Frida Paola, Benemérita Universidad Autónoma de Puebla. Giraldo Morales Madeleyne, Universidad Santo Tomás. González Reyes Brenda Yael, Benemérita Universidad Autónoma de Puebla. Torres González Olga, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Nildia Yamileth Mejias Brizuela, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
A partir de la revolución industrial los grandes problemas que enfrenta el sector energético son los procesos de combustión a partir del uso de combustibles fósiles y la disminución de las reservas de petróleo, ocasionando una alta concentración de gases contaminantes en la atmosfera. Una alternativa para cubrir la demanda de combustible es la producción de bioetanol y biodiesel, que pueden obtenerse por fermentación alcohólica y anaeróbica de materia orgánica sacarida y celulósica y por la conversión química de AG presentes en cultivos oleaginosos y grasas animales, así como residuales de aceites comestibles, respectivamente. Sin embargo, resulta un proceso poco sostenible debido a la alta competencia alimenticia y el uso de suelos aptos para agricultura. Por esta razón, las microalgas son materia prima de alto interés para la producción de biodiesel dada su capacidad de asimilación de CO2, alta acumulación de AG, cultivos en terrenos no agrícolas, menor consumo de agua, alta tasa de producción de biomasa en pocos días de crecimiento celular en agua salobre.
México como Colombia al igual que muchos países latinoamericanos son exportadores de petróleo, pero sus reservas probadas cada vez disminuyen. Por ello es necesario el estudio del potencial de la biomasa regional para la producción de bioetanol y biogás y al mismo tiempo la implantación de cultivos algales outdoor para producción de biodiesel cuidando la legislación y la sostenibilidad. Son muchos los retos que se tienen como el estudio de especies algales con alto contenido lipídico bajo metodologías implementadas y la adaptación a condiciones climáticas.
METODOLOGÍA
La primera parte consistió en una revisión científica literaria relacionada con el objetivo del proyecto. La segunda parte se centró en la obtención experimental de bioetanol a partir de pulpa y cascara residual de plátano y pulpa residual de mango. La obtención experimental del perfil de AG algal y el estudio de su potencial para la producción de biodiesel se llevó a cabo mediante análisis y discusión de investigaciones previas realizadas en el Laboratorio de Bioenergía del Programa de Estudios de Ingeniería en Energía de la Universidad Politécnica de Sinaloa (UPSIN).
La primera parte permitió establecer para el caso del bioetanol que la biomasa debe cumplir con altos rendimientos o presencia de compuestos sacáridos, siendo la fermentación alcohólica la tecnología más eficaz al emplear Saccharomyces cerevisiae dando buenos resultados de conversión a alcohol, el cual para fines energéticos debe ser purificado mediante destilación fraccionada y membranas que eliminen el contenido de agua en un porcentaje mayor a 96%, alcanzándose en la mayoría de los casos 99.9% de pureza. El caso experimental de producción estuvo basado en agregar levadura a biomasa previamente triturada y diluida en agua potable. Se usaron como reactores envases de plástico de 2 lt cerrados herméticamente para llevar a cabo la fermentación alcohólica anaerobia en un tiempo estimado de 5 días y en cuyo caso se apreció cualitativamente la acción del microorganismo sobre la digestión de la biomasa, la producción de CO2 como gas principal de la reacción bioquímica ocurrida y la producción de etanol una vez filtrada la muestra cuyo color y olor presento variación según el residual usado.
Para el caso de producción de biodiesel la técnica de conversión de AG contenidos en los lípidos únicamente es la transesterificación química catalizada por ácidos, álcalis o enzimas. El caso experimental estuvo basado en las microalgas Dunaliella tertiolecta y Nannochloropsis oculata las cuales presentaron crecimiento celular en 21-24 días respectivamente. Para la obtención de la biomasa se usó un agente floculante, siendo NaOH 1 M el que alcanzo en 99.9% de dicha recuperación, luego se aplicó liofilización para una biomasa completamente deshidratada color verde y olor a producto marino. Paso siguiente fue la extracción de lípidos empleando una mezcla de solvente y mediante la técnica de sonicación y soxhlet, finalmente se caracterizó por cromatografía de gases obteniendo un perfil lipídico para Dunaliella tertiolecta compuesto por AG saturados, monoinsaturados y polinsaturados tales como ácido palmítico, ácido mirístico, ácido linoleico y ácido linolenico clásicos y favorables para la producción de biodiesel, con rendimientos aceptables comparables con reportes científicos publicados.
CONCLUSIONES
Se lograron los conocimientos teóricos para producción de bioetanol y biodiesel como combustibles alternos que factiblemente pueden obtenerse tanto en México como en Colombia. De ello se deriva que: la biomasa óptima para producción de etanol de residuos agrícolas es aquella que contenga un alto contenido de sacáridos, utilizando pulpa, cáscara y/o hueso. En este proyecto de forma experimental los cambios bioquímicos se observaron en ese lapso, pero se dejó en un máximo de 5 días para una mejor observación. Para biodiesel es ideal que las microalgas sean oleaginosas y crezcan en aguas salobres como Dunaliella tertiolecta y Nannochloropsis oculata. En lo experimental se obtuvo un % acorde de AG saturados e insaturados con potencial para transesterificación por catálisis básica (NaOH). También se derivó que: un factor fundamental para elegir la biomasa es cumplir con la reglamentación vigente en el país correspondiente y garantizar que su uso no comprometa la producción alimentaria. A pesar de que existe mucha biomasa residual, es necesario hacer una caracterización fisicoquímica que avale el contenido de sacáridos, grasas y proteínas para garantizar la producción. Las condiciones de trabajo para los procesos bioquímicos que realizan los microorganismos son fundamentales, prioritariamente temperatura y nutrientes. Los procesos de refinación son importantes ya que estos combustibles vendrán acompañados de productos como agua y glicerol.
Torres Ramírez Daniel Azael, Instituto Politécnico Nacional
Asesor:Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
MONITOREO DE PUNTOS ESPACIALES PARA LA DETECCIóN DE RIESGO EN ASENTAMIENTOS URBANOS EN LAS ZONAS DE DESNIVEL
MONITOREO DE PUNTOS ESPACIALES PARA LA DETECCIóN DE RIESGO EN ASENTAMIENTOS URBANOS EN LAS ZONAS DE DESNIVEL
Ruíz Guzmán Emiliano, Instituto Politécnico Nacional. Torres Ramírez Daniel Azael, Instituto Politécnico Nacional. Asesor: Dr. Rigoberto Juarez Salazar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El conocimiento que se tiene del monitoreo de puntos espaciales en un espacio determinado se pueda lograr obtener a través de una digitalización en 3D. La digitalización 3D se puede adecuar a espacios determinados para ayudar en la detección de distintos problemas en zonas de desnivel. Esta metodología es de utilidad para evaluación de catástrofes naturales como sismos o erosión, o análisis de riesgos para planeación urbana.
La detección de riesgo en asentamientos urbanos es de gran importancia en todo el mundo debido a que un alto porcentaje zonas habitables se encuentran en terrenos en desnivel. Así, es muy importante contar con herramientas modernas de escaneo que permitan disminuir pérdidas inmuebles y vidas humanos en caso de desastres naturales.
Los avances que se han llevado a cabo sobre este tipo de investigación es bastante corta ya que hay distintas investigaciones como la de la Universidad de Lima de la Facultad de Ingeniería y Arquitectura donde habla parecido del tema pero no es exactamente lo mismo por lo que no hay libro o artículo científico alguno que de avances sobre este proyecto en específico el cual ayude a detectar problemas en zonas en desnivel habitadas.
Las contribuciones de este proyecto radican en el desarrollo de una herramienta importante para la investigación de campo para evaluar el riesgo de asentamiento y planeación urbana en zonas con desnivel. Este trabajo ayudará en la prevención y estimación de daños a considerar frente a catástrofes naturales en zonas urbanas en desnivel.
METODOLOGÍA
En este proyecto se busca poder identificar los distintos puntos de desnivel en alguna zona en específico, ya con eso obtenido identificar los distintos patrones de riesgo que pueden afectar a la zona de desnivel principalmente a través de una digitalización en 3D. Siendo así los resultados obtenidos en nuestro proyecto son el resultado de haber obtenido una digitalización en 3D de una maqueta la cual representaría la zona de desnivel siendo efectiva para darse la idea de cómo es que se hace la investigación en una zona real, se obtuvo una digitalización en 3D con la cual se mostraron los distintos puntos los cuales pudieran tener algún tipo de riesgo en caso de que esa zona tuviese una catástrofe natural.
CONCLUSIONES
En conclusión, este proyecto puede ser bastante beneficioso para ponerlo en práctica en la detección de distintos patrones de movimiento de suelo causados por asentamiento urbano en zonas de desnivel. Este proyecto consiste en la digitalización que puede ayudar bastante para saber que parte de la zona es mas peligrosa o sería la más afectada en alguna catástrofe natural. Este proyecto, llevándose a la aplicación de campo, puede ser beneficioso con la investigación y cálculos adecuados los cuales ayuden a tener un correcto funcionamiento del tema aplicado. También, este proyecto es de utilidad para entender mejor cómo se ocasionan catástrofes, y cómo pueden anticiparse para reducir las pérdidas inmuebles y de vidas humanas.
Torres Torres Yael Valdemar, Instituto Politécnico Nacional
Asesor:Lic. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez
DISPENSADOR AUTOMATIZADO DE COMPRIMIDOS
DISPENSADOR AUTOMATIZADO DE COMPRIMIDOS
Torres Torres Yael Valdemar, Instituto Politécnico Nacional. Asesor: Lic. Ricardo Luna Santos, Universidad Tecnológica de Xicotepec de Juárez
PLANTEAMIENTO DEL PROBLEMA
El consumo de medicamentos generalmente es una tarea que no representa la mayor dificultad, es decir, cuando una persona contrae una enfermedad o afección común como; gripe, infección estomacal, o malestar general el medicamento recetado por un médico normalmente se limita a algunos analgésicos, antinflamatorios y en algunos casos se incluirían antibióticos, por lo que el procedimiento de seguir las indicaciones listadas en la receta o prescripción médica se limita a ingerir los medicamentos en determinado horario y por un lapso de algunos días, esta acción es sencilla y fácil de seguir para una persona joven o adulta, sin embargo en ocasiones situaciones como el estrés, cansancio, o falta de atención podrían ocasionar que el usuario no ingiera sus medicamentos de forma adecuada, por otra parte, en los adultos mayores es frecuente la disminución de las capacidades físicas, motoras y cognitivas, lo que dificulta llevar a cabo la administración de medicamentos, por ejemplo, un paciente de la tercera edad puede olvidar la dosis prescrita o equivocarse de medicamento y horario, esto pondría en peligro su salud e integridad física. Es debido a lo anterior que surge la necesidad de crear un dispositivo automatizado que facilite el suministro de medicamentos de acuerdo con las indicaciones establecidas por un médico.
En México algunas de las enfermedades más comunes son las infecciones respiratorias agudas, la obesidad, la hipertensión arterial y la diabetes mellitus no-insulino dependiente (tipo II). Además, a partir de datos del Instituto Nacional de Estadística y Geografía (INEGI), correspondientes al periodo de enero a agosto de 2020, por problemas de salud, las tres principales causas de muerte a nivel nacional son: enfermedades del corazón (141 873 casos, 20.8%), COVID-19 (108 658 casos, 15.9%) y diabetes mellitus (99 733 casos, 14.6%). Debido a lo anterior en este documento el objetivo principal es desarrollar un prototipo mecatrónico capaz de dispensar medicamentos al paciente, según la dosis especificada por un médico. Este prototipo está orientado para suministrar algunos de los principales medicamentos que son requeridos para tratar la diabetes mellitus (tipo II). En las siguientes secciones se abordará el diseño eléctrico y electrónico, así como la construcción del mecanismo que permite el correcto suministro de los medicamentos. Finalmente se espera que en futuros trabajos sea implementada una interfaz gráfica mediante Visual Basic, así como también se logre incorporar herramientas de IoT (Internet de las cosas).
METODOLOGÍA
Este prototipo está orientado para suministrar algunos de los principales medicamentos que son requeridos para tratar la diabetes mellitus (tipo II). El proceso de diseño fue asistido por herramientas como: el diseño CAD y uso del software SolidWorks®, así como poner en práctica conocimientos relacionados con el área de mecanismos simples. Como resultados se presentó un prototipo, capaz de dispensar un comprimido a la vez tomando en cuenta que este proceso de entrega se encontró condicionado a un botón pulsador.
CONCLUSIONES
El mecanismo del prototipo dispensador automatizado de comprimidos fue desarrollado con éxito, y algunos puntos a destacar son los siguientes; el mecanismo dispensador cumplió con los requerimientos de contar con un principio de funcionamiento sencillo y fácil de replicar, además el prototipo se diseñó específicamente para entregar (un comprimido a la vez) medicamentos que generalmente son requeridos en el tratamiento de la diabetes mellitus tipo II (Metformina de 500 mg y Glibenclamida de 5 mg), contando con un contenedor extra para Diclofenaco de 100 mg. Por ultimo el prototipo cuenta con una programación relativamente sencilla desarrollada mediante el IDE de Arduino, además en el desarrollo y construcción se incluyeron materiales y componentes eléctricos/electrónicos de fácil acceso y relativamente económicos.
En relación con las áreas de oportunidad, tras una conversación con un trabajador de la salud con destacada experiencia en el ramo, se plantearon algunas observaciones. El principal problema es la contaminación de las pastillas o comprimidos los cuales están expuestos durante un buen tiempo al aire libre, lo cual provocaría que el medicamento pierda sus componentes químicos o actúe con un menor grado de efectividad, todo esto debido a factores como el calor, el aire, la luz y la humedad. Normalmente las píldoras deben estar contenidas en un recipiente bien cerrado en una pastilla de aluminio y si bien los contenedores fueron fabricados en su mayoría con poliácido láctico (PLA) el cual es un polímero constituido por moléculas de ácido láctico, con propiedades semejantes a las del tereftalato de polietileno (PET) que se utiliza para hacer envases y que además es biodegradable, el prototipo aún no cumple con las especificaciones de un contenedor certificado es por ello, que resulta necesario agregar en futuros trabajos un contenedor completamente hermético y estéril.
Es importante recalcar que la calidad y precisión de la impresión 3D, dio origen a varias problemáticas que tuvieron que ser atendidas de inmediato, es decir, si bien el diseño de piezas en 3D puede realizarse muy meticulosamente y estableciendo medidas exactas, la realidad es que al analizar los resultados de impresión se encontró que esa exactitud suele alejarse un poco de la realidad, produciendo piezas con variaciones (en los mejores casos de 0.1 mm). Por lo tanto, al reflexionar se llegó a la conclusión de que una posible solución es utilizar densidades de impresión mayores y buscar gamas superiores de impresoras 3D.
Como trabajo futuro se espera agregar una aplicación móvil para gestionar los horarios de consumo y dosis para un determinado número de medicamentos, de igual forma va a ser importante contar con un mayor número de contenedores, debido a que las dimensiones de los comprimidos disponibles en el mercado son muy diversas y resultaría complicado crear un contenedor de medicamentos universal.
Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
DISEñO DE UNA CASA ECOLóGICA AUTOSUSTENTABLE
Torróntegui Chávez Geraldyne, Instituto Tecnológico de Culiacán. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
Actualmente nos enfrentamos con una problemática mundial conocida como Crisis Climática. Si bien, sus efectos y consecuencias son conocidas por la mayor parte de la población, las estrategias y tecnologías desarrolladas recientemente para disminuirla aún no son aplicadas en todos los ámbitos de la sociedad.
La importancia de hacer frente a esta crisis, radica en que ya no es solamente una problemática ambiental o social, sino que es una sola crisis socioambiental. Donde los estragos que enfrenta el medio ambiente afectan directamente a la sociedad, especialmente a las personas más vulnerables, acrecentando de esta manera la desigualdad de condiciones de calidad de vida.
Estas condiciones se pueden ver en las problemáticas de distribución de agua, alimentos, sequías, pobreza energética, entre otras condiciones que van en aumento año con año.
METODOLOGÍA
Para llevar a cabo la investigación documental, primeramente, se seleccionaron los objetivos a trabajar en equipo. Entre ellos se encontraban: Evaluar las necesidades de espacio requeridas para planear la distribución de la casa y su orientación con respecto al movimiento del sol, incluyendo acondicionamiento climático y un sistema de piso radiante. Investigar la normatividad de construcción vigente sobre eficiencia energética, así como determinar el consumo de energía eléctrica para diseñar un sistema solar fotovoltaico interconectado a la red. Y por último, evaluar los requerimientos de agua de la vivienda, para diseñar un sistema de captación de agua de lluvia, acompañado del sistema hidráulico de distribución de agua doméstica y el sistema de desagüe de aguas grises para alimentar un biofiltro.
A partir de los objetivos establecidos se inició por definir el sitio de estudio y determinar la carta bioclimática, el potencial bioclimático, el perfil del usuario y el programa arquitectónico. Comparando distintos materiales de construcción para seleccionar el más óptimo para generar confort climático en la vivienda.
De acuerdo al perfil de usuario establecido, conformado por 5 personas: dos adultos de 50 y 47 años, y tres adolescentes de 21,19 y 16 años, se estimó el consumo energético promedio demandado; que, en conjunto con los estudios de radiación solar y determinación de pérdidas del sistema, permitió dimensionar el sistema solar fotovoltaico interconectado a la red.
Por otro lado, para determinar la capacidad necesaria del depósito de agua de lluvia, se estimó el consumo hídrico promedio de la vivienda y la oferta de agua pluvial de la región. Aunado al plano hidráulico capaz de distribuir el recurso a todos los aparatos sanitarios presentes en la propuesta arquitectónica, y un colector solar para la obtención de agua caliente doméstica a partir de energía solar térmica; todo lo anterior de acuerdo a las especificaciones de diseño recomendadas por distintos expertos.
Respecto al drenaje sanitario, se decidió diseñar dos sistemas de desagüe, uno para aguas negras (servicios sanitarios) con desembocadura en el sistema de alcantarillado público y otro para aguas grises (lavamanos, duchas, fregadero y lavandería) direccionado directamente al biofiltro.
Este último sistema, fue diseñado para purificar biológicamente el agua gris a través de 3 etapas: separación de sólidos, separación de grasas y aceites, y purificación de agua a través de la vegetación seleccionada, teniendo como resultado la recuperación de alrededor del 70 por ciento del agua ingresada al sistema. Lo antecedente logrado a partir de la investigación documental de distintos proyectos sobre la implementación de biofiltros.
CONCLUSIONES
A partir de la investigación documental realizada, se logró diseñar una casa ecológica autosustentable con confort climático natural, cuyo principal material de construcción es el adobe. Se dimensionó el sistema eléctrico de la vivienda conformado por 6 módulos de 500 Watts y tres circuitos de distribución.
Esto en conjunto con el sistema hidráulico de recolección de agua de lluvia, y el sistema de distribución de agua caliente doméstica a partir de un colector solar de 3.25 m2 de área de captación solar con un tanque de almacenamiento de 325 litros, además del sistema de plomería para alimentar un biofiltro de de purificación física y natural de aguas grises a partir de las plantas Scirpus spp y Phragmytes spp.
Toscano Pérez Esteban, Instituto Politécnico Nacional
Asesor:Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
DISEñO Y EXPERIMENTACIóN EN UN PERFIL AERODINáMICO
DISEñO Y EXPERIMENTACIóN EN UN PERFIL AERODINáMICO
Toscano Pérez Esteban, Instituto Politécnico Nacional. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Todo cuerpo que se mueve dentro de un fluido está sujeto a una fuerza. Aquellos en los que la componente de la fuerza opuesta a la dirección del movimiento es mucho menor a la fuerza normal a la dirección del mismo movimiento son conocidos como alas o, en términos ingenieriles, superficies de sustentación.
Es importante el estudio de este tipo de superficies, pues tienen una gran cantidad de aplicaciones muy importantes, como, por ejemplo, la posibilidad de los aviones de emprender vuelo y mantenerse a cierta altitud constante, o en su defecto, de aterrizar al modificar el ángulo de ataque de estos artefactos y variar las fuerzas que actúan en las alas.
Sin duda alguna, el uso de superficies de sustentación logró cambiar para siempre la forma en como los humanos nos transportamos, haciéndolo mucho más rápido y eficiente. Sin embargo, conforme ha pasado el tiempo, han ido surgiendo muchos tipos de estas superficies, incluyéndose en grandes bases de datos como la UIUC Airfoil Data Base donde es posible obtener las coordenadas en dos dimensiones de una gran cantidad de perfiles.
Es por esto por lo que en el presente proyecto se plantea estudiar una de estas superficies de sustentación, realizándole diversas pruebas en un túnel de viento, el cual será realizado con ayuda de las instrucciones del Dr. Diego Moisés, pudiendo de esta manera, identificar el comportamiento del fluido alrededor de uno de estos perfiles aerodinámicos y señalando cual sería su óptimo posicionamiento para evitar un gran coeficiente de arrastre debido a las estelas formadas detrás de este cuerpo.
Una vez realizadas las pruebas, serán mostrados los resultados y analizarán de acuerdo con el marco teórico presentado en el reporte del proyecto.
METODOLOGÍA
Para llevar a cabo este proyecto, fue necesario la elaboración de un perfil aerodinámico y de un túnel de viento, en donde fuera posible observar las líneas de corriente alrededor de la superficie de sustentación. Además, para hacer circular humo se utilizó un ventilador a la salida del túnel de viento, de manera que, al aspirar el aire, este se vio obligado a circular de manera que se produjo un flujo ininterrumpido.
Para poder visualizar de manera correcta el flujo alrededor del perfil, también fue necesario el uso de un puntero láser de color verde para iluminar el humo que circulaba dentro del túnel de viento. Y a su vez, el humo fue obtenido al encender un incienso o quemar un trozo de papel.
De manera general, el material necesario para llevar a cabo este proyecto se enlista a continuación:
Bloque de madera de al menos 30 cm de largo.
Lijas para madera.
Dos impresiones del perfil aerodinámico Hughes helicopters HH-02 rotorcraft airfoil .
Dos cajas de madera o cartón para la estructura externa del túnel de viento.
Cartulinas negras para forrar el interior del túnel de viento.
Un acetato para poder visualizar el interior del túnel.
Un puntero láser verde, el cual permite visualizar las líneas del flujo.
Un ventilador.
Varillas de incienso o papel para generar humo.
Base para sostener al perfil.
Transportador para variar el ángulo de ataque.
Una vez realizado el perfil y el túnel de viento, el primero será sometido a pruebas en donde se variará el ángulo de ataque, se harán comparativas del comportamiento del flujo y se determinará cual es la posición óptima para tener el menor coeficiente de arrastre debido a las estelas formadas detrás de un cuerpo.
CONCLUSIONES
A lo largo de la estancia de investigación del Programa Delfín 2021, se logró adquirir una amplia gama de conocimientos respecto a la mecánica de los fluidos, pues debido a la naturaleza de este proyecto, primero tuvimos que informarnos sobre algunos temas de importancia.
Además, fue posible poner en práctica y evidenciar algunos de los conceptos teóricos que estudiamos a lo largo de la estancia, pues al realizar las pruebas del perfil aerodinámico en el túnel de viento pudimos ver como afecta la posición que este tiene con el comportamiento del fluido y por consecuente, con las fuerzas que actúan sobre la superficie del perfil.
De esta manera, se pudo discernir la mejor posición del ángulo de ataque para el perfil escogido, así como evidenciar que la formación de estelas detrás del cuerpo no es considerable hasta que se llega a una posición de aproximadamente 15º, donde sucedería una pérdida en la sustentación y el helicóptero en cuestión reduciría su altitud de manera abrupta.
Sin duda alguna, la participación en este programa de investigación ha sido gratificante, pues no solamente se abordo el problema desde el punto de vista teórico, sino que también se pudo realizar de una manera práctica, permitiendo ver y analizar los fenómenos estudiados.
En conclusión, se puede decir que el perfil aerodinámico estudiado tiene un intervalo muy pequeño en donde la fuerza de arrastre es mínima, y una vez sobrepasando los 15º del ángulo de ataque, este cae en perdida, pues las estelas que se forman hacen que la fuerza de arrastre debida a presión incremente considerablemente. Sin embargo, sabemos que el rotor de los helicópteros tiene ciertos grados de libertad que le permiten direccionar hacia donde será aplicada la fuerza de sustentación resultante, sin necesidad de cambiar el ángulo de ataque, por lo tanto, podemos decir que este perfil no es recomendado para el uso en aeronaves de ala fija, en cambio, su uso óptimo se encontraría en aeronaves de ala rotatoria, por ejemplo, en el uso de drones o cualquier otro tipo de vehículos de esta índole.
Tostado Cholico María Fernanda, Universidad de Guadalajara
Asesor:Prfnal. Johan David Mardini Bovea, Universidad de la Costa
SISTEMA DE DETECCIóN DE INTRUSOS EN SISTEMAS COMPUTACIONALES
SISTEMA DE DETECCIóN DE INTRUSOS EN SISTEMAS COMPUTACIONALES
Tostado Cholico María Fernanda, Universidad de Guadalajara. Asesor: Prfnal. Johan David Mardini Bovea, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Hoy en día existen diversos riesgos dentro de las ciencias computacionales los cuáles vulneran e incluso atentan contra personas, organizaciones o datos.
Debido a esto, durante las últimas décadas ha incrementado el aumento de ataques de ciberseguridad y robo de datos, los cuales son un gran problemas para la sociedad en general, además de eso se cometen violaciones dentro de la ética y la integridad de las personas u organizaciones.
Para esto, es necesario remediar la situación desde un punto de vista objetivo, haciendo enfasís en las ciencias computacionales que son el medio por el cual se realizan. Se propone desarrollar un sistema para la detección de intrusos en las ciencias computacionales y esto busque erradicar dichos actos.
Dicho lo anterior,el objetivo general sería aumentar el nivel de seguridad dentro de un sistema computacional por medio de la automatización e implementando modelos de inteligencia artificial para optimizar y mantener vigilancia dentro de un sistema.
METODOLOGÍA
La metodología empleada dentro del desarollo se basa en los modelos evolutivos, siendo esta la apropiada para tratar este tipo de problemas que requiere de varias fases de especificación, desarrollo y validación, por esto, es vital tomar en cuenta los dos factores más importantes que son el tiempo y los costos, logrando así un proyecto con optimizaciones mediante plazos dentro de su proceso de desarrollo.
En este planteamiento se busco como primera instancia la obtención de datos de buena fuente para el proceso, indagando dentro de información sobre proyectos similares a dicho y creando una matriz de confusión y de esto obtener los datos estadísticos sobre la viabilidad de la solución.
Después se abrió paso al diseño y modelado de la solución, la cuál fue considerada a partir de las investigaciones anteriores, por lo que se planeaba la creación de un modelo de inteligencia artificial para poder monitorear dichos sistemas computacionales.
CONCLUSIONES
Para finalizar, se estima lograr con los objetivos de dicho proyecto al ponerse en práctica con un sistema de la realidad el cual pueda ser monitoreado y protegido de ataques e intromisiones, con el fin de evitar el robo de datos y la vulnerabilidad de los sistemas computacionales.
Totomoch Hernandez Liseth, Benemérita Universidad Autónoma de Puebla
Asesor:Mtro. Marco Antonio Mondragón Ornelas, Universidad Michoacana de San Nicolás de Hidalgo
BIOMATERIAL EMPLEADO EN LA CONSTRUCCIóN DE VIVIENDAS A BASE DE POLIETILENO DE BAJA DENSIDAD
BIOMATERIAL EMPLEADO EN LA CONSTRUCCIóN DE VIVIENDAS A BASE DE POLIETILENO DE BAJA DENSIDAD
Totomoch Hernandez Liseth, Benemérita Universidad Autónoma de Puebla. Asesor: Mtro. Marco Antonio Mondragón Ornelas, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Desde el comienzo de la era industrial, el hombre comenzó a cambiar su estilo de vida y su medio ambiente, necesitando grandes cantidades de recursos naturales que le permitieron alcanzar el desarrollo tecnológico e industrial que posee actualmente. Este desarrollo ha traído como consecuencia un crecimiento poblacional desmedido, generación de residuos y creación de emisiones en aire, agua y suelo asociadas al aumento de producción y consumo de recursos.
En México existen escasos estudios sobre vivienda y sistemas de construcción. La información que se tiene de las emisiones de carbóno, en el caso de la edificación se estima que entre el 40% y el 50% de las emisiones de CO2 emitidas a la atmósfera tienen su origen en la construcción y uso de los edificios, por lo cual es de gran importancia el uso de materiales sostenibles con la finalidad de cuidar el planeta. Actualmente también nos enfrentamos a la problemática del incremento de los plásticos y el mal uso de estos, si bien durante la pandemia por COVID - 19 el uso de plásticos incremento en un 3%, México produce cerca de 8 millones de toneladas de plásticos al año, de los cuales el 50% son de un solo uso y sólo un 6.7% se recicla.
El reciclaje es un mecanismo por el cual los materiales de desecho, entre ellos el plástico, vuelven a ser introducidos en un proceso de trasformación para devolverles su utilidad como nuevos materiales, los cuales pueden ser usados en el área de la construcción, el uso de algunos de los materiales dependerá de la existencia en el lugar y en muchos casos con la combinación de varios de ellos
El propósito del presente resumen es presentar una alternativa de biomaterial a partir de plásticos que podrían ser usados para la edificación de viviendas más sustentables.
METODOLOGÍA
En primera fase consistió en realizar la consulta de publicaciones especializadas o con base científica relacionada con estudios de materiales sostenibles en la construcción y el impacto de los platicos, así como la cantidad de desechos plásticos que se generan en México. Esta primera fase requirió de más tiempo y dio como resultado el análisis de un biomaterial a base de polietileno de baja [v1] densidad (bolsas de un solo uso) para su uso en la construcción como opción para paredes.
Se realizó un estudio de las recicladoras más cercanas para encuestar y comparar la cantidad de plásticos que son más tratados, también se realizó una visita a una fábrica de mangueras de polietileno ubicada en la comunidad de Yauhquemehcan, Tlaxcala. La cual nos brindó la información de su proceso ya que trabajan con materia prima las bolsas recicladas que pueden ser usadas para la elaboración de los bloques de interés.
Ante la oportunidad de poder realizar en la fábrica de mangueras algunas pruebas con las bolsas de plástico, se realizó una prueba usando 50 kg de bolsas de polietileno previamente limpiado y seleccionado, las bolsas se trituraron y compactaron con un molino de aspas y posteriormente se llevó a una máquina de extrusión con temperatura de 150°C el cual paso a un estado líquido en menos de un minuto, en ese estado líquido se pudo verter en pequeños moldes para dar la forma de bloques con dimensiones de 25cm de largo, 13 cm de ancho y 9 cm de alto.
Una vez enfriado el material observamos sus propiedades físicas que obtuvo después del proceso como el color gris oscuro, la textura es suave, se compacto correctamente lo cual no se rompe a la caída y tampoco se abre al perforarlo con un clavo.
Con la consulta bibliográfica sobre este material sabemos que el polietileno es químicamente inerte, es decir, no es casi reactivo, y tiene un aspecto blancuzco y translúcido, entre sus propiedades mecánicas es tenaz, resistente al impacto y flexible a temperatura ambiente, posee una superficie blanda y rayable, su punto de fusión son los 110 ºC y si se reduce por debajo de su temperatura ambiente, gana en dureza y fragilidad.
La obtención de estas piezas sirven de estudio para las propiedades mecánicas se emplearían los métodos de tensión, tracción y fatiga para un dar un análisis de si podrían ser aptas para el usos de materiales en la construcción.
CONCLUSIONES
Como resultado de la presente investigación se obtuvo la información necesaria sobre los biomateriales a base de plásticos para la construcción así como la prueba de una pieza de polietileno que podría ser empleada para estudio en un futuro y poner en práctica diferentes técnicas de caracterización de materiales. Sin embargo al ser un extenso trabajo aún se encuentra en pruebas, se esperan resultados favorables en un futuro en la continuación de esta investigación y que este material pueda ser empleado como opción más sostenible en la construcción de viviendas.
Trejo Vargas Maria Alheli, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango
DISEñO DE CANALES DE DISTRIBUCIóN Y COMERCIALIZACIóN DE PRODUCTOS DERIVADOS DE LA MIEL (MELIPONARIOS SIERRA NORTE DEL ESTADO PUEBLA)
DISEñO DE CANALES DE DISTRIBUCIóN Y COMERCIALIZACIóN DE PRODUCTOS DERIVADOS DE LA MIEL (MELIPONARIOS SIERRA NORTE DEL ESTADO PUEBLA)
Trejo Vargas Maria Alheli, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtra. Yasmin Soto Leyva, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
México es un país con una gran riqueza en diversidad alimenticia, la cual puede ser explotada en forma sustentable con actividades compatibles que favorezcan el enriquecimiento del ecosistema, como es la meliponicultura. Como cita Tonini, L (2012) la crianza de abejas es considerada una ciencia y un arte que estudia el manejo y cultivo de los moscos de miel, permitiendo de esta manera la obtención de miel y sus derivados en la fabricación de una serie de productos. La extracción de miel se realiza en los meliponarios los cuales son lugares donde se concentran todas las colmenas en las que habitan las abejas nativas, La meliponicultura en México genera alrededor de 100 mil empleos directos y se producen más de 57 toneladas de miel al año, siendo Yucatán el principal productor con un aproximado de más de 8,000 toneladas anuales, con respecto al Estado de Puebla conforme al sistema informático Agroalimentaria y Pesquera (SIAP) durante el año 2019, logró una producción de 2,476 toneladas, ubicándose así en el octavo lugar a nivel nacional., los principales municipios productores de miel son Cuetzalan del Progreso, Atlixco, Pantepec, Huauchinango y Pahuatlán. El siguiente estudio se realiza con la finalidad de generar los canales de distribución de los productos y subproductos de miel de abeja nativa, en los meliponarios establecidos en Huauchinango con la finalidad de aportar al ODS 8: Trabajo decente y crecimiento económico., para lograr el crecimiento económico sostenible de la región mediante la comercialización efectiva de los productos de miel y sus derivados que se producen en los meliponarios de Huauchinango Puebla. El objetivo general de la investigación aplicada es establecer los canales de distribución y comercialización, mediante la aplicación de estudios logísticos de los productos de mayor venta de miel producidos en el Municipio. Con respecto a los objetivos específicos se exponen los siguientes puntos: 1) Análisis teórico de la meliponicultura; 2) Estudio de mercado para determinar los productos de mayor consumo; 3) Análisis de medios de carga para distribución: 4) Determinar costeo de los canales de distribución y comercialización.
METODOLOGÍA
La metodología implementada en la presente investigación está conformada por las siguientes fases: En la fase 1 se aplicó un estudio de mercado a través del cual se determinó el nivel de aceptación de los productos y subproductos de la miel concluyendo textualmente con el siguiente resultado: “El 75.6 % de la población encuestada tiene conocimiento sobre los productos derivados de la miel evidenciando que el producto con mayor demanda es la miel 76%, esta se ingiere en épocas de invierno y primavera, los principales puntos de venta son los supermercados, los consumidores 59% conocen los productos a través de las redes sociales; el precio que el cliente se dispone a pagar por 1 kg, oscila en un intervalo económico de $140-$180, las compras del producto se presentan con periodicidad mensual, así también se muestra una clara afinidad del consumismo a nivel familiar”, para la fase 2 se realizó un análisis de medios de carga considerando dos modelos de transporte, el primer modelo es un camión ligero Freightliner 360 715, y el segundo modelo es una camioneta Nissan Np300 2.5 estacas DH, de acuerdo a las características individuales se procedió a seleccionar el medio de trasporte optimo, siendo la Nissan Np300 2.5 estacas DH con un rendimiento de 11.6 km/L y un costo de mantenimiento de $1249.00, en la fase 3 se establecieron los canales de distribución a través de la zonificación en distintas áreas: Huauchinango, Xicotepec de Juárez, Zacatlán, Villa Ávila Camacho, así también se estudiaron cuantitativamente los puntos de venta y las características derivadas de los productos y subproductos de la miel, finalizando con la fase 4, se calcularon los costos por canal de distribución aplicando un estudio logístico interrelacionando las variables de: Costo de desplazamiento, tiempo de recorrido, costo de mano de obra, costo de mantenimiento, mismas que al aplicar la metodología de costeo logístico arrojan el valor total de cada uno de los canales de distribución por cada zona, a los costos obtenidos fueron: Zona A ($140.33), Zona B ($351.98), Zona C ($1029.91), Zona D ($541.69).
CONCLUSIONES
La meliponicultura es considerada una actividad sustentable, que trae consigo la comercialización y distribución de miel, derivado de lo antes descrito surge la necesidad de crear canales de distribución para que los productos y subproductos sean consumidos en nuevos mercados y se fomente el crecimiento económico sostenido de la región (ODS 8), durante la estancia de verano se aplicaron diversos conocimientos teóricos-prácticos derivados de logística y cadenas de suministro para diseñar los canales de distribución, la metodología aplicada trajo consigo la identificación de los productos de mayor consumo para la implementación de estrategias de comercialización, así también se realizó un análisis cuantitativo de los medios de carga para la distribución tomando en cuenta la generación de ahorros en el consumo de combustible y en los tiempos de operatividad por parte de la mano de obra, para finalizar se conjuntaron las variables antes descritas en una tabla de costeo en la cual se evidencia los costos totales para cada uno de los canales de distribución previamente establecidos, la generación de la presente investigación origino las bases para distribuir y comercializar de una manera eficiente y económica los productos y subproductos derivados de la miel de los meliponarios del municipio de Huauchinango Puebla y el área de influencia.
Triana Patiño Erick Jhomar, Universidad Antonio Nariño
Asesor:Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas
APLICACIóN DE UN MODELO DE OPTIMIZACIóN-SIMULACIóN PARA MINIMIZAR EL TIEMPO DE OPERACIóN EN UNA PLATAFORMA DE CONSOLIDACIóN CON CROSS DOCKING TIPO INDIRECTO.
APLICACIóN DE UN MODELO DE OPTIMIZACIóN-SIMULACIóN PARA MINIMIZAR EL TIEMPO DE OPERACIóN EN UNA PLATAFORMA DE CONSOLIDACIóN CON CROSS DOCKING TIPO INDIRECTO.
Triana Patiño Erick Jhomar, Universidad Antonio Nariño. Asesor: Dr. Julio Mar Ortiz, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El Cross docking hoy en día representa una estrategia de logística que logra promover la rotación de inventarios mediante una distribución ágil y eficiente, reduciendo costos en almacenaje y transporte de productos, además de disminuir los plazos de entrega de estos productos a sus clientes finales. A pesar de ser una técnica moderna para la logística, el Cross docking aun tiene campo de mejora en la optimización de sus tiempos de operación, debido a que normalmente sus actividades comprenden largos periodos entre la llegada de los productos, su recepción, preparación y cargue al medio de transporte de salida. Dentro de las actividades del Cross docking se puede destacar la etapa de preparación de los pedidos, también llamada Picking, esta una de las más importantes debido a que se debe garantizar que los productos del pedido sean los correctos en cantidad y calidad, además que su preparación y embalaje sean adecuados para llegar en óptimas condiciones a su destino final. Debido a su importancia el picking es uno de los procesos que más exige tiempo y dedicación en el Cross docking, representando el 70% del tiempo total de la actividad en el centro logístico, además de representar entre el 45 y 75 % del coste total de las operaciones en el almacén; Teniendo en cuenta lo anterior es evidente que para aumentar la velocidad en el servicio logístico del centro de Cross docking es necesario, entre otras cosas, trabajar en la optimización de los tiempos de preparación de estos pedidos, e igualmente garantizar que los utensilios y maquinaria de operación sean las necesarias y cuenten con la calidad requerida para asegurar la eficiencia y productividad de las actividades logísticas.
En base a lo mencionado anteriormente para esta investigación tomaremos como referencia una empresa que funciona como operador logístico en donde brinda el servicio de Cross docking para resolver las necesidades logísticas y de aprovisionamiento que presentan en la cadena de suministros las empresas tipo Pymes enfocados en el sector retail conectando a los clientes con sus proveedores a través de una plataforma web para que estos realicen sus pedidos y estos pasen por el centro logístico de la empresa en busca de llegar a su destino final.
METODOLOGÍA
1.Definir los objetivos de la optimización
Plantear adecuadamente el PROBLEMA a resolver y seleccionar la variable de respuesta a evaluar, en este caso sería Minimizar el tiempo de operación en una plataforma de consolidación con Cross docking de tipo indirecto.
2.Seleccionar los factores que resultan significativos
las variables significativas son:
- Variable de respusta Y = Optimizar el tiempo de ciclo que dura el pedido en la plataforma hasta que sale a envío
- Variables de decisión:
X1= N° de trabajadores en picking y packing
X2= Equipos de transporte de pedidos
3.Establecer la Región de Operabilidad
Considerar las posibilidades instrumentales y la información sobre el sistema
4.Construir el Modelo de Simulación
Desarrollar el modelo de simulación que represente el problema.
5.Seleccionar un Entorno Experimental
Definir la región del espacio de los factores en donde vamos a desarrollar los experimentos de simulación
6.Elaborar un modelo matemático
Graficar la superficie de respuesta y evaluar resultados
Repetir los pasos 4, 5 y 6 si fuera necesario
7.Localizar el óptimo buscado para la respuesta
Utilizar herramientas graficas y/o matemáticas para predecirlo
8.Verificar experimentalmente
Confirmar el valor de al respuesta utilizando los niveles óptimos de los factores
CONCLUSIONES
El enfoque de optimización - simulación que integra a la metodología de superficies de respuesta (RSM) con la simulación de eventos discretos (DES) provee una herramienta poderosa para resolver diversos problemas en el campo de la ingeniería industrial, que requieren determinar las condiciones óptimas de operación bajo un entorno de incertidumbre.
La versatilidad de este enfoque permite ser aplicado a problemas simples y complejos.
Durante la estancia virtual de investigación del programa DELFIN XXVI Verano de la Investigación Científica y Tecnológica del Pacífico, se estudio la metodología de optimización - simulación, y se esbozo su aplicación al problema de minimizar el tiempo de operación en una plataforma de consolidación con Cross docking de tipo indirecto, lo cual nos brinda una perspectiva clara de la aplicación de este tipo de herramientas en beneficio de la ciencia y la sociedad, mediante la generación de conocimiento.
Trinidad Hernández Luis Antonio, Instituto Tecnológico de Tláhuac
Asesor:Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
SHOPCHAT: UN CHATBOT PARA LAS COMPRAS EN EL SUPERMERCADO
Cortés Duarte Mateo, Universidad Tecnológica De Bolívar. de Jesus Castro Edgar, Tecnológico de Estudios Superiores de San Felipe del Progreso. García Uriburu Castro Sebastián Alejandro, Instituto Politécnico Nacional. Trinidad Hernández Luis Antonio, Instituto Tecnológico de Tláhuac. Asesor: Dr. Ivan Vladimir Meza Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Mundialmente, e incluso personalmente, se conocen los problemas que el SARS-CoV-2 ha estado ocasionando desde comienzos del 2020. Uno de los problemas que puede resaltarse más es la falta de comunicación directa con otras personas, es decir, el tipo de contacto social que se experimentaba antes de la pandemia. Esto afectó totalmente la manera en la que se realizaban las actividades diarias, como los deberes o hábitos.
Se decidió poner énfasis en la falta de comunicación detallada que se puede presentar al momento de realizar las compras, o "ir al súper". El principal objetivo por el que se buscó desarrollar este proyecto fue el ayudar a las personas a tener una experiencia de compras más amena en el ámbito de dudas, o de asistencia al momento de hacer las compras.
METODOLOGÍA
Para proseguir, será necesario aclarar algunos conceptos esenciales que harán más fluida la lectura:
Archivo JSON (JavaScript Object Notation o Notación de Objetos de JavaScript): es un formato ligero de intercambio de datos que resulta sencillo de leer y escribir para los programadores y simple de interpretar y generar para las máquinas.
API: Es una serie de protocolos y definiciones utilizada para estructurar el software de aplicaciones. API significa Interfaz de Programación de Aplicaciones (Application Programming Interface).
Chatbot: es un sistema computacional cuyo objetivo es sostener una conversación con un usuario humano usando lenguaje natural, es decir el lenguaje que usamos diario a diario cuando hablamos con otras personas.
Python: Python es un lenguaje de programación flexible y diseñado para ser fácil de leer. Es un lenguaje orientado a objetos y de alto nivel.
Para comenzar el desarrollo del proyecto, fue necesario utilizar un chatbot rudimentario cuyo nombre es "ChatVoice". Este chatbot tenía las bases esenciales de un chatbot ya construidas, y, de igual manera, estaba programado para poder almacenar variables, como nombres, gustos, hechos, entre otras cosas más. La principal razón por la que se optó por utilizar un "esqueleto" ya producido fue el tiempo de duración de la estancia. Desarrollar un "esqueleto" propio habría relentizado el desarrollo del proyecto.
Para que ChatVoice pudiese actuar de la manera deseada - encontrar productos, comparar precios, indicar existencias, etc. - fue necesario realizar una API, o base de datos, que pudiese brindar al chatbot la información necesaria para operar en un supermercado, esto es, la lista de productos, su ubicación en la tienda, su existencia, entre otros detalles.
Por otro lado, no resultaría suficiente tener una base de datos con la cual el chatbot tuviese conocimiento, sino que se necesitaría un archivo que le pudiese brindar información sobre las costumbres y hábitos de escritura en los diversos países hispanohablantes. Es por ello que se escribió un archivo JSON que contuviera esos modismos entre países de habla hispana, por ejemplo, las diferencias de saludos y despedidas, las diversas maneras de preguntar sobre productos, entre otros modismos.
Código
La base de datos y el archivo de intercambio de datos (JSON) , al ser dos cosas independientes, se aunaron por medio de un código desarrollado en Python, el cual utilizó librerías diseñadas para el procesamiento del lenguaje natural (NLP por sus siglas en Inglés).
Específicamente, las librerías utilizadas fueron:
spaCy: es una biblioteca de procesamiento de lenguaje natural Python diseñada específicamente con el objetivo de ser una biblioteca útil para implementar sistemas listos para producción.
Esta librería se empleó para que el chatbot pudiese identificar el sustantivo en una oración y compararlo con los productos preestablecidos en la base de datos para poder a continuación brindar una respuesta al usuario.
NLTK: esta librería se empleó para segmentar o tokenizar las palabras que el usuario introdujera.
Ejemplo:
//Se tiene un texto como este: Hello, nice to meet you. Greetings. from nltk.tokenize import sent_tokenize mytext="Hello, nice to meet you. Greetings." print(sent_tokenize(mytext)) //La salida será la siguiente: ['Hello, nice to meet you.','Greetings.']
Se presentaron problemas de compatibilidad con el idioma español en la nueva versión de la librería spaCy. En su lugar, se trabajó con la versión anterior a la más reciente - versión 3.0 - .
CONCLUSIONES
A lo largo de la estancia, se adquirió nuevo conocimiento teórico y práctico sobre la creación de chatbots. No obstante, hay mucho conocimiento por abordar, por ejemplo, la implementación de redes neuronales (aprendizaje automático o Machine Learning), o la implementación del procesamiento del lenguaje natural, ambas desarrolladas por los estudiantes y no hechas previamente debido al tiempo que esas áreas de estudio requieren para ser implementadas de manera eficaz.
El chatbot asistente de compras logró mostrar un funcionamiento acorde a lo que se estaba esperando. El asistente puede resolver dudas y preguntas relacionadas a precios y localizaciones.
Este proyecto puede extenderse a más áreas, como a la asistencia en negocios de otra índole, como tiendas de ropa, o tiendas de videojuegos, ya que, lo único que se necesita es dotar al asistente con los detalles sobre cada artículo.
Bibliografía:
Barrera, A. (S/F). JSON: ¿Qué es y para qué sirve?. julio 21, 2021, de next_u. Sitio web: https://www.nextu.com/blog/que-es-json/
Datademia. (S/F). ¿Qué es Python?. julio 24, 2021, de Datademia Sitio web: https://datademia.es/blog/que-es-python
Mayo, M. (2018). Comenzando con spaCy para procesamiento de lenguaje natural. julio 25, 2021, de Ciencia y Datos Sitio web: https://medium.com/datos-y-ciencia/comenzando-con-spacy-para-procesamiento-de-lenguaje-natural-e8cf24a18a5a
Meza, V.(2017). ¿Qué es un chatbot?. julio 20, 2021, de Ivan Vladimir Meza Ruiz. Sitio web: https://turing.iimas.unam.mx/~ivanvladimir/page/curso_chatbots_s1/
Trujillo Moreno Ubeimar, Dirección Nacional de Escuelas de la Policía Nacional
Asesor:Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo
IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE Y DE LICENCIA EN ENTORNOS IOT.
IMPLEMENTACIóN DE FIREWALLS DE SOFTWARE LIBRE Y DE LICENCIA EN ENTORNOS IOT.
Posada García Jesús David, Universidad Mexiquense del Bicentenario. Trujillo Moreno Ubeimar, Dirección Nacional de Escuelas de la Policía Nacional. Asesor: Mtro. Antonio Soto Luis, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Es un hecho que la humanidad a evoluciona con gran rapidez en la actualidad la tecnología es fundamental para el estilo de vida con la llegada de la industria 4.0 tecnologías que parecen de ciencia ficción son posibles de realizar como el internet de las cosas (IoT).
El Internet de las cosas, IoT por sus siglas en inglés (Internet of Things) es una tecnología que ha adquirido mucha presencia y una muy buena aceptación debido a su gran cantidad de usos en entornos del hogar, oficinas, la industria como también en las ciudades. Sin duda un concepto bastante versátil con mucho potencial una de sus principales características es la automatización que puede crear un ambiente futurista como también de ficción otorgando la sensación que puedes ser un millonario, playboy que lucha contra el mal. La idea en esencia es muy buena con un gran propósito pero aquí es donde se presenta un problema de grandes magnitudes debido a la enorme aceptación y adopción de la tecnología se ha olvidado la implementación de elementos importantes como la seguridad.
En esencia la seguridad de IoT no es muy diferente a la de una red típica de computadoras. En la práctica se presentan una gran cantidad de problemas como la limitación computacional de los dispositivos IoT esto impide el uso de software o sistemas robustos de seguridad. Otro factor es la cantidad de dispositivo que están en la red IoT y el número de interacciones que complican el problema. No obstante existen herramientas y métodos que pueden solucionar este tipo de escenarios. En este trabajo se propone la implementación de firewalls de software libre o de licencia como medida de seguridad entre la red IoT y el internet.
METODOLOGÍA
Diseño de prototipos con ayuda de Metodología de PPDIOO
Se diseñó un entorno de red cliente- servidor y para verificar el tráfico de red se apoyó de la metodología PPDIOO, es cual sus faces indican lo siguiente:
PREPARACIÓN
Esta fase crea un caso de negocio para establecer una justificación financiera para la estrategia de red. La identificación de la tecnología que soportará la arquitectura.
PLANEACIÓN
Esta segunda fase identifica los requerimientos de red realizando una caracterización y evaluación de la red, realizando un análisis de las deficiencias contra las mejores prácticas de arquitectura. Se elabora un plan de proyecto desarrollado para administrar las tareas, asignar responsables, verificación de actividades y recursos para hacer el diseño y la implementación. Este plan de proyecto es seguido durante todas las fases del ciclo.
DISEÑO
Desarrollar un diseño detallado que comprenda requerimientos técnicos y de negocios, obtenidos desde las fases anteriores. Esta fase incluye diagramas de red y lista de equipos. El plan de proyecto es actualizado con información más granular para la implementación.
IMPLEMENTACIÓN
Acelerar el retorno sobre la inversión al aprovechar el trabajo realizado en los últimos tres fases a medida que se van integrando nuevos dispositivos sin interrumpir la red existente o crear puntos de vulnerabilidad. Cada paso en la implementación debe incluir una descripción, guía de implementación, detallando tiempo estimado para implementar, pasos para regresar a un escenario anterior en caso de falla e información de referencia adicional.
OPERACIÓN
Esta fase mantiene el estado de la red día a día. Esto incluye administración y monitoreo de los componentes de la red, mantenimiento de ruteo, administración de actualizaciones, administración del desempeño, e identificación y corrección de errores de red. Esta fase es la prueba final de diseño.
OPTIMIZACIÓN
Esta fase envuelve una administración pro-activa, identificando y resolviendo cuestiones antes que afecten a la red. Esta fase puede crear una modificación al diseño si demasiados problemas aparecen, para mejorar cuestiones de desempeño o resolver cuestiones de aplicaciones.
CONCLUSIONES
Con esto podemos mencionar que la seguridad del internet de las cosas IoT es algo que se debe tener presente es por eso que se deben tener en cuenta las capacidades de los dispositivos al implementar firewalls de software libre y de licencia en una red IoT y el internet se protege el tráfico de datos o instrucciones creando una buena propuesta de seguridad. Pero recordemos los firewalls no tiene la seguridad al 100%. Pero en general la propuesta del proyecto es innovadora y muy útil.
Trujillo Rodríguez Rodríguez Metzli Ahilí, Instituto Politécnico Nacional
Asesor:Mtro. Alvaro Marcos Santiago Miguel, Universidad Politécnica de Texcoco
PLANTEAMIENTO DE ANáLISIS BIOMECáNICO DE MIEMBRO INFERIOR PARA PRóTESIS DE PIE.
PLANTEAMIENTO DE ANáLISIS BIOMECáNICO DE MIEMBRO INFERIOR PARA PRóTESIS DE PIE.
Trujillo Rodríguez Rodríguez Metzli Ahilí, Instituto Politécnico Nacional. Asesor: Mtro. Alvaro Marcos Santiago Miguel, Universidad Politécnica de Texcoco
PLANTEAMIENTO DEL PROBLEMA
Las personas con amputación transtibial en México representan un área de oportunidad en investigación y desarrollo de soluciones relacionadas con la independencia y movilidad, es decir el poder caminar con libertad y facilidad. Para las personas que padecen amputaciones, esta actividad esencial se vuelve complicada, trayendo consigo consecuencias físicas y psicológicas.
La Encuesta Nacional de Salud y Nutrición (ENSANUT) del 2012, registra que son más de 5 millones de personas las que tienen incapacidad para desplazarse, aunque no distingue los que padecen de una amputación. El Instituto Nacional de Estadística y Geografía (INEGI) reporta un número de amputados cerca de 780,000. En el 2014 se registran cerca de 900,000 amputados en México, aproximadamente 75 personas diarias según la Academia Mexicana de Cirugía (AMC) [1].
Existen diversas causas de amputación, las enfermedades vasculares pertenecen al primer grupo de causas y la principal patología es la diabetes mellitus tipo 2 (DM2) la cual contribuye al 81% de los casos, y de estos el 97% son de extremidad inferior. El 90% de los pacientes amputados por DM2 empieza con una ampolla en el pie, y la falta de tratamiento y atención adecuada provoca la pérdida del miembro por el desconocimiento del padecimiento. Las amputaciones traumáticas representan solamente el 16%. Y el tercer grupo de causas de amputación es por tumores malignos o causas congénitas y representa el 3% de los casos [1].
Se calcula que el costo directo de una amputación asociada al pie diabético está entre los 30,000 y los 60,000 USD [2]. Solo 1 de cada 10 personas con miembros amputados se rehabilita y solo el 30% de ellos saben usar prótesis [1]. Las estadísticas muestran que de 75,000 amputados solo se rehabilitan 7,500 (10%) y de ellos 5,250 no saben usar prótesis.
En el mercado existen diferentes prótesis que van desde funciones mecánicas y de soporte para los pacientes con amputación, ya sean estéticas, robóticas o hasta las más sofisticadas como las mioeléctricas y las que actualmente permiten percibir el sentido del tacto en el miembro fantasma. Unas de las más conocidas son la C-Leg, 3R80 y otros modelos desarrollados por la compañía Alemana Otto bock, Hybrid Knee por la compañía Fillauer Europe, Rheo Knee por Össur Iberia y Adaptive 2 por O&P Edge, estas prótesis son una articulación de rodilla para amputados transfemorales controlada por microprocesador, que permite caminar por diferentes superficies sin importar la irregularidad del terreno, caminar hacia atrás, subir y bajar escaleras o rampas [3]. Las prótesis de pies, que son rígidos o dinámicos, tienen un tobillo por lo que se adapta a las condiciones del terreno. [1] Por tal motivo uno de los principales retos al diseñar prótesis de pie es reproducir adecuadamente las características mecánicas y físicas del pie humano, por lo que estudiar la biomecánica del miembro inferior es fundamental.
METODOLOGÍA
Se estudió los fundamentos básicos de la biomecánica del miembro inferior considerando el pie y el tobillo en conjunto para los análisis. Se considero el miembro inferior como un sistema a analizar físicamente, y se partió de la estática como la postura. Dentro de la dinámica, a cinética se estableció como el efecto de las fuerzas con el movimiento de los cuerpos, mientras que la cinemática se consideró como las características de movimiento sin considerar los efectos de las fuerzas de masa en el sistema, es decir considerando los comportamientos del ciclo de marcha humana, tanto la fase de apoyo (60% del ciclo) como la fase de balanceo (40% del ciclo) y los rangos permitidos de movimiento.
Una consideración importante que se debe tener en cuenta las condiciones anatómicas del pie, haciendo énfasis en que es muy difícil establecer condiciones normales, en un pie humano, ya que cada individuo puede presentar características particulares, como arco pronunciado (cavuss) o algunas deformaciones como hallux valgus.
Al caracterizar el miembro inferior se considera que el pie un apoyo en tres puntos (trípode) durante el descanso, y el peso soportado se distribuye en ambas piernas. Sin dejar de lado que la bóveda plantar tiene un papel fundamental en la absorción de fuerzas o impactos, brindando estabilidad.
Aunado a esto, es necesario conocer la importancia que tienen los tendones, ligamentos y el sistema óseo y poder traducir su funcionamiento en comportamientos mecánicos.
Uno de los modelos vistos fue el modelo del mecanismo de Windlass el cual está asociado con la relación que existe entre las articulaciones y los eslabones, y su comportamiento de acuerdo con el movimiento en el ciclo de marcha reproduciendo movimientos de dorsiflexión y plantarflexión.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la biomecánica de miembro inferior y poder conocer modelos que representen el comportamiento del pie y tobillo, así como reconocer la importancia de las características y componentes anatómicos, los rangos de movimientos rígidos y elásticos y los comportamientos durante las diferentes etapas del ciclo de marcha. El desarrollo de las prótesis de miembro inferior representa un área de oportunidad en Mexico, por lo que continuar conociendo y desarrollando este tema es fundamental.
Trujillo Romo Diana Isela, Universidad de Guadalajara
Asesor:Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
DESARROLLO DE SISTEMAS ELECTRóNICOS Y CONTROL.
DESARROLLO DE SISTEMAS ELECTRóNICOS Y CONTROL.
Trujillo Romo Diana Isela, Universidad de Guadalajara. Asesor: Dr. Oscar Ceballos Sanchez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En esta línea de investigación, el objetivo era crear un sistema de control mecánico de Dip Coating.
Esto es una técnica de recubrimiento por inmersión, la cual es una forma usual de crear películas delgadas en actividades de investigación. En este caso particular para estudiar el comportamiento molecular de ciertas sustancias. Las capas delgadas son aplicadas sobre un sustrato plano o cilíndrico.
Para hacer más eficaz y preciso este proceso se ha buscado crear un sistema que nos permita manejar, estipular y automatizar ciertos procesos donde se puede variar la relación entre velocidad de retirada del sustrato para la formación de películas delgadas de diferente espesor.
Para esto, fue necesario analizar el proceso requerido para este método, de tal manera que nos de una visión específica de cada parte del sistema que se busca crear. Esto mediante planeaciones, prototipos y trabajo en conjunto.
En mi caso particular, se buscó la manera de implementar mediante un motor a pasos y otros elementos mecánicos, un sistema capaz de crear un movimiento en bloque que tuviera ciertos parámetros de entradas y salidas capaces de darle un rango de movimiento específico para el sistema y la inmersión en el sustrato, así como la comunicación e implementación de esta parte del mecanismo en funcionalidad con todo el sistema.
Como se mencionó anteriormente, el recubrimiento por inmersión es una forma usual de crear películas delgadas aplicadas a sustratos, principalmente en actividades industriales y de investigación, en donde se requieren tratamientos especiales para substratos con recubrimientos de precisión. La creación de las películas delgadas se realiza en máquinas que necesitan la operación de un técnico, por lo que no son muy precisas.
Esta máquina busca que la ejecución en la elaboración de películas por dip coating utilizando de 4 a 6 sustratos a la vez, y los sustratos pueden ser de diferentes formas. La automatización consiste en que se tiene un sistema electrónico que opera la máquina con poca intervención del usuario
METODOLOGÍA
Tuve la oportunidad de desarrollar e implementar mediante un motor a pasos, un tornillo sin fin, un sistema de programación, trabajar en esta parte del prototipo donde a modo de bloque que contenga una entrada de habilitación (enable) para activarlo o para detenerlo en caso de un paro de emergencia, una entrada para definir si sube o si baja, un sensor de alarma alto, un sensor de alarma bajo, un sensor de límite alto, un sensor de límite bajo, el control de un motor a pasos con control de velocidad, una entrada donde se indica la velocidad del motor a pasos, un sensor para indicar la profundidad de inmersión del sustrato, entradas para un control manual de la dirección, botones de arranque y paro manual del motor a pasos, botones para ajustar manualmente la velocidad del motor, así mismo establecer las salidas a comunicar al sistema de control del prototipo, tales como estado de los sensores, posición del sustrato. Otro aspecto importante fue también establecer la funcionalidad como el contar con una posición de referencia o Home, establecer los perfiles de velocidad (rampa de inicio, velocidad máxima y rampa de descenso). Control manual (con orden y sin orden) y control automático, funciones de diagnóstico y funciones de seguridad. Todo esto con la finalidad de acoplar al sistema central.
Para lograr esto, comencé leyendo la guía Gemma, la cual me sirvió para entender de mejor manera como funciona la relación entre entradas y salidas de un sistema, como se puede implementar para que el dispositivo funcione de manera automática y de manera manual. El siguiente paso fue implementar los diagramas y la planeación y llevarlo a los prototipos, donde mediante un motor a pasos, y una programación relativamente sencilla se logró hacer el recorrido que nos interesa para que el tornillo sin fin cumpla con su trayectoria.
La parte donde delimitamos la trayectoria e implementamos los parámetros de control y seguridad, los realiza mediante sensores sencillos, como sensores ópticos, y buzzers que envíen señales de alarma.
La parte de programación, y de crear de cierta manera el interfaz los trabaje con Arduino y con Matlab en lenguaje C++.
CONCLUSIONES
Como consecuencia de lo expuesto anteriormente, puedo concluir mencionando que considero que este programa de investigación .es una herramienta maravillosa para nosotros los estudiantes, puesto que se nos ofrecen muchas opciones para poder trabajar nuestras habilidades y carencias académicas, esto debido a que se nos presentan retos donde podemos poner en práctica lo aprendido, mientras que seguimos acompañados por los investigadores que nos comparten su enseñanza y conocimientos.
De los avances que tuve durante esta estancia, puedo decir que a pesar de ser una modalidad virtual se aprendió bastante, considero que que una estancia presencial puede mejorar y aumentar la experiencia.
Con mis avances y resultados obtenidos, considero que fueron en cuestión de elaboración relativamente sencillos puesto que se trabajó con los materiales que tenía en casa y siempre estuve acompañada de mi investigador, de igual manera me gustaría participar el siguiente año para continuar con el aprendizaje.
Tuiran Coneo Santiago Andres, Fundación Universitaria Tecnológico Comfenalco
Asesor:Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
SEGURIDAD Y LOCALIZACION DE LOS USUARIOS PERDIDOS EN ANDROID
SEGURIDAD Y LOCALIZACION DE LOS USUARIOS PERDIDOS EN ANDROID
Tuiran Coneo Santiago Andres, Fundación Universitaria Tecnológico Comfenalco. Asesor: Mtra. Ivan Martin Perez Farfan, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad en Latinoamérica la inseguridad ha venido creciendo de manera exponencial en los últimos años, según los estudios realizados en los últimos años las personas se sienten muy inseguras en las calles con miedo de ser víctimas de hurto, violaciones, y demás delitos que se pueden presentar. Es tanto el temor de salir que algunos prefieren quedarse en sus hogares por el peligro latente que se vive en las calles.
La desaparición de personas es uno de los delitos de moda en toda Latinoamérica y el mundo, los criminales se aprovechan de la escasez de herramientas tecnológicas existentes en el mundo que ayuden a dar con el paradero de estas personas. Actualmente no existe un método o herramienta eficaz que nos permita dar con el paradero de personas desaparecidas.
Todos en algún momento de nuestras vidas hemos estado expuestos a peligros en las calles o en nuestro medio de transporte, donde sentimos que nuestras vidas corren peligro inminente y muchas veces no nos da tiempo de sacar nuestros teléfonos celulares y llamar a algún conocido y mandarle nuestra ubicación y decirles lo que esta sucediendo, por que esto ocurre en cuestión de segundos, en los cuales está en riesgo nuestras vidas.
Según Medellin (2020), Latinoamérica registra el 33% de los casos de criminalidad en el mundo, aun cuando concreta solo el 8% de la población de todo el planeta. La permanente y creciente del crimen organizado genera cada día más víctimas a nivel mundial.
La inseguridad es uno de los factores que genera una sensación de vulnerabilidad e inestabilidad que amenaza la propia autoimagen o el yo Castel, (2015).
De acuerdo a los objetivos planteados en esta investigación y a todos los factores de inseguridad que estamos viviendo hoy en día, el principal objetivo es Desarrollar una aplicación móvil en Android que implemente herramientas de seguridad y geolocalización para la localización de personas perdidas. Esta aplicación móvil desarrollada para dispositivos Android contará con un sistema de geolocalización en tiempo real, la cual le estará enviando la ubicación a otra persona de confianza. El usuario podrá generar un mensaje de alerta en caso tal que se encuentre en peligro y este mensaje le llegará a la otra persona donde se podrá visualizar su localización actual.
Android es software libre, lo que permite que los fabricantes puedan usarlo sin necesidad de pagar royalties. Por otra parte, al correr sobre Linux, es fácilmente portable y adaptable a casi cualquier hardware. Android no es el primer sistema móvil basado en Linux y que es software libre Android, O. S. (2011).
La geolocalización es una tecnología que utiliza datos obtenidos de la computadora o dispositivo móvil de un individuo para identificar o describir su ubicación física real. Determina la ubicación física de un objeto o una persona con relación a un sistema de coordenadas (mapa) para, posteriormente, acceder a información específica Yánez, D. V., Díaz, O., & Marcillo, D. (2014).
METODOLOGÍA
En este capítulo se hace referencia a los antecedentes y artículos científicos que han sido estudiados, que tienen como finalidad ser una base teórica para Seguridad y localización en tiempo real de los usuarios perdidos en Android. En los siguientes párrafos se da a conocer el resumen de los artículos científicos que han sido de gran importancia para el desarrollo de esta investigación.
La recopilación de información que se desarrolló, fue realizada consultando diferentes bases de datos, artículos científicos, bibliotecas virtuales y portales institucionales. Los autores han puesto en manifiesto sus tipos de estudio y diseños de investigación, hipótesis y análisis estadístico que dan como resultado la necesidad y respaldan la necesidad de implementar una aplicación que implemente seguridad y localización para los usuarios perdidos en su dispositivo Android.
Actualmente muchos de los países en el mundo sufren altos índices de criminalidad y violencia el 33% de los crímenes son realizados en Latinoamérica (Medellín, 2020). las investigaciones realizadas en este artículo dan un enfoque y se plantea de manera clara la problemática, para tener un buen entendimiento se realizó un análisis y se recopiló información de diferentes fuentes. También se investigaron conceptos como lo son: Android studio, Java, Geolocalización, seguridad y base de datos.
CONCLUSIONES
Durante el desarrollo de esta investigación se logró identificar los diferentes problemas que hacen esta investigación pueda llevare a cabo y obtener los resultados esperados, uno de los problemas identificados y de mayor impacto son la inseguridad, delincuencia, maltrato, feminicidio etc. Esto se presenta en todos los países de Latinoamérica y no existe una herramienta eficaz que pueda combatir con todos estos problemas, para poder disminuir esta problemática lo mejor es desarrollar una herramienta que cuente con diferentes mecanismos que ayuden a la localización de las personas desaparecidas, la herramienta desarrollada en Android studio que cuenta con geolocalización para así poder localizar a las personas es una herramienta muy útil. Se espera a futuro que cuente con herramienta de localización en tiempo real y que la aplicación reporte cuando las personas estén en lugares peligrosos o fuera de rango de los lugares que habita frecuentemente. por lo tanto, se pueden identificar los diferentes beneficios que traería consigo la implementación de esta herramienta.
La implementación de la aplicación móvil en Android con geolocalización facilitaría la localización de las personas que se encuentran desaparecidas.
Se estaría brindando una herramienta no solo para localizar a personas desaparecidas sino también para que los padres tengan un control de sus hijos y saber su localización.
El sistema operativo más utilizado en el mundo es Android, por tanto, muchas de las personas podrían implementar esta herramienta ya que sería compatible con sus dispositivos móviles.
Turrubiate Pérez Claudia Verónica, Instituto Tecnológico de Piedras Negras
Asesor:Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
DISEñO DE UN PROTOTIPO DE UNA MáQUINA DOSIFICADORA DE TESTALES PARA LA ESTANDARIZACIóN DEL PROCESO DE TORTILLAS DE HARINA DE TRIGO TRADICIONALES
García Quiroz Carolina, Instituto Tecnológico de Piedras Negras. Romo Ruiz Jade Itzel, Instituto Tecnológico de Piedras Negras. Turrubiate Pérez Claudia Verónica, Instituto Tecnológico de Piedras Negras. Asesor: Mtro. Apolinar Jair Delgado Ramos, Instituto Tecnológico Superior de Pánuco
PLANTEAMIENTO DEL PROBLEMA
En la ciudad de Piedras Negras, Coahuila han surgido a lo largo del tiempo varios negocios dedicados a las tortillas de harina de trigo tradicionales. A través de una consulta en la página web del INEGI (2021), se recabo que existe un total de 79 tortillerías de harina de trigo tradicional en la ciudad de Piedras Negras, de las cuales el 74% han surgido a partir del año 2019, de esta manera se ve el incremento a través de los años de las tortillerías de harina de trigo en la ciudad. Por ser pequeñas empresas que surgen sin contar con suficiente inversión, son tortillerías que muchas veces no logran adquirir máquinas que les permitan aumentar su producción y disminuir el desgaste físico.
Se tomó como referencia a la Tortillería Frontera para el estudio de esta investigación donde se observó que al momento de elaborar los testales (porción de masa de harina de trigo), no se cuenta con una dosificación estandarizada, cada empleada suele medir el testal conforme a su mano ocasionando que no resulte de una medida exacta, causando pérdidas de la materia prima (masa), equivalente a 41 testales, ya que elaborarán menos tortillas de las establecidas.
Aunque ya existe maquinaria especializada para el corte y dosificación de testales en el mercado, suelen ser de elevados costos o inalcanzables para las micro y pequeñas empresas en la localidad, es por ello que se pretende diseñar un prototipo de manufactura para la elaboración y estandarización de testales tomando como referencia a la tortillería Frontera en base a sus requerimientos y especificaciones, conjunto a las opiniones de otras tortillerías, que marcaran el rumbo del diseño del prototipo.
METODOLOGÍA
La metodología está basada y guiada de la Tesis de Delgado (2015), donde determina el proceso de su investigación en tres etapas.
Se generó una lluvia de ideas sobre diferentes bienes de consumo regional para de estos bienes presentados elegir uno, el cual será el producto a investigar, una vez que se seleccionó el bien a indagar se empezó a analizar el proceso de elaboración de las tortillas de harina de trigo para obtener la problemática. Una vez encontrada la problemática, se siguió con la lluvia de ideas para encontrar una solución a la interrogante presentada, así como también donde encontrar información que sea de utilidad para la investigación como las diversas máquinas que ya existen, comparando sus características, componentes y precios en el mercado.
Posteriormente se realizó una encuesta a las tortillerías de harina de trigo de Piedras Negras para recabar información que será de utilidad para la obtención de las características necesarias para el diseño del prototipo de la dosificadora de testales, de acuerdo a lo que el productor realmente necesita, así como también se mantuvo una estrecha comunicación con una de las tortillerías de harina de trigo, Tortillería Frontera, para la obtención de la información requerida para el proyecto.
Se hizo uso de un Diagrama Bimanual del proceso actual para analizar los movimientos que se realizan en la elaboración de testales, siendo esta parte del proceso donde se encontró la problemática, mostrando así la realización de movimientos repetitivos. Como menciona García (2005), el diagrama bimanual nos permite llegar a conocer a fondo los por menores de trabajo y gracias a él se puede estudiar cada elemento con los demás.
Se realizó un QFD (Quality Function Deployment) para obtener los atributos que el diseño debe tener para satisfacer las necesidades del cliente, como menciona Villas (2020), el QFD es una herramienta que se utiliza principalmente en la gestión del desarrollo de productos. Teniendo las características solicitadas por el cliente se procedió a compartir ideas para bosquejar el diseño, después se continuó con la obtención de la cantidad y peso de la masa a dosificar para obtener las medidas para el prototipo. Ya una vez obtenidos todos los datos necesarios se procedió a la realización del diseño del prototipo en el software SketchUp en su versión portable el cual brinda la facilidad de uso y, además, cuenta con licencias gratuitas de prueba que permiten realizar grandes proyectos con mucha rapidez. (García, Deco, Bender, & Collazos, 2017).
CONCLUSIONES
En el trabajo realizado se logró implementar y diseñar un nuevo prototipo de una máquina dosificadora de testales, la cual estandariza el proceso, logrando la optimización de tiempos y movimientos, problemática que fue observada a través del análisis del diagrama bimanual.
Con la implementación de la nueva máquina dosificadora de testales, realizada de acuerdo a las especificaciones del cliente y distintas opiniones de las tortillerías de Piedras Negras conocidas por medio de una encuesta, se logró diseñar el prototipo ideal con un tamaño que ayuda a optimizar los espacios en pequeños locales siendo sus medidas de 65 cm de largo, 50 cm ancho y 40 cm de alto.
Logrando así de tal manera afirmar nuestra hipótesis: La máquina dosificadora de testales para las tortillas de harina de trigo tradicionales, tendrá un diseño enfocado en las opiniones de las distintas tortillerías de la localidad, así como a los requerimientos del cliente, logrará estandarizar el proceso de la elaboración de los testales disminuyendo los movimientos y esfuerzos en su elaboración, reduciendo los desperdicios y optimizando el tiempo.
Tal máquina dosificadora de testales queda aún expuesta para próximas mejoras en cuanto a su funcionamiento, pues es una máquina manual pero en un futuro podría adaptarse a un mecanismo automatizado.
Este trabajo de investigación nos benefició de tal manera que se adquirieron conocimientos acerca de herramientas de la ingeniería industrial, como son el Diagrama Bimanual y el QFD, así como también se aprendió a utilizar el Software SketchUp, además de conocer a fondo el proceso de la elaboración de las tortillas de harina de trigo tradicionales de tal forma contribuyendo con las micro y pequeñas empresas al compartir nuestros conocimientos para su desarrollo.
Valdés Manuel Jose Ignacio, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano
MONITOREO DE PROCESOS SOBREDISPERSOS EN LABORATORIOS CLÍNICOS USANDO CARTAS DE CONTROL
MONITOREO DE PROCESOS SOBREDISPERSOS EN LABORATORIOS CLÍNICOS USANDO CARTAS DE CONTROL
Valdés Manuel Jose Ignacio, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Mg. Juan Miguel Cogollo Flórez, Instituto Tecnológico Metropolitano
PLANTEAMIENTO DEL PROBLEMA
La sobredispersión es un fenómeno que se muestra normalmente en el análisis de muestras de gran tamaño, y se define como la presencia de variación extra, mayor a la que supone una distribución Binomial o Poisson. Las cartas de control clásicas presentan deficiencias al tratar con datos en estado de sobredispersión, debido a los supuestos sobre la distribución de los datos (Binomial o Poisson), y la afirmación del parámetro media constante a través del tiempo.
La solución tradicional que se le dio a dicha problemática muestra limitantes, al no tomar en cuenta la variación intra muestral de los datos en estudio. Para ello, Laney (2002) y más recientemente Woodall (2021), proponen nuevos métodos para el monitoreo de los datos que muestran sobredispersión.
El presente articulo muestra una comparativa del uso de las cartas de control clásicas y especial al tratar con procesos sobredispersos de muestreo en laboratorios clínicos.
METODOLOGÍA
En primer lugar, es necesaria la determinación de las variables de interés, las cuales representan el número de muestras no conformes semanales, de 50 semanas en un laboratorio clínico. En seguida, se elabora un análisis inicial, el cual consiste en la obtención de las medidas de dispersión y de tendencia central principales.
Posteriormente, se elabora un diagnóstico del grado de dispersión de las variables, las cuales se realizan con ayuda del método propuesto por Jones (2001) y Heimann (1996). Ambos establecen criterios, según el grado de variación presente en el proceso en estudio.
Una vez realizado el diagnóstico del grado de dispersión, se seleccionan las cartas de control con respecto a los resultados del estudio realizado, y se prosigue con la elaboración de cada una de ellas. Debido al objetivo comparativo que el proyecto posee, se elabora cada una de las cartas clásicas y especiales, para de este modo, culminar con la verificación de las cartas seleccionadas y determinar las conclusiones a las que se llegaron mediante un análisis de los resultados.
CONCLUSIONES
El trabajo de investigación presente, tuvo como principal objetivo, el análisis comparativo de las ventajas y limitantes que las cartas de control clásicas y especiales poseen, al tratar datos que manifiestan sobredispersión en laboratorios clínicos. Por lo que, tras haber realizado un análisis de las principales propuestas para dar solución a esta problemática, podemos concluir que, fue evidente la deficiencia que las cartas de control tradicionales mostraron, al tratar con datos que poseen sobredispersión.
Las causas principales que ocasionaron la deficiencia en el monitoreo de procesos sobredispersos con las cartas tradicionales, fueron los supuestos sobre los cuales se elaboran. Los cuales afirman que, el número de unidades no conformes , para cada muestra de tamaño , con parámetro , siguen una distribución Binomial. Además, suponen que el parámetro media, permanece constante a través del tiempo, lo que no ocurre en la realidad.
La solución tradicional que se le había dado a esta problemática, mostraba resultados bastante acertados. Con la carta X-MR, se lograban obtener límites que no reaccionaran de manera negativa a los tamaños de muestras de gran tamaño. Por lo que, representaba la solución perfecta para este caso.
Sin embargo, la carta X-MR, si bien compensaba la variación inter muestral debido al uso de rangos móviles para la determinación de los limites de control, no hacia lo mismo con la variación que ocasionaban los tamaños de muestras variables. Es decir, los limites permanecían constantes (planos) a lo largo de la gráfica, lo que hacía visible su deficiencia al tratar la problemática de manera errada.
Dada esta situación, se elaboró, las cartas de control especiales, propuestas por Laney y Woodall, con las cuales, se obtuvieron resultados muy acertados. Ambos métodos toman en cuenta las variaciones que ocasionan la sobredispersión en los datos de estudio (variación inter muestral e intra muestral). La única diferencia es la forma en como estas se relacionan al obtener los limites de control. Para el caso de Laney, la relación entre ambas es multiplicativa, y para el caso de Woodall, la relación se establece con base en la adición de ambos.
A lo largo de este trabajo de investigación, se pudo determinar y comprobar las limitantes que cada una de las cartas clásicas poseen, y las ventajas y desventajas que las propuestas de cartas de control especiales poseían, al analizar el proceso de muestreo en un laboratorio clínico. Es así como, se llega a la conclusión del uso de las cartas de control propuestas por Woodall y Laney, como herramientas principales para el monitoreo de procesos que muestran sobredispersión.
Valdez Pascual Yaquelin, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo
DISEñO Y DESARROLLO DE UN MODELO EXPERIMENTAL PARA IDENTIFICACIóN DEL EFECTO DE LAS VARIABLES DE AJUSTE DE UN PROCESO DE MANUFACTURA ADITIVA EN LA RESISTENCIA A LA TRACCIóN.
DISEñO Y DESARROLLO DE UN MODELO EXPERIMENTAL PARA IDENTIFICACIóN DEL EFECTO DE LAS VARIABLES DE AJUSTE DE UN PROCESO DE MANUFACTURA ADITIVA EN LA RESISTENCIA A LA TRACCIóN.
Valdez Pascual Yaquelin, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Ing. Servando Baltazar López, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del Problema:
Las exigencias de una alta calidad y bajos costos han generado que la manufactura se encuentre en proceso de una nueva revolución industrial.
En todo proceso, se identifican las entradas que corresponden a los insumos empleados como los son la materia prima, maquinaria, operador; la mayoría de las veces pueden ser representados en sus niveles bajos y altos, es decir factores controlables e incontrolables presentes en dicho proceso que repercutirán en el producto final con calidad alta o baja.
Hoy en día, las empresas buscan mejorar sus procesos mediante la optimización de tiempos, reducción de costos e incrementar la eficiencia de dichos procesos, un proceso de manufactura aditiva puede ser visto como una alternativa para las empresas.
Generalmente un proceso de manufactura aditiva se basa en imprimir capa por capa objetos en 3D, al ser procesos que necesitan emplear alta tecnología, es necesario estudiar los factores más influyentes en el proceso y determinar si existe alguna relación entre sí que afecte el producto final, o características como la tracción.
METODOLOGÍA
METODOLOGIA:
En primera estancia se llevó a cabo una investigación teórica sobre los diferentes procesos de manufactura aditiva principalmente en los polímeros.
Para poder realizar el modelo experimental, se analizaron previamente las características de la impresora 3D Dimensión 1200 la cual pertenece a la empresa Target Robotics, San Luis Potosí, en la cual se llevará a cabo la impresión de las probetas.
Se seleccionaron los parámetros de ajuste para el desarrollo del diseño de experimentos y se plasmaron en tablas, a continuación se enlistan los factores que fueron considerados, así como los valores de cada uno en sus niveles alto y bajo:
Tabla 1: Parámetros de ajuste
Factor A: Resolución de la capa:
Nivel bajo: 0.254 mm
Nivel alto: 0.330 mm
Factor B: Estilo de relleno interior
Nivel bajo: Baja densidad
Nivel alto: Solido
Factor C: Orientación del archivo
Nivel bajo: 0° grados
Nivel alto: 45° grados
Factor D: posición de la pieza
Nivel bajo: vertical
Nivel alto: horizontal
Nota: para el factor correspondiente al estilo de relleno del interior, la impresora nos brinda tres tipos de relleno los cuales son: solido, alta densidad dispersa y baja densidad, sin embargo, solo se trabajará con un estilo sólido y de baja densidad.
Se optó por construir un modelo 2k empleando dos niveles para cada factor y observar la influencia de cada uno.
Se realizarán un total de 16 corridas, debido a que el diseño experimental es 24, es decir:
24 = 2*2*2*2 = 16.
El numero 2 representa el número de niveles por cada factor. (Nivel bajo y alto).
El número 4 representa los parámetros de ajuste a considerar los cuales son: resolución de la capa, estilo de relleno interior, orientación del archivo, posición de la pieza.
Tabla 2. Desglose de los factores en cada uno de sus niveles.
Posteriormente, se realizaron las combinaciones con cada uno de los factores para obtener las respuestas de salida, será un total de 16 corridas. Para el desarrollo de la tabla, se manejaron signos positivos y negativos (alto y bajo respectivamente), cuando el factor ABCD están presentes en las combinaciones se asigna un signo positivo y uno negativo para las combinaciones en las que no están presentes.
Las corridas quedaron de la siguiente manera:
abcd
Abcd
aBcd
ABcd
abCd
AbCd
aBCd
ABCd
abcD
AbcD
aBcD
ABcD
abCD
AbCD
aCDA
ABCD
En las respuestas de salida las letras en mayúsculas representan el nivel alto de cada parámetro de ajuste.
Así mismo se investigó la validación estadística de un diseño factorial 24, por lo que se obtuvo que el numero adecuado de corridas es 32, es decir, se deberán imprimir dos piezas de cada corrida.
Una vez establecidas las combinaciones (corridas), el siguiente paso fue diseñar la pieza en un software CAD, en este caso, el software utilizado fue SolidWorks, para fines del trabajo de investigación la pieza a diseñar fue una probeta, las medidas tomadas para el diseño de la pieza fueron con base a la Norma ASTM D638-14, el archivo se guardó en un formato STL para imprimirse.
CONCLUSIONES
Durante la estancia del verano se lograron adquirir conocimientos teóricos sobre los distintos tipos de procesos de manufactura aditiva en polímeros, así como los materiales que hoy en día suelen ser empleados en cada uno de ellos. Se realizo la parte teórica del trabajo de investigación, así como el diseño experimental y diseño de la pieza, por lo tanto, aun no se tienen los resultados de los ensayos de tracción, dichas pruebas serán realizadas después de imprimir las 32 piezas como lo establece la validación estadística de un diseño factorial 24.
Durante las pruebas de tracción se podrá determinar la curva esfuerzo vs deformación del material empleado, así esto nos permitirá determinar sus características plásticas, elásticas y de tensión que pueda soportar el material.
Valdez Silva Joana Esmeralda, Universidad Politécnica de Tecámac
Asesor:M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
APLICACIÓN WEB PARA ADMINISTRAR LA INFORMACIÓN ADQUIRIDA DE UNA MÁQUINA DE ENVEJECIMIENTO DE MATERIALES METÁLICOS
APLICACIÓN WEB PARA ADMINISTRAR LA INFORMACIÓN ADQUIRIDA DE UNA MÁQUINA DE ENVEJECIMIENTO DE MATERIALES METÁLICOS
Ceballos Garza Casandra Ameyali, Universidad Politécnica de Tecámac. Valdez Silva Joana Esmeralda, Universidad Politécnica de Tecámac. Asesor: M.C. Hómer Alberto Lara Luis, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Una máquina de envejecimiento acelerado es capaz de someter a un material a pruebas de envejecimiento para predecir su comportamiento ante el paso del tiempo. Los daños sufridos por un material se pueden manifestar en forma de cambio de color, pérdida de brillo, pérdida de resistencia, agrietamiento, deslaminado, oxidación y desconche o rotura del producto. Entre las principales causas del envejecimiento se encuentran la luz solar (especialmente la ultravioleta), las altas temperaturas y la humedad; ya sea en forma de lluvia, rocío o altos valores de humedad. Actualmente el manejo y control de la máquina y de los datos que brinda se lleva a cabo de manera manual, por lo que lleva más tiempo del planeado usarla y además causa retraso en las actividades.
La automatización de procesos industriales es en sí misma la aplicación de maquinarias y equipos de tecnología (Software y hardware), que sean capaces de llevar todo tipo de procesos de producción, selección y control de manera autónoma, es decir, con la mínima participación de personal humano posible. Para lograr esto en la máquina de envejecimiento, se creará un circuito integrado con sensores, que mantendrán un lenguaje máquina a máquina, con ayuda del protocolo HTTP, esto facilitará las actividades de control y hará que el trabajo se vuelva más rentable, eficiente y cuidadoso con el control de calidad.
METODOLOGÍA
MODELO DE PROTOTIPOS
Se inicia con la definición de los objetivos globales para el software, luego se identifican los requisitos conocidos y las áreas del esquema en donde es necesaria más definición. Este modelo es básicamente prueba y error ya que si al usuario no le gusta una parte del prototipo significa que la prueba fallo por lo cual se debe corregir el error que se tenga hasta que el usuario quede satisfecho. Además, el prototipo debe ser construido en poco tiempo, usando los programas adecuados y no se debe utilizar mucho dinero pues a partir de que este sea aprobado nosotros podemos iniciar el verdadero desarrollo del software. Pero eso si al construir el prototipo nos asegura que nuestro software sea de mejor calidad,
Etapas para diseñar e implementar un prototipo:
Recolección y refinamiento de requisitos: La información que el investigador brindó se separó en requerimientos funcionales y no funcionales.
Modelado, diseño rápido: Se hizo uso de aplicación Balsamiq, para poder hacer un maquetado rápido de lo que sería cada una de las interfaces a desarrollar.
Construcción del Prototipo: A través del programa Visual Studio, se comenzó la creación de cada uno de los prototipos, diseñados; además se implementó el protocolo HTTP Y las plataformas Web API y Entity Framework para lograr que cada maquetado cumpla su funcionalidad, así mismo se utilizó el gestor de bases de datos, SQL Server.
Desarrollo, evaluación del prototipo por el cliente: Al término del desarrollo de cada prototipo, el investigador y los alumnos evaluaban el diseño, la manera de manejar la información, las dimensiones; es decir, si el resultado era el esperado.
Refinamiento del prototipo: Los desarrolladores, proponen ideas de mejora, según el desempeño del prototipo.
Implementación: Se actualiza el prototipo y se implementan las propuestas planteadas en la anterior etapa por los alumnos y el investigador.
CONCLUSIONES
Ahora que se ha concluido este proyecto, se puede notar que el equipo de trabajo logró cumplir con los objetivos planteados al inicio de la investigación. En términos generales podemos mencionar que:
Se realizó una aplicación web utilizando Web API y entity Framework, así mismo se hizo uso de estas plataformas para obtener la información que proveen los sensores, estos datos son; temperatura, humedad y la luz UV.
Se hizo uso del protocolo HTTP, que es la base de cualquier intercambio de datos en la Web, esto quiere decir que una petición de datos es iniciada por el elemento que recibirá los datos en este caso el usuario.
Se utilizó el sistema gestor de bases de datos, SQL Server; para almacenar los datos adquiridos e ingresados por el usuario, desde la información de inicio de sesión, hasta los datos de cada una de las pruebas realizadas. Así mismo para mantener relación entre ciertas entidades de datos.
En términos específicos, se obtuvieron los siguientes puntos.
El usuario puede crear un sinfín de pruebas, y estás estarán registradas dentro de la base de datos, manteniendo en el registro el nombre del autor.
Con el uso de la información registrada en cada prueba se puede comprender la manera más eficiente el cómo envejecer los materiales.
La aplicación Web es capaz de mostrar todas las pruebas realizadas y quien realizó dichas pruebas.
Igualmente, los datos arrojados por los sensores de temperatura, humedad y la luz UV de cada prueba realizada, se puede consultar de manera gráfica y cuantitativa, todo esto con un gran entendimiento en cuanto al diseño de las interfaces y la experiencia del usuario.
En conclusión, el manejo de bases de datos es bastante importante hoy en día ya que la mayoría de las empresas maneja una enorme cantidad de datos almacenados y permiten un mejor manejo y automatización de procesos.
Utilizar entity framewok es una gran opción ya que permite a los programadores trabajar con datos en forma de objetos y propiedades específicas del dominio, por ejemplo, con clientes y direcciones, sin tener que pensar en las tablas de las bases de datos subyacentes y en las columnas en las que se almacenan estos datos.
Valdivia Zaragoza Violeta Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez
Asesor:Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
CARACTERISTICAS DE MODELO DE ANALíTICA DATOS
Garcia Castro Obed, Universidad Mexiquense del Bicentenario. Hernández López Alex Jahel, Instituto Politécnico Nacional. Valdivia Zaragoza Violeta Guadalupe, Instituto Tecnológico José Mario Molina Pasquel y Henriquez. Asesor: Dr. John Alexander Velandia Vega, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Gracias al auge que ha tenido el uso del internet en estos últimos años, ha surgido la necesidad de crear herramientas que permitan poder examinar toda la información que se genera, conforme pasan los años dichas herramientas se han ido modificado adaptándose a las nuevas necesidades, es por ello que en esta investigación se intenta hacer un análisis minucioso sobre las características de la analítica de datos en el ámbito empresarial en donde se pretende conocer las ventajas, desventajas, técnicas, etc. Desde el punto de vista de varios autores.
METODOLOGÍA
El método utilizado a lo largo de esta investigación corresponde a un estudio interrogativo, retrospectivo, observacional y secundario, en el cual varios estudios atienden a la misma pregunta Existen dos formas de revisión sistemática: la cuantitativa y la cualitativa.
La diferencia radica en el uso de en el uso de análisis estadísticos que dan lugar a la integración y análisis cuantitativo de los resultados en los diversos estudios. Además de ser una manera de evaluar e interpretar toda investigación disponible respecto a un interrogante
CONCLUSIONES
A partir de la utilización del método de revisión sistemática, se puede concluir que la analítica de datos, es una herramienta de gran utilidad en el ámbito laboral ya que ofrece grandes beneficios a aquellas empresas que buscan hacer crecer sus negocios. Mediante un análisis minucioso y detallado de su información se pueden obtener datos relevantes no solo para identificar la oferta y demanda que se tiene en el mercado, sino también para predecir futuras situaciones que pueden impactar de manera positiva o negativa a la empresa.
Algo muy importante, es el hecho de que una empresa que no se actualiza es una empresa que va encaminada al fracaso o a la quiebra. Es por eso que la analítica de datos, ha venido a revolucionar la forma de manejar la información. Parte de esta innovación que ofrece, está el hecho de poder sacar el máximo beneficio a los datos esto a su vez permite crear una ventaja competitiva sobre otros.
Valencia Aguilar Karla Denisse, Instituto Tecnológico de La Piedad
DESAROLLO DE APLICACIóN/PROTOTIPO DE SISTEMA GESTOR DE VENTAS
DESAROLLO DE APLICACIóN/PROTOTIPO DE SISTEMA GESTOR DE VENTAS
Valencia Aguilar Karla Denisse, Instituto Tecnológico de La Piedad. Asesor: Dr. Edison Valencia Diaz, Corporación Universitaria Remington
PLANTEAMIENTO DEL PROBLEMA
Las aplicaciones tecnologías hoy en día son algo de lo más requerido y utilizado en cualquier ámbito laboral ya que nuestro ritmo de vida es priorizado y más práctico llevar un control de nuestra vida diaria en nuestros dispositivos tecnológicos, teniendo una interacción entre el usuario, dispositivos, y más usuarios atraves de una red
Hoy en día, la relación entre las personas y la
tecnología es más intensa que nunca antes. Esta ha ido evolucionando a pasos agigantados y esto ha influido en el estilo de vida de los usuarios, quienes sienten la necesidad de estar “conectados” en todo momento, por lo que a muchos les resulta indispensable tener su dispositivo móvil a la mano.
De acuerdo con la encuesta de deloitte en 2019, el dispositivo que presenta mayor frecuencia de uso es el smartphone, con 96% de los encuestados, mostrando que es una herramienta para la comunicación personal, el trabajo, la escuela y la salud física, entre muchas otras actividades. El siguiente dispositivo con mayor frecuencia de uso es la laptop: 70% de los encuestados la usan diariamente, seguido de la computadora de escritorio con 62%. En el extremo, vemos que 19% de los consumidores que poseen lentes de realidad virtual los usan a diario. Por otro lado, el 5% de los usuarios que poseen una fitness band, nunca lo han utilizado. Los resultados sugieren una fuerte dependencia hacia los dispositivos tecnológicos.
Debido a la pandemia vivida desde el 2020 el uso de los dispositivos tecnológicos incremento dramáticamente siendo estos los principales distractores, medios de trabajo y comunicación con las personas así como lo más importante el medio para guardar su información
La problemática que se presenta es la compra de productos el llevar un control de ventas de los dueños de los establecimientos de forma digital para que está nos permita tener un historial mismo que hoy en día muchos establecimientos no cuentan con ello ya que lo hacen de forma análoga
METODOLOGÍA
Se utilizó Flutter como nuestro SDK, mismo que nos permitió el comienzo de varias versiones de prueba del prototipo, esto debido a que se iba ajustando debido a las necesidades que se presentaban modificando para que fuera de mejor acceso y fácil uso para los diferentes usuarios.
La parte visual encueste a un grupo de personas para que me dieran su opinión respecto a las diferentes versiones de diseño que íbamos realizando hasta quedar en una que satisfacía más las necesidades del usuario y era más práctica para su manejo.
El entorno en bd con fireauth fue de más ayuda debido a que en esta parte era comenzar de 0 y teníamos que autentificar los datos todos mediante la validación de usuario para el inicio de sesión ya que necesitamos conocer el nombre de los usuarios que tendrán acceso a la aplicación,para tener un control de ello y poder llevar sus registros e historiales de todas las modificaciones, mismas que a los proveedores les proporcionaran ideas de que es lo que más se vende y lo que no, lo cual les permitirá un control más certero en que enfocar el rubro de su negocio
La aplicación funciona de momento para proveedor que subirá sus registros y llevara el control de sus historiales de Ventas proporcionando un mejor servicio y calidad para nuestro cliente
Este prototipo fue probado por algunos usuarios dueños de pequeños establecimientos mismos que quedaron satisfechos con lo que ofrece nuestro prototipo pues les permite llevar el control de altas de sus productos, las bajas ya sea definitivas que ya no se existirá más en dicho establecimiento o temporal en lo que se vuelve a surtir dicho producto, en poder modificar las existencias pues cuando llega resurtido de productos es necesario poder agregar más al mismo o también cuando cambia el precio es necesario poder modificar los datos para poder llevar el verdadero control, y en el ticket fue muy bien aceptado ya que aquí estamos llevando el poder agregar los productos que se requieren tantas veces como es necesarias dentro de una cuenta así como todo lo que se vende más aparte su IVA ya incluído en compra para que los proveedores vean lo que movimientos tales que pueda dar al el precio correcto con anhelo a qué crezca y les sea también de urilizas para el uso de compra y venta en línea mediante dicha aplicación funcional
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y prácticos de las nuevas tecnologías como lo es flutter como nativo para desarrollar las diferentes aplicaciones, manejo de bases de datos como lo es fireauth, y los servidores web, cuento con un prototipo de la aplicación, misma que espero terminar de desarrollar en futuro ya que debido a las dimensiones del trabajo de investigación y prueba no se logra concluir con el proyecto en el tiempo establecido de la estancia, por lo cual solo se puede observar el prototipo funcional. Esperando con Luis con su desarrollo, de forma que no sea solo para que el dueño del establecimiento pueda generar sus historiales sino tener dos principales funciones que serían cliente y proveedor, en la cual se espera que funcione como mercado libre en la cual el proveedor pueda ofrecer producto o servició y finalmente llegar a el consumidor dicho producto para satisfacer las necesidades que presenta
Valencia Ortíz Elsa Angelica, Universidad Autónoma de Baja California
Asesor:Post-doc Javier Augusto Jiménez Cabas, Universidad de la Costa
ESTRATEGIA DE REDUCCIóN DE VARIABILIDAD EN PROCESOS CONTINUOS CON LAZOS DE CONTROL TIPO PID INTERACTUANTES
ESTRATEGIA DE REDUCCIóN DE VARIABILIDAD EN PROCESOS CONTINUOS CON LAZOS DE CONTROL TIPO PID INTERACTUANTES
Valencia Ortíz Elsa Angelica, Universidad Autónoma de Baja California. Asesor: Post-doc Javier Augusto Jiménez Cabas, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
Realizar controladores tipo PID que realicen que el comportamiento de la ganancia de lazo sea como un integrador y comprobar su eficiencia.
METODOLOGÍA
Se empezó la investigación leyendo la Tesis de Diseño de una estrategia de reducción de variabilidad en procesos con controladores tipo PID frente a perturbaciones oscilatorias, trabajado y dirigido por Marco E. Sanjuán y Javier A. Jiménez, y observando videos relacionados con los controladores PID y Loop Shaping. Esto con la finalidad de entrar en contexto con el proyecto.
Después, se establecieron propuestas de controladores que hicieran que la ganancia de lazo (L) se comporte como un integrador (wc/s). Se primera, se contempló el concepto básico del integrador igualado al valor de la planta para el caso de control tipo PI; la segunda, se consideraba este mismo, pero también tenía presente las formulas de la minimización de perturbación de la tesis anteriormente mencionada. Sin embargo, se optó por la primera propuesta, por su sencillez.
Tomando en cuenta la función de transferencia de sensibilidad complementaria (complementary sensitivity transfer function), se simuló, por medio del programa de Matlab, para comprobar hasta qué valor de frecuencia critica (wc) era la limitante para que la función de transferencia con respuesta al escalón unitario fuera estable; a parte, para observar su tiempo de respuesta (Tr) y si existía un sobrepaso (Mp) al graficar la función.
Pero, el estar graficando hace que el programa en Matlab sea más lento de procesar. Por ello, se estableció dos códigos, donde se utilizó valores independientes, fórmulas ya conocidas del caso del controlador PI y funciones de Matlab (las cuales algunas fueron investigadas para su usó) para realizar una tabla comparativa de varias características (Mp, Tr, Ts, Css min., Css max., Overshoot, etc.) de diferentes casos de la función de transferencia de sensibilidad complementaria, donde la frecuencia critica (wc) variaba desde wc mayor a 0 hasta frecuencia máxima (wc max.) inversamente proporcional al tiempo muerto (t0). Condición encontrada del libro Multivariable Feedback Control de Sigurd Skogestad e Ian Postlethwaite, 2001, en el capítulo 5: LIMITATIONS ON PERFORMANCE IN SISO SYSTEMS, subtema 5.6: LIMITATIONS IMPOSED BY RHP-ZEROS.
Estos dos códigos, diferían en el tipo de planta que se establecía. Al final, se seleccionó el código con una planta que representa al comportamiento del agua/concentración de un reactor de agitación continua (continuous stirred-tank reactor, CSTR).
También, se propusieron otros tipos de controladores PID, como el tipo P y PID. Aun así, siguieron adelante los casos tipo PI y PID, donde igualmente el controlador PID se utilizó el mismo procedimiento del PI para realizar el código (se seleccionó la planta agua/concentración del reactor).
Actualmente, se establecieron otras dos características que se observarán en la tabla comparativa, las cuales son la razón de tiempo de subida (rise time ratio, Rtr), el cual señala la eficiencia del controlador, y la sensibilidad máxima (Maximal sensitivity) muestra un escenario claro sobre la robustez del controlador. En donde, sus fórmulas tuvieron que ser investigadas para adjuntarlas al código antes realizado.
CONCLUSIONES
Durante la pasantía del programa delfín, se obtuvo dos tipos de controladores PID (PI y PID), los cuales están en proceso de compararse para saber cual tiene mejor respuesta al escalón unitario (Step), ya que aún falta encontrar un método más exacto para calcular el valor de la sensibilidad máxima y realizar más pruebas de simulación.
Valencia Perez Samuel, Universidad Vizcaya de las Américas
Asesor:Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
CALIDAD SEIS SIGMA EN LOS PROCESOS PRODUCTIVOS.
CALIDAD SEIS SIGMA EN LOS PROCESOS PRODUCTIVOS.
Arriaga Salazar Jimena, Instituto Tecnológico de Toluca. Valencia Perez Samuel, Universidad Vizcaya de las Américas. Asesor: Mtra. María Guadalupe Velarde Rodríguez, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La presente investigación se centró en conocer la importancia de la implementación seis sigma en distintas empresas del sector industrial y de servicios. Asimismo, se investigó a detalle cada fase de la metodología DMAIC para proponer un manual que pueda describir cada fase, su importancia y herramientas a desarrollar, todo ello, situado a las Pymes. Esto responde a una necesidad de difundir la metodología en este tipo de empresas para fortalecer sus sistemas de mejora continua. Se proyecta que el manual puede apoyar a que las Pymes implementen la filosofía seis sigma, de una manera estándar.
METODOLOGÍA
La metodología seguida fue del tipo cualitativa, descriptiva, ya que se investigaron 30 marcos teóricos para conocer la importancia de la metodología seis sigma en los casos documentados, tales como artículos científicos, libros, revistas, etc. Posteriormente, se integró la información en un cuadro comparativo y se diseñó una propuesta de manual de implementación de la metodología DMAIC, con la intención de que, en un futuro, pueda servir de base para una prueba piloto y conocer su funcionalidad en el futuro.
CONCLUSIONES
Como resultado se obtuvo un cuadro comparativo entre las distintas prácticas y casos de éxito en temas de la metodología seis sigma. Asimismo, una propuesta del manual de implementación de la metodología seis sigma bajo su filosofía DMAIC
Valencia Vargas Hugo, Universidad de Guadalajara
Asesor:Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional
DESARROLLO DE APLICACIONES BIOMéTRICAS PARA TORTUGAS MARINAS UTILIZANDO INTELIGENCIA ARTIFICIAL
DESARROLLO DE APLICACIONES BIOMéTRICAS PARA TORTUGAS MARINAS UTILIZANDO INTELIGENCIA ARTIFICIAL
Valencia Vargas Hugo, Universidad de Guadalajara. Asesor: Dra. Mireya Sarai García Vázquez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El monitoreo de diferentes especies de tortugas marinas en México es importante para su conservación y preservación. Según la PROFEPA (Procuraduría Federal de Protección al Ambiente) en nuestro país anidan 7 de las 8 especies de tortugas marinas que existen y por tanto, tenemos una posición privilegiada para luchar por su protección. Al mismo tiempo, tenemos la responsabilidad de erradicar la caza furtiva y la depredación de los huevos en sus nidos, además de asegurar que nuestros asentamientos costeros no dañen su ecosistema.
Se han desarrollado diversos métodos para monitorear tortugas marinas, como el etiquetado de sus aletas con placas metálicas o la instalación de rastreadores GPS en su caparazón. Estos además de ser costosos, son invasivos y pueden incluso hacerlas más susceptibles a enredarse accidentalmente en redes de pesca. Por otro lado, el monitoreo mediante dispositivos que adquieren videos o imágenes digitales presenta una alternativa, la cual es no invasiva y potencialmente más escalable. La gran limitación en el uso de estas herramientas es que para poder identificar las especies o mejor aún, individuos, es necesario que biólogos especializados analicen y etiqueten de forma manual todo el material digital, incluso donde no hay presencia de tortugas (para poder descartarlo). Esto significa que este es un procedimiento lento, costoso y difícil de escalar. Nuestro propósito con el proyecto es automatizar este proceso de detección de tortugas y sus diferentes especies, de forma no invasiva, con la posibilidad de identificar tortugas de forma múltiple.
METODOLOGÍA
Se compiló un pequeño set de imágenes donde se propuso tener la diversidad suficiente de especies, tamaños y poses de tortugas, entornos, iluminación y resolución buscando que sea lo más representativo posible de los datos que se utilizarán en el sistema cuando esté en funcionamiento en un entorno real.
Todas las imágenes donde aparecen tortugas fueron etiquetadas con la ubicación tanto de su cabeza como de la tortuga completa; ya que los patrones de las escamas que se encuentran en su cabeza son específicos para la identificación de la especie o del individuo y es de utilidad poder separarla del resto del cuerpo. En esta etapa se clasificaron todas las diferentes especies de tortugas como una sola clase Tortuga, de esta forma entrenamos la red para que identifique tortugas sin importar su especie, esto con el objetivo de utilizar el sistema para generar pseudo-etiquetas dentro de una base de datos más grande y diversa que se utilizará para entrenar la red en reconocimiento de especies. El generar pseudo-etiquetas de esta forma busca disminuir drásticamente el tiempo que tomaría etiquetar a mano la base de datos completa. La detección automática de tortugas permite que los biólogos se concentren únicamente en identificar la especie, en imágenes que ya estamos seguros de que contienen tortugas.
La arquitectura de la red neuronal convolucional que se utiliza es la YOLOv4 propuesta por Alexey Bochkovskiy et al. (2020) con CSPDarknet53 como Backbone, SPP y PAN como Neck y YOLOv3 como Head. Se tomó como referencia el archivo de configuración yolov4-custom.cfg. Se entrena con una resolución de 416x416 pixeles que se aumenta a 608x608 al realizar inferencia.
Se configuró con learning rate de 0.001, momentum de 0.949 y decay de 0.0005 y se entrena por 4000 iteraciones, con dos clases: Cabeza_tortuga y Tortuga.
Para la aumentación de datos se aplicaron las técnicas de mosaico, ruido gaussiano, reflexión, cambios aleatorios de rotación, saturación, exposición y matiz.
Se compiló el modelo para hacer uso de una tarjeta gráfica RTX 2060 móvil y un procesador Intel i7-9750H por lo que se utilizaron las bibliotecas CUDA, cuDNN, OpenCV, OpenMP y AVX dentro de un sistema operativo Ubuntu 20.04 Lts.
CONCLUSIONES
La experiencia de esta estancia de verano enfocada a la detección y clasificación de tortugas utilizando inteligencia artificial, fue muy enriquecedora para mí. Logré comprender el porqué de las decisiones que toman las y los investigadores al trabajar con redes neuronales convolucionales, en especial para visión computarizada. Su apoyo me motiva a continuar esforzándome en mi preparación en este ámbito y conocerles me inspira a, como ellos, hacer investigación trascendente para nuestro país y nuestro medio ambiente. Nuestro proyecto se alinea con el objetivo 14 de desarrollo sostenible de la ONU (Vida Submarina).
Con respecto a los experimentos realizados, el modelo entrenado obtuvo una precisión de 98%, recall de 1, F1-scrore de 0.99, IoU promedio de 89.75%, 323 positivos verdaderos, 5 falsos positivos y 0 falsos negativos, con la métrica mAP@0.50 obtiene un valor de 0.999981. Sospechamos que aunque estos resultados son muy buenos, es posible que el modelo tenga problemas para generalizar fuera del set de datos, que al ser tan pequeño, no tiene la diversidad suficiente para modelar, por ejemplo, imágenes aéreas o de tortugas recién nacidas. Por este motivo se está trabajando en curar una base de datos más grande. También, vale la pena explorar el uso de Scaled-YOLOv4, para el cual se necesitan más recursos computacionales, y del más novedoso YOLOX.
Valenzuela Alvarado Lesly Yuliana, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan
OPTIMIZACION DE LAS RUTAS VEHICULARES PARA LA GESTION DE RESIDUOS COVID-19 EN HOSPITALES DE CIUDAD JUAREZ, CHIHUAHUA.
OPTIMIZACION DE LAS RUTAS VEHICULARES PARA LA GESTION DE RESIDUOS COVID-19 EN HOSPITALES DE CIUDAD JUAREZ, CHIHUAHUA.
Valenzuela Alvarado Lesly Yuliana, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. Aaron Guerrero Campanur, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
Hace más de dos años que la humanidad fue golpeada por una pandemia causada por el coronavirus SARS-CoV-2, que hizo un cambio colosal hacia todo lo que ya conocíamos. Lamentablemente esto no ha parado y se mantiene presente en nuestras vidas. Los hospitales han sido una pieza clave a lo largo de todo este tiempo, de no ser por su gran labor existiría una catástrofe, lamentablemente el cuidar y sanar a la humanidad conlleva una consecuencia, y eso son los residuos. México está emitiendo cerca de 32 toneladas al día con motivo de la pandemia solo por los residuos de pacientes en hospitales (Steve, 2020). Por lo tanto, es importante optimizar lo mejor posible las rutas de recogido de residuos para evitar el mal manejo y contaminación de ella.
METODOLOGÍA
Gracias a la problemática presentada se ha optado por adaptar un modelo de VRP (problema de enrutamiento de vehículos) en donde por medio de la herramienta Excel crearemos la ruta ideal para la recolección de residuos resultantes de 25 distintos hospitales en Ciudad Juárez.
Constara de un simulacro con ayuda de una empresa juarense a la que llamaremos SAALIC en la cual tendrá una ventana de recolección de 8 am a 5 pm, de lunes a viernes con un total de 10 camiones que se transportaran a lo largo de toda la ciudad.
CONCLUSIONES
Los estudios del problema de enrutamiento de vehículos han sido de gran utilidad en diferentes situaciones complejas para optimizar las desiones de la distribución y/o recolección de recursos. En nuestros días, contar con una organización del transporte óptima para recoleccion de residuos resultantes, es una herramienta vital para la toma de decisiones. Ademas apoya al tratamiento de residuos peligrosos de origen biológico-infecciosos de acuerdo a la Norma Oficial Mexicana NOM-087-ECOL-SSA1-2002, y la NOM-045-SSA2-2005, para la vigilancia epidemiológica y control de infecciones de hospitales.
Valenzuela Rodríguez Andrea Guadalupe, Instituto Tecnológico de Matamoros
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
ANáLISIS DE LA GERMINACIóN Y CRECIMIENTO DE LA PLANTA HELIANTHUS ANNUUS L. COMO PLANTA FITORREMEDIADIORA DE SUELOS CONTAMINADOS POR ACEITES Y SU BENEFICIO EN LA ZONA FRONTERIZA
Canchola Vega María del Carmen, Instituto Tecnológico de Matamoros. Lopez Rodriguez Destiny Priscila, Instituto Tecnológico de Matamoros. Resendez Martínez America Daniela, Instituto Tecnológico de Matamoros. Valenzuela Rodríguez Andrea Guadalupe, Instituto Tecnológico de Matamoros. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La industria maquiladora en la zona fronteriza del norte de México ha representado un eslabón importante en la economía de esta área desde los años ochenta y noventa. El efecto de esta actividad sobre el medio ambiente ha sido poco estudiado sin embargo se ha observado más contaminación por hidrocarburos en suelos debido a la maquila. Así, este trabajo permitirá mostrar que la fitorremediación puede lograr grandes cambios, ya que al ser esta una tecnología de diversos compuestos de procesos bioquímicos por medio de plantas y microorganismos tenemos la oportunidad de demostrar como la planta Helianthus Annuus L., puede hacer un cambio en el sitio, así como las diferentes herramientas para eliminar los hidrocarburos.
METODOLOGÍA
Para la observación del crecimiento de Helianthus Annuus L. (girasol) en suelo contaminado, se empezó por pesar 100g de suelo, en los cuales se sembraron dos semillas por maceta para elevar la probabilidad de germinación correcta. Posteriormente, se contaminó la tierra con aceite quemado de acuerdo a diferentes porcentajes de acuerdo a la NOM-138-SEMARNAT/SS-2003. Por lo tanto, se hicieron 5 muestras teniendo, 0% de contaminante, 2%, 3%, 4%, y 5% respectivamente.
Se utilizaron diferentes parámetros para medir el crecimiento de la planta. Estos fueron: porcentaje de humedad, pH, y densidad relativa del suelo.
CONCLUSIONES
Se llegó a la conclusión de que la Helianthus annuus L. es una buena opción para la fitorremediación de suelos contaminados por aceites, ya que entre más porcentaje de contaminación hubo un crecimiento más notorio. Esto, como mencionamos anteriormente, puede ser de mucha ayuda para la remediación de suelos contaminados en la zona fronteriza. Asimismo, a pesar de las inclemencias del clima, la planta que se utilizó fue muy resiliente ante los cambios de temperatura, lo cual lo hace un proyecto más viable a manera futura.
Valverde Morán Julio Reinaldo, Universidad Autónoma de Manizales
Asesor:M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora
SISTEMA DE CALIBRACIÓN PARA LOS MINIJUEGOS DEL PROTOCOLO PROBAUAM
SISTEMA DE CALIBRACIÓN PARA LOS MINIJUEGOS DEL PROTOCOLO PROBAUAM
Valverde Morán Julio Reinaldo, Universidad Autónoma de Manizales. Asesor: M.C. Aaron Junior Rocha Rocha, Instituto Tecnológico de Estudios Superiores de Zamora
PLANTEAMIENTO DEL PROBLEMA
Este trabajo deriva de un proyecto de investigación, en el cual se están desarrollando minijuegos en realidad virtual a partir de un protocolo fisioterapéutico diseñado para rehabilitar personas mayores con problemas de inestabilidad postural.
Los escenarios de los minijuegos constan de diferentes elementos con los que el usuario debe interactuar con el fin de alcanzar los objetivos que se proponen en cada juego, además se debe garantizar que se cumpla con el objetivo terapéutico del ejercicio.
Las escenas de los minijuegos deben adaptarse a las capacidades y condiciones físicas que tiene el usuario, como por ejemplo la altura, máximo alcance de los brazos, rotación del cuello, etc.
Si todas estás características no son adecuadas para el usuario y sus posibilidades, la actividad podría ser no aprovechable o no usable con lo cual el usuario no tendría la posibilidad de alcanzar los objetivos de cada minijuego y se perdería el objetivo terapéutico del ejercicio planteado.
Debido a lo anterior, es de suma importancia desarrollar el sistema de calibración para garantizar que se cumpla con los objetivos planteados.
METODOLOGÍA
Esta investigación es de tipo desarrollo teconológico, en la cual se trabajó con la metodología de desarrollo SCRUM.
Se realizaron las siguientes actividades:
Definir la estructura para guardar los datos de calibración en un objeto persistente en Unity.
Diseñar la tabla de calibración en la base de datos.
Conectar a la base de datos desde unity por medio de una API.
Realizar CRUD para gestionar los datos del sistema de calibración.
Implementar la estructura del objeto que va a guardar los datos de calibración en Unity.
Crear una escena de entrenamiento (color neutro).
Diseñar NPC de acompañamiento del usuario en Unity
Definir posiciones iniciales para tomar medidas en el sistema de calibración,
Incluir apoyos visuales para orientar al usuario.
Integrar el sistema de calibración al resto del sistema.
Realizar pruebas del sistema de calibración.
CONCLUSIONES
El sistema de calibración es necesario para garantizar que los objetivos de los minijuegos sean alcanzables para todos los usuarios.
El sistema de calibración permite tener escenarios dinámicos que se adapten a las condiciones y capacidades físicas del usuario.
Este proyecto aporta al ODS 3 (Salud y Bienestar) debido a que contribuye al tratamiento de rehabilitación de personas mayores con inestabilidad postural, permitiendo que realicen los ejercicios en el Sistema ProbaUAM VR de la manera más beneficiosa.
Varela Martínez Ana Sofia, Universidad de Sonora
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
EVALUACIóN DE LOS RIESGOS LABORALES PRESENTES EN LA PLATAFORMA SOLAR DE HERMOSILLO
EVALUACIóN DE LOS RIESGOS LABORALES PRESENTES EN LA PLATAFORMA SOLAR DE HERMOSILLO
Mendez Rendon Leonardo, Universidad de Sonora. Varela Martínez Ana Sofia, Universidad de Sonora. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los riesgos de trabajo están presentes en todas las áreas de trabajo que existen y son causantes de lesiones leves y graves en trabajadores, esto puede ser provocado por una mala distribución de objetos en el área de trabajo, así como por la falta de equipo de protección de personal adecuado y la ausencia de medidas de seguridad.
Para detectar los factores de riesgo que existen en las áreas de trabajo es necesario realizar una evaluación de riesgos laborales que tiene por objetivo adaptar el espacio de trabajo a las necesidades de las personas con el fin de facilitar la realización de sus tareas y evitar afectaciones en su salud.
Durante el verano de investigación se realiza una evaluación de riesgos laborales con el fin de prevenir y reducir factores de riesgo presentes en la Plataforma Solar de Hermosillo.
METODOLOGÍA
Primeramente, se obtuvieron las características más importantes de la institución a la cual se le aplicó la evaluación. En este caso se analizó la Plataforma Solar de Hermosillo (PSH) la cual es una instalación creada por la Universidad de Sonora y la Universidad Nacional Autónoma de México con el objetivo principal de llevar a cabo investigación, desarrollo e innovación relacionada con la tecnología para el aprovechamiento de la energía solar térmica con concentración.
La PSH además de contar con tecnología de torre central, actualmente posee tecnología de concentración de disco parabólico, lineal fresnel y canal parabólico. Estos sistemas se utilizan principalmente para el desarrollo tecnológico, la investigación y la formación de recursos humanos de alta calidad.
Estas instalaciones poseen una jornada laboral con inicio a las 8:00 am y final a las 4:00 pm. En un día normal de trabajo laboran alrededor de 4 técnicos académicos los cuales se encargan del mantenimiento de equipos, apoyo técnico en proyectos de investigación y el armado de prototipos y 1 Investigador. En los días no rutinarios se reciben grupos de entre 10 a 15 estudiantes, los cuales acuden a las instalaciones con fines académicos.
La Plataforma Solar se encuentra ubicada en una zona desértica al poniente de Hermosillo, para su estudio se dividió el campo en 3 áreas: torre central, oficinas y exteriores. En el área de la torre central se encuentra una torre de 32 m de altura y alrededor de ella se posicionan 25 heliostatos. El área de oficinas está compuesta por 4 cubículos, un taller, un área común y un tejabán. Los exteriores es el área restante del campo la cual está cubierta en su mayoría por arbustos y árboles, además de algunos residuos o herramientas.
En la PSH se encuentran diversas herramientas tales como taladros, tornos, prensas de tornillo, cortadora, máquina soldadora, entre otros. Cuentan con una serie de equipos de protección individual tales como cascos, lentes y guantes. Además de esto, existen una serie de señalamientos básicos que indican rutas de evacuación, extintores y medidas sanitarias.
En un día normal de trabajo las personas pueden estar expuestas a la radiación solar en un periodo de 2 a 4 horas realizando pruebas con los heliostatos o armando prototipos, pero también pueden pasar su día dentro de las oficinas que cuentan con aire acondicionado haciendo uso de los equipos de cómputo. También están en contacto constante con el taller y todas las herramientas que se encuentran en él.
Posteriormente a la descripción de las características de la institución y puestos de trabajo, se analizaron una serie de encuestas aplicadas a los trabajadores y checklist de identificación de riesgos llevados a cabo en el año 2020, además se llevó a cabo una observación minuciosa del área de trabajo, fuentes que sirvieron para determinar los tipos de riesgos a los que se encuentran expuestos los trabajadores en la Plataforma Solar de Hermosillo.
Se encontró que los riesgos a los que los trabajadores están mayormente expuestos son a riesgos de seguridad, físicos y biológicos. Los riesgos de seguridad pueden presentarse debido a la falta de espacios para almacenar las herramientas de trabajo y la falta de organización de las áreas de trabajo, falta de protección en ciertas áreas, situaciones que pueden provocar caída de objetos, tropiezos y lesiones. Los riesgos físicos se presentan debido a que los trabajadores al estar en una zona desértica se encuentran en contacto constante con radiación solar y rayos UV, lo que puede provocar insolación, desmayos y agotamiento. Los riesgos biológicos pueden manifestarse debido al excremento de palomas, la exposición a picaduras de insectos, serpientes y la exposición a la flora presente en la región, esto puede provocar diversas enfermedades y envenenamiento a nivel cutáneo y neurológico.
CONCLUSIONES
El alcance de nuestra evaluación de riesgos laborales realizada durante el verano fue de nivel básico, solamente se adquirió conocimiento acerca de las particularidades de la institución y se detectaron los factores de riesgo presentes en la PSH.
Debido a que sí se logró identificar una serie de riesgos que pueden perjudicar la salud e integridad física del trabajador, la evaluación debe extenderse a un nivel avanzado en el cual se evalúa la amplitud de los factores de riesgo detectados mediante la implementación de diversos métodos de evaluación. Cabe resaltar que esta evaluación debe ser llevada a cabo por un experto en el tema.
Sin embargo, algunas recomendaciones que podemos aportar como estudiantes es que se haga seguimiento de los lineamientos presentes en los manuales publicados por la OSHA, así como de las normas oficiales mexicanas en términos de salud y seguridad en el trabajo.
Algunas otras acciones que se pueden llevar a cabo es la organización y limpieza de los espacios pertenecientes a la PSH mediante la realización de un inventario de las herramientas que son útiles y las que no. Además, se debe recalcar en las personas que asisten a la PSH la importancia de la utilización de vestimenta adecuada y el equipo de protección personal.
Varela Martínez Mónica Samantha, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales
APROVECHAMIENTO DE LOS RESIDUOS DE LA CáSCARA DE PLáTANO (MUSA X. PARADISíACA) GENERADOS EN MéXICO Y COLOMBIA PARA LA IMPLEMENTACIóN DE UN BIOPLáSTICO.
APROVECHAMIENTO DE LOS RESIDUOS DE LA CáSCARA DE PLáTANO (MUSA X. PARADISíACA) GENERADOS EN MéXICO Y COLOMBIA PARA LA IMPLEMENTACIóN DE UN BIOPLáSTICO.
Varela Martínez Mónica Samantha, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dra. Olga Lucia Ocampo López, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
Los plásticos han tomado la Tierra; su creciente producción y uso amenazan con contaminar cada rincón del planeta, es por ello que se ha convertido en uno de los principales problemas medioambientales de nuestro tiempo. Una media de 8 millones de toneladas de plástico es vertida cada año a los océanos, esto equivale a vaciar un camión de basura lleno de plásticos cada minuto.
Asimismo, se ha encontrado que la producción de plásticos, pasó de 2 millones de toneladas anuales durante la década de los 50 del siglo 20 a 380 billones en la actualidad. Lo preocupante es que para los próximos años la industria del plástico espera duplicar esta cifra, superando los 700 millones de toneladas de plásticos producidas alrededor del mundo. Lamentablemente, sólo 9 por ciento de este material se ha reciclado y 12 % ha sido incinerado, con las complicaciones ambientales que esto conlleva.
La situación mundial es dramática, más aún, teniendo en cuenta que la producción de plásticos sigue aumentando, y alcanzó los 380 millones de toneladas alrededor del mundo en 2015. Estas cantidades, su fácil dispersión y su lento proceso de degradación convierte al plástico en el enemigo número uno de mares y océanos. Su uso es un problema asociado a los modos de consumo, ya que la mayoría se emplean para envases de un solo uso. Si no cambiamos de tendencia, en 2025 nuestros océanos tendrán 1 tonelada de plástico por cada 3 de pescado, y en 2050 habrá más plásticos que peces, es por ello que se buscan nuevas estrategias y métodos de solución sostenibles y amigables con el ambiente, que colaboren a erradicar este tipo de problemas.
METODOLOGÍA
Por lo que respecta a la temática central de la investigación, y, sobre todo, para empaparse de información de calidad; el investigador hizo la invitación a participar en las clases virtuales sobre la Gestión tecnológica y la innovación dentro de lo que nos rodea, con la finalidad de entender más a fondo los temas relacionados al proyecto de investigación. Dicho lo anterior, para el análisis de la temática principal, se realizó una revisión bibliográfica sobre residuos de plátano, contaminación por consumo de plásticos, antecedentes de bioplásticos en México y Colombia, tecnologías empleadas en ellas, etc.
Del mismo modo, una vez realizada la revisión bibliográfica, se llevó a cabo la profundización de cada uno de los puntos anteriormente mencionados, con la finalidad de conocer más a fondo la problemática. De lo cual se obtuvieron datos importantes como los siguientes:
Cerca de 500 millones de toneladas de plástico se han introducido al año en el mundo.
En 2020 se generaron alrededor de 900% más de plásticos que en 1980.
En 2050 los océanos podrían contener más plástico que peces.
En Colombia, el cultivo de plátano representa el 6.8% de la producción, de entre los cuales destacan el plátano dominico hartón, Pelipita, cachaco.
De acuerdo a la Asociación de Bananeros, se desperdician 120,000 toneladas de plátano, debido a al almacenamiento, exportación, producción, o falta de ventas.
En México se producen alrededor de 2.4 millones de toneladas de plátano al año.
Los principales estados productores son: Chiapas, Tabasco, Veracruz, y los tipos de plátano son; dominico, manzano, tabasco, macho, valery.
Se desperdician alrededor de del 53.76% de la producción, debido a la falta de estándares de calidad, malas prácticas de manejo (almacenamiento, transporte, distribución) y falta de infraestructura adecuada.
Las cáscaras de plátano presentan un alto contenido de nutrientes como proteínas, lípidos, glucosa, fibra y compuestos antioxidantes (Galocatequina).
Pueden ser degradados por microorganismos como bacterias, levaduras y hongos filamentosos; además pueden ser utilizados como composta para fertilizar y acondicionar suelos.
Contribuyen a la reducción de desechos, debido a que cuentan con características que brindan condiciones fisicoquímicas favorables para mantener la calidad y seguridad del ambiente.
De acuerdo con la información presentada, se busca la elaboración de un bioplástico a partir del aprovechamiento de los residuos y/o desperdicios de la cáscara de plátano en ambos países, con el cual se genere elementos más biodegradables y amigables con el ambiente. Asimismo, generar erradicar el impacto ambiental de los materiales plásticos, en la cotidianeidad de las personas que lo consumen, usan y producen.
CONCLUSIONES
Para finalizar, a lo largo de la estancia de verano se adquirieron conocimientos teóricos y prácticos relacionados a la investigación desarrollada, que, de cierta forma, colaboran al crecimiento personal, social y profesional del mismo. Es por ello que, de acuerdo al trabajo realizado, se espera obtener un mayor aprovechamiento de los residuos de las cáscaras de plátano, asimismo generar una producción y consumo más sostenible, contribuyendo a una economía circular para los productores, crear conciencia sobre la contaminación del plástico y los beneficios de aprovechar la cáscara de plátano que se desperdicia. Para finalmente garantizar modalidades de consumo y producción sostenibles dentro de las industrias, sociedades y países, y con ello mejorar la calidad, seguridad y bienestar del medio ambiente.
Vargas Ambrosio Nick Diego, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Luis Omar Moreno Ahedo, Universidad Autónoma de Baja California
MODELADO DE UN SEGWAY POR MEDIO DE WOLFRAM SYSTEMMODELER.
MODELADO DE UN SEGWAY POR MEDIO DE WOLFRAM SYSTEMMODELER.
Domínguez Hernández Juan Ignacio, Benemérita Universidad Autónoma de Puebla. Vargas Ambrosio Nick Diego, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Luis Omar Moreno Ahedo, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Se busca modelar un Segway mediante un entorno de programción por bloques utilizando el software de Wolfram SystemModeler, el cual presenta un gran reto, por la poca información que hay de este para documentarnos. Uno de los principales problemas a resolver fue familiarizarse con el entorno de trabajo y poder entender las variables que existen dentro de este sistema y como establecer los parametros adecuados para obtener una simulación lo más acercada al comportamiento real.
METODOLOGÍA
Se consultaron diversas funtes, entre ellas libros, manuales, artículos y videos relacionados con el software. Una de las referencias que se consultaron más fue la página del mismo desarrollador del software, ya que este proporcionaba información más precisa y útil para poder llevar a cabo el modelado.
Comenzamos por entender el lenguaje en código en el que se basa el software. Se realizaron ejercicios de ecuaciones diferenciales y se simuló un sistema masa-resorte-amortiguador. Con estas simulaciones pudimos entender el comportamiento del software para poder obtener las gráficas/simulaciones esperadas.
Seguimos con la programación por bloques, en el cual se programó el mismo sistema masa-resorte-amortiguador para entender las diferencias y facilidades que tiene este último método, se observaron los mismos resultados, pero el tiempo de elaboracion disminuyó considerablemente.
Por último, aplicamos todos los conocimientos obtenidos para simular el Segway, empezando por la simulación de un péndulo, seguido de un péndulo invertido, después un carro-péndulo y para finalizar agregando el control, el cual hará que el péndulo invertido se estabilice, haciendo que este no caiga y mantenga la posición deseada.
CONCLUSIONES
Gracias a este trabajo de investigación, fuimos capaces de aprender acerca de un nuevo software y lenguaje de programación, en donde se aplicaron los conocimientos ya adquiridos y los nuevos, para modelar el Segway, que gracias a su control, es posible su funcionamiento. Enriqueciendo así nuestra experiencia académica y profesional.
Vargas Brochero José Mario, Universidad de la Costa
Asesor:Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
NORMATIVA GENéRICA DE DRENAJE PLUVIAL SUSTENTABLE
NORMATIVA GENéRICA DE DRENAJE PLUVIAL SUSTENTABLE
Vargas Brochero José Mario, Universidad de la Costa. Asesor: Dr. M. Alfonso Gutierrez Lopez, Universidad Autónoma de Querétaro
PLANTEAMIENTO DEL PROBLEMA
En Latinoamérica y el Caribe (LAC) el desarrollo de las ciudades es afectado por el deficiente manejo y la escasa gestión de las aguas pluviales. Esta falta de acción es a menudo causante de fuertes inundaciones urbanas, que a su vez derivan en diversos problemas y gastos económicos para la sociedad. Uno de los factores que originan dicha problemática es la falta de una normativa que obligue a los desarrolladores, planeadores, autoridades y constructores de diversos proyectos de ingeniería; a cumplir con un requisito de sustentabilidad, en cuanto a manejo de aguas pluviales se refiere.
METODOLOGÍA
Se debe entender como manejo de aguas pluviales sustentable, a la condición de preservar el estado natural del escurrimiento de una cuenca a través de obras hidráulicas, a pesar de haber sido intervenida. Por lo tanto, el presente proyecto propone una normativa sustentada en cálculos hidrodinámicos, en los cuales se puede demostrar que el escurrimiento en el terreno natural es igual al escurrimiento después de la urbanización. Para ello, se hará una modelación computacional en el programa IBER, donde se demuestre que, introduciendo determinadas obras de mitigación o almacenamiento, se puede lograr un manejo sustentable de las aguas pluviales.
CONCLUSIONES
Como resultado se busca dejar una normativa que pueda ser replicable en todos los países de la región LAC y de esta manera disminuir los daños por inundación en zonas urbanas.
Vargas Felix Jesus Fernando, Universidad Autónoma de Sinaloa
Asesor:Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
EVALUACIóN MECáNICA DE UN ACEITE CON SóLIDOS SUSPENDIDOS Y EFECTO EN EL ESTUDIO DE PETRóLEO.
EVALUACIóN MECáNICA DE UN ACEITE CON SóLIDOS SUSPENDIDOS Y EFECTO EN EL ESTUDIO DE PETRóLEO.
Vargas Felix Jesus Fernando, Universidad Autónoma de Sinaloa. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Se han realizado experimentaciones relacionadas con la adición de un biorreductor de viscosidad con comportamiento no-newtoniano para crudos extrapesados, en el que se encontró una disminución de la viscosidad generando un comportamiento newtoniano en el flujo considerando la interacción con los asfaltenos encontrados en el crudo.
Se han realizado estudios experimentales en los que se encuentran que flujos bifásicos de agua-crudo pesado tienen diferentes comportamientos según la velocidad superficial a la que se transporten, a bajas velocidades ocurren transiciones de flujo separado a regímenes de flujo disperso. Además, las caídas de presiones ocurren de diferentes maneras para los flujos de crudo liviano y los pesados, para lo cual es muy importante predecir los valores de viscosidad.
En México es de interés el estudio de fluidos representativos de crudos y el análisis de estabilidad de aceites debido a la importancia económica y el interés de manejar productos sustentables, lo que reduce el consumo de energía para la producción.
METODOLOGÍA
En este trabajo se lleva a cabo la investigación de los efectos de la viscosidad en el flujo bifásico de crudo, llevando a cabo mediciones de viscosidad gracias al software Propiedades de los sistemas bifásicos
Se desarrolló un software que permitió evaluar las siguientes características:
Método de Andrade: requiere del conocimiento de la viscosidad experimental para diferentes valores de temperatura.
Método de Przezdziecki y Sridhar: estima la viscosidad de un compuesto a partir de propiedades químico -físicas de la sustancia, que incluye el volumen molar, las propiedades críticas, el volumen en el punto de fusión y el peso molecular del compuesto, entre otras.
Método de Orrick y Erbar: se basa en estimar la viscosidad a partir de la densidad de la sustancia, el peso molecular y la estructura molecular, expresada esta última a partir del número de átomos de carbono y los grupos funcionales.
Método de van Velzen: estima la viscosidad de un compuesto orgánico a partir de la estructura molecular. La información que se requiere es el número total de átomos de carbono y los grupos funcionales que se encuentran presentes.
CONCLUSIONES
Los datos obtenidos por el software dan una aproximación confiable en comparación con las referencias utilizadas en el documento, además de presentar una gran accesibilidad y fácil manejo. También se tiene trazabilidad a partir del análisis experimental por visualización de aceites. La Generación y aplicación de conocimiento se realiza a partir de un proyecto apoyado por el CONACYT en el 2021.
Vargas López Juan Carlos, Universidad de Guadalajara
Asesor:Mg. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar
DESARROLLO DE LIBRERíA ESPECIALIZADA PARA EL PROCESAMIENTO DE LENGUAJE NATURAL (PLN)
DESARROLLO DE LIBRERíA ESPECIALIZADA PARA EL PROCESAMIENTO DE LENGUAJE NATURAL (PLN)
Ruiz Perez Darwin, Corporación Universitaria Americana. Vargas López Juan Carlos, Universidad de Guadalajara. Asesor: Mg. Edwin Puertas del Castillo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
El lenguaje es un fenómeno que persigue al individuo desde el inicio de la humanidad. La automatización de procesos y el uso de inteligencia artificial tiene décadas ocurriendo, el progreso y evolución tecnológica nos regalan un panorama de crecimiento exponencial para las áreas de inteligencia artificial, tecnología que en la actualidad sorprende a la población con sus aplicaciones; asistentes de voz, traductores, auto-completado, recomendaciones y otras son las aplicaciones que reflejan el progreso de la Inteligencia artificial en la sociedad, por lo tanto es necesario adentrarse en los diferentes subcampos de la inteligencia artificial, la visión por computadora, Aprendizaje Profundo (Deep Learning), Aprendizaje de Máquina (Machine Learning), Procesamiento del lenguaje natural (Natural Language Processing) o Computación Cognitiva (Cognitive Computing), son tecnologías se esfuerzan por hacer que el procesamiento de datos logre el mayor beneficio para el aprendizaje posible. El procesamiento de lenguaje natural, requiere enfrentarnos al tratamiento de datos, que va desde la obtención, limpieza, enriquecimiento y traducción de textos, desde texto crudo pasando por la tokenización, limpieza, enriquecimiento y organización. Desarrollar librerías que traten con el texto en español y doten de herramientas especializadas a las personas relacionadas con la investigación de Procesamiento de Lenguaje Natural es una necesidad latente, con modelos en el mercado con GPT-3 que nos muestran la importancia del lenguaje en el avance de la inteligencia artificial en general debemos ayudar al progreso de esta clase de herramientas para texto y modelos en nuestro lenguaje.
METODOLOGÍA
Para lograr un análisis provechoso de la investigación sobre procesamiento del lenguaje natural, fue necesario un análisis de los artículos que hablan sobre herramientas existentes para el tratamiento de los datos en el área, específicamente con el lenguaje de programación Python. Se descartaron aquellos artículos que excedieran como año de publicación 2012 o cuya metodología u objetivos fuesen excluyentes con nuestra investigación. Para obtener la información necesaria y alcanzar el objetivo planteado en este trabajo se seleccionó la librería de tweet-preprocessor que incluye un tokenizador y algunas herramientas para el tratamiento de tuits con etiquetas establecidas.
Ahora bien existe una infinidad de instrumentos que nos permiten filtrar el tuit, el uso de expresiones regulares es una opción que logra encontrar coincidencias en el tuit y las reemplaza(o borra), después de esa limpieza se utilizan librerías especializadas que separan al texto por palabras, pares o tuplas de las mismas, esta técnica es llamada N-Grams,esta técnica está basada en la aplicación de la Asunción de Markov (Markov assumption), que calcula la probabilidad de aparición de una palabra dependiendo solo de un historial limitado, solo influyen una cantidad limitada de Grams en ello. Se utilizó la librería NLTK (Natural Languaje Toolkit) Esta librería incluye un tokenizador de palabras y una función para obtener los N-Grams.
También se incluyen herramientas de clasificación bayesiana de texto, que de acuerdo con un conjunto de funciones basado en un modelo estadístico, calcula de qué palabras y cuántas veces aparecen en el texto. Dado que procesando el contenido del tuit se determinará a qué categoría puede pertenecer, de aquellas que se definan, por ello es de suma importancia la aplicación del teorema de Bayes para calcular la posibilidad de identificar a qué categoría pertenece, teniendo en cuenta la probabilidad que aporta cada palabra. Una vez planificados los cálculos, se tendrá en cuenta aquella categoría que cuenta con mayor probabilidad. En un sentido amplio, los modelos de Naives Bayes son una clase de algoritmos de clasificación de aprendizaje automático. Asimismo dentro de las variables categóricas la utilización de Regresión Logística es una de las herramientas estadísticas empleadas para la descripción de un conjunto de datos.
CONCLUSIONES
El tratamiento de datos que se hizo a lo largo del proyecto fue agregado a una librería que se encuentra en la página Github que es un repositorio online, con ello se espera dejar registro de las herramientas que se utilizan para la investigación relacionada con el procesamiento de Lenguaje Natural y acercarla a los hispano-parlantes. Además de esta tecnología utilizamos algunas de las técnicas de tratamiento para el lenguaje más común, la investigación se seguirá llevando a cabo con análisis del estado del arte para las herramientas implementadas esperando lograr la creación de una librería que permita la construcción de un modelo de clasificación de tuits por sentimientos de principio a fin, incluyendo la implementación y el tratamiento de datos en un solo lugar.
Gracias al desarrollo del verano de investigación se dio un momento de enorme interés y aprendizaje hacia el área de la investigación, trabajar en el procesamiento del lenguaje natural, es una experiencia multidisciplinaria gracias a la que yo y mi compañero de investigación analizamos artículos científicos sobre el tema, adentrándonos un poco a la Inteligencia Artificial y cómo puede relacionarse con la lingüística.
El avance de las herramientas relacionadas PLN es enorme, debemos adaptarnos a los progresos y descubrimientos y aprovechar los avances tecnológicos a nuestro alcance para desarrollar innovaciones. En el caso de esta investigación, el desarrollo de herramientas para el tratamiento de textos es una necesidad, aunque los modelos entrenados con textos en español existen, la documentación se encuentra en inglés, agregado a esto las herramientas que permiten todas las labores de creación y prueba de un modelo estaban separadas con lo que, gracias a nuestro proyecto se tendrán en un solo lugar, facilitando el trabajo para los investigadores y desarrolladores de aplicaciones relacionadas con el Procesamiento de Lenguaje Natural.
Vasquez Olmos Junuet del Rocio, Universidad de Guadalajara
Asesor:Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla
CULTIVO Y CRECIMIENTO DE MICROALGAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES.
CULTIVO Y CRECIMIENTO DE MICROALGAS PARA LA PRODUCCIóN DE BIOCOMBUSTIBLES.
Vasquez Olmos Junuet del Rocio, Universidad de Guadalajara. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las energías convencionales se han utilizado excesivamente durante las últimas décadas, en especial el uso de hidrocarburos, lo que produce un alto índice de CO2. Por esto se han buscado formas para disminuir el uso de productos derivados del petróleo, como la gasolina y el diesel, encontrando una forma de fabricar productos similares pero con menos afectación al ambiente: los biocombustibles; el biogás, bioetanol y biodiesel, para sustituir el gas, el diesel y la gasolina.
Estos productos a pesar de que tienen la misma función, no producen los mismos contaminantes. Hay diversas materias primas para cada subproducto; para producir biodiesel la materia prima principal son los triglicéridos, por lo que utilizar los que provienen de aceites vegetales de cultivos oleaginosos se asocia a la afectación de los precios de algunos alimentos; para la producción de bioetanol se utilizan los cultivos amiláceos que compiten con el sector alimenticio. Una fuente alternativa de aceites vegetales que no compite con el sector alimenticio, son las microalgas.
Por esta razón, actualmente se ha puesto especial atención en el desarrollo y la investigación de las microalgas, no sólo para la producción de biocombustibles, también para diferentes aplicaciones y un sin fin de usos que se le puede dar a este tipo de fitoplancton, pues por su gran variedad de especies tienen propiedades que permiten abrir una amplia gama de usos que aún no se han desarrollado.
METODOLOGÍA
Para comenzar con la realización de la investigación, se definieron los temas principales que contendría, iniciando por el planteamiento de una visión general de las microalgas, su clasificación, la forma de obtención de los lípidos y azúcares para la producción del biodiesel, el bioetanol y el proceso para la producción de biogás; resaltando también que la parte fundamental de la investigación se centra en el cultivo de las microalgas, se llevó a cabo la simulación de modelos matemáticos para calcular su crecimiento.
Al iniciar el desarrollo de la investigación sobre las microalgas, que son organismos unicelulares o pluricelulares fotosintéticos se notó que son altamente eficientes en la fijación de CO2 y la utilización de la energía solar para producir biomasa. Posteriormente se realizó la búsqueda de información con respecto a la forma ideal de obtener los biocombustibles, determinando así que es necesario clasificar las especies basándose en su facilidad de producción lipídica y de azúcares.
Seguido de lo anterior, se llevó a cabo una investigación más detallada de la forma en que se cultivan las microalgas, obteniendo que en un laboratorio de manera experimental se realizan modelos matemáticos que permiten determinar la mejor forma de cultivarlas a gran escala; para esto existen 2 formas: en plano y en cilindro. Por ello también se requieren fórmulas para calcular áreas, volúmenes y perímetros que nos permitan medir la capacidad de los medios de cultivo, sin embargo, la parte más importante recae en los modelos matemáticos, porque son la base para llevar a cabo la experimentación y a la práctica en grandes cantidades el cultivo de microalgas; es imprescindible realizar simulaciones en programas que nos muestren una visión un poco más profunda del modelo que se esté desarrollando.
Dentro de los modelos matemáticos se encontraron los de Tamiya, Van Oorcht y el de Camacho-Rubio; estos ya se habían puesto a prueba anteriormente, y para la simulación realizada se eligió el modelo de Camacho-Rubio. En el caso de la irradiancia se usaron valores previamente utilizados en una investigación realizada por la Universidad de Almería (Fernández, 2014), que consiste en la ingeniería de procesos aplicada a la Biotecnología de Microalgas.
Los modelos de crecimiento son la herramienta que nos permite diseñar y operar de forma óptima los fotobiorreactores para el cultivo masivo. Al llevar a cabo la simulación del Modelo de Camacho-Rubio se utilizó el programa MATHCAD, tomando los valores de las constantes determinadas: α = 180 μEm-2s-1, μmax = 0.045 h-1, k = 0.075 y m = 0.005 h-1; y en el caso de la irradiancia como la variable, fueron valores de 83.5 a 572.2 μEm-2s-1 para poder obtener μ y usando el mismo programa, realizar una curva de crecimiento representada en una gráfica para comprobar la eficiencia del modelo con los datos de irradiancia a evaluar y así definir si las microalgas podrían crecer en óptimas condiciones con los datos utilizados en la simulación y de esa forma tener indicadores para poder llevar a la práctica en grandes cantidades la producción de microalgas en los fotobiorreactores diseñados para su crecimiento.
CONCLUSIONES
La alternativa de las microalgas para la producción de biocombustibles aún se encuentra bajo investigación, sin embargo, el hecho de que no compita con el sector alimenticio ya es una gran ventaja pues hay una gran diversidad de microalgas. Aún a pesar de esta información, sólo un diminuto número de especies son estudiadas a profundidad para el desarrollo e innovación energética.
Con la simulación realizada el modelo de Camacho-Rubio indica que el crecimiento de las microalgas es ascendente, por lo cual, con los valores simulados se determina que sí puede llevarse a la práctica en los fotobiorreactores industriales, también que a partir del valor más alto que se le dió a la irradiancia (572.2 μEm-2s-1), la gráfica se vuelve constante y con todos los valores mayores a este último que se le den a la irradiancia, se obtendrá el mismo valor para μ en función de la disponibilidad de luz y que permite optimizar el funcionamiento de los fotobiorreactores maximizando su productividad, así que el crecimiento se dará en óptimas condiciones y de manera constante desde cierto punto.
Todo lo anterior es una muestra clara de que con la simulación adecuada para el crecimiento de las microalgas, se pueden obtener en grandes cantidades y de acuerdo al biocombustible que se desee producir, será la microalga que se simulará para su posterior producción a gran escala.
Vazquez Bustamante Gil Esau, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
Tellez Guzmán Jesus Jair, Instituto Tecnológico Superior de Huauchinango. Vazquez Bustamante Gil Esau, Instituto Tecnológico Superior de Huauchinango. Velazquez de los Santos Jonathan, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Las actuales tendencias en el establecimiento de estrategias competitivas en las escuelas son interactivas y atractivas para mayor aprovechamiento de aprendizajes significativos para nivel básico. Se ha implementado la realidad virtual en la educación de distintas formas, como es la realidad aumentada y la inmersiva, utilizando software para imágenes tridimensionales, como lo es Blender y Unity.
El presente proyecto plantea aplicar nuevas estrategias de enseñanza, haciendo uso de las herramientas de la realidad virtual, con ello contenga información de la materia de historia de la región de Huauchinango. Esta aplicación creará un ambiente virtual incluyendo efectos visuales y sonoros, simulaciones de la realidad.
METODOLOGÍA
Este proyecto surge de la necesidad de enseñar la materia de historia de no ser tediosa para los alumnos, que en su mayoría es teórica. Por estas problemáticas es necesario utilizar herramientas informáticas para colaborar de manera creativa y tener un desempeño escolar agradable. Por lo tanto, se decidió el desarrollo de una aplicación con realidad virtual.
Para ello se siguió la siguiente metodología en el cual cuenta con las siguientes etapas:
Recopilación de información. Para esta etapa se recopila la información necesaria para el mundo de la realidad virtual inmersiva, para ello se realiza un trabajo de campo, que abarca la investigación del tema de historia, información fotográfica del entorno, los modelos tridimensionales de la fotogrametría y hardware.
Creación del entorno virtual. En esta etapa se crea las escenas por cada una de las partes que conforman la experiencia virtual. Para la realización de esta etapa se hace uso del software Blender y Unity.
Programación. En esta etapa se desarrolla el programa de realidad virtual, se busca que el usuario pueda interactuar con el mundo creado por computadora utilizando las características que brinda la tecnología de realidad virtual.
CONCLUSIONES
Se desarrolló un entorno virtual diseñado en el programa blender y unity sobre la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro). Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás.
Vazquez Cruz Kevin Alejandro, Instituto Politécnico Nacional
Asesor:Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
DISEñO DE PROGRAMAS DE RESOLUCIóN DE ECUACIONES DE ESTADO EN PYTHON.
DISEñO DE PROGRAMAS DE RESOLUCIóN DE ECUACIONES DE ESTADO EN PYTHON.
Vazquez Cruz Kevin Alejandro, Instituto Politécnico Nacional. Asesor: Dr. Agustin Martinez Ruvalcaba, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las ecuaciones de estado son ecuaciones matemáticas que relacionan la temperatura, presión y el volumen específico de una sustancia, especialmente en su fase de vapor o gas. Ellas sirven como una alternativa a las tablas termodinámicas para determinar las propiedades de una sustancia bajo ciertas condiciones predeterminadas, por lo que son de especial importancia en la ingeniería química y en procesos industriales en general.
Existen muchas ecuaciones de estado, algunas de ellas muy sencillas, y otras más bastante complejas, siendo de las más conocidas la de los gases ideales, de la cual parten la mayoría del resto de ecuaciones.
Sin embargo, esta ecuación presenta una variación con la realidad bastante considerable, por lo que no es usada comúnmente en la práctica, así que se debe recurrir a otras ecuaciones cuyas aproximaciones sean mejores. Esto representa un reto, puesto que las mejores ecuaciones tienen una complejidad de cálculo mucho mayor.
De ahí que el diseño de programas, capaces de resolver diferentes ecuaciones de estado, son de importancia no solo para el ámbito laboral sino también para el académico; así que durante el verano de investigación se trabajará para crear códigos que puedan resolver dichos problemas no solo para sustancias puras, sino también para mezclas.
METODOLOGÍA
Con ayuda del entorno de desarrollo (visualizador) Spyder, se diseñaron programas individuales para las ecuaciones de los gases ideales, van der Waals, Redlich-Kwong, Peng-Robinson y Lee-Kesler, los cuales solicitaban como datos de entrada la temperatura y la presión crítica de la sustancia pura a usar, para calcular automáticamente las constantes a y b, y eran capaces de calcular la presión, la temperatura o el volumen específico del sistema en cuestión (a excepción del programa de Lee-Kesler, que sólo calcula el volumen específico).
Posteriormente se creó un programa que calculara las constantes a y b para una mezcla haciendo uso de la Regla de Mezclado de van der Waals; y a partir de los programas hechos anteriormente, se crearon unos nuevos que pudieran resolver ecuaciones de estado para mezclas, con la diferencia de que estos pedían directamente los valores de las contantes a y b, los cuales debían ser calculados anteriormente con el programa de la regla de mezclado.
Si bien ya estaban hechos todos los programas, resultaba muy tedioso y poco eficiente tener dos programas distintos para una misma ecuación (uno para sustancias puras y otro para mezclas), así como necesitar de un tercer programa que calculara la regla de mezclado; así que se optó por integrar en un solo programa (uno para cada ecuación) la posibilidad de hacer cálculos para sustancias puras y mezclas, así como calcular en él mismo la regla de mezclado.
Cabe mencionar que el programa de gases ideales no sufrió ningún cambio puesto que funciona igual para sustancias puras como para mezclas. El primero en sufrir cambios fue el código de van der Waals: la principal mejora que se realizó fue fusionar en él los programas individuales de dicha ecuación, así como la regla de mezclado, preguntando qué opción desea usar al inicio del código, además que se agregó la opción de realizar una valoración (usando los mismos datos iniciales) seguida de otra, sin necesidad de terminar y reiniciar el programa.
Usando este código como modelo, se le aplicaron los mismos cambios en el programa de Redlich-Kwong; pero buscando mejorar la lectura del código, así como la organización, se decidió hacer uso de funciones, definidas al inicio del código y fuera del programa principal, las cuales se encargarían de realizar los procedimientos iterativos, como el cálculo de a y b de mezclado. Al ver que funcionaba tan bien, se volvió a mejorar el programa de van der Waals, implementando también las funciones.
Antes de seguir con el programa de Peng-Robinson, se aplicaron nuevos cambios a los dos anteriores, para que únicamente pidieran los valores de temperatura y presión crítica de las sustancias a usar, en vez de pedir el valor de las constantes en las opciones de mezcla, de esa forma la introducción de datos de entrada sería más estandarizada y fácil de obtener de los libros.
Las mismas mejoras fueron aplicadas en el programa de Peng-Robinson, pero dada la dificultad del cálculo de temperatura en esta ecuación, se tomó la decisión de eliminar las opciones del cálculo de esa propiedad y de la presión, dejando sólo la del volumen específico.
Al último programa, el de Lee-Kesler, se le hicieron los mismos cambios, diseñando funciones nuevas que pudieran calcular las temperaturas y presiones críticas de una mezcla, y siguiendo con la tendencia de sólo calcular volúmenes específicos.
La última modificación, hecha a todos los programas por igual, fue la corrección de errores ortográficos, que únicamente mejoraran la estética y presentación del programa. Lo cual se consiguió con el uso del comando chr(), para evitar así que el visualizador colocara en la pantalla de ejecución símbolos que dificultaran la lectura de los resultados.
No está de más decir que a todos los programas se les realizaron pruebas de escritorio para asegurarse de que los cálculos son correctos, y que los resultados obtenidos entre código y código eran similares, confirmando que lo son.
CONCLUSIONES
Durante el verano de investigación adquirí nuevos e importantes conocimientos sobre el lenguaje de programación Python, mismos que usaré a futuro para el diseño de otros programas que faciliten la resolución de problemas tanto para el sector industrial como para el académico. Al ser el proyecto de naturaleza informática, realizarlo de forma virtual no fue un impedimento para obtener buenos resultados, ya que se diseñaron 4 programas capaces de resolver ecuaciones de estado, todos ellos con resultados correctos.
Vázquez Culebro Kevin Marconi, Instituto Tecnológico de Tapachula
Asesor:Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA
Vázquez Culebro Kevin Marconi, Instituto Tecnológico de Tapachula. Zavala Lorenzana Nancy Griseny, Instituto Tecnológico de Tapachula. Asesor: Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
El proyecto es muy interesante por el motivo de que busca identificar la pureza del agua que contiene desde una botella de agua, hasta la pureza de un lago o un río. El motivo del proyecto es identificar varias empresas de la región aplicando una serie de muestras de sus productos identificando por medio de una serie de procesos estadísticos determinando si el producto es totalmente semiduro o duro ya que con esto podremos juzgar a una empresa si es que está no vende productos de calidad, o bien se puede lograr diseñar una empresa en la cual podamos nosotros aplicar u mejor y más amplio sistema de calidad dentro de la línea de producción, logrando brindar al cliente un mejor servicio y así no resulte afectado por productos de mal composición.
METODOLOGÍA
El proyecto se ha realizado mediante un proceso de arduo trabajo en equipo ya que la realización de las muestras fueron numerosas y de varios días para analizar. Es tiempo de crear una documentación compuesta de la información recaudadas de las diferentes ubicaciones en las cuales se realizaron las muestras estadísticas.
CONCLUSIONES
Los resultados de nuestro análisis estadístico dieron paso a que existe un gran índice de empresa en las cuales el tipo de agua que se comercializa en su mayoría en blanda y semidura mostrándose así que aún falta mucho que mejorar en si sistema de producción ya que el agua que esta llegando a nuestras manos aún se encuentra fuera del límite permisible para consumo, aunque es poco fuera del margen aun 3s significativo como para que este sea ignorado.
Vázquez Figueroa Lorena Guadalupe, Instituto Politécnico Nacional
Asesor:Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
EVALUACIóN DE LOS PARáMETROS CARACTERíSTICOS DE UN CALENTADOR SOLAR
EVALUACIóN DE LOS PARáMETROS CARACTERíSTICOS DE UN CALENTADOR SOLAR
Luciano López Lizbeth, Universidad Politécnica de Atlacomulco. Vázquez Figueroa Lorena Guadalupe, Instituto Politécnico Nacional. Asesor: Dr. Ricardo Arturo Perez Enciso, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Los calentadores solares son dispositivos que utilizan la luz del Sol para calentar fluidos. Están constituidos por un termotanque y el panel solar que puede tratarse de una superficie plana o de un conjunto de tubos al vacío donde se almacena energía usando superficies conductoras que se recubren con pintura especial para aumentar la absortancia del material y así el fluido circule y se caliente. El sistema puede funcionar a través del efecto termosifónico que es generado gracias al gradiente de temperatura o por flujo forzado.
Las ventajas del uso de un calentador solar son múltiples, ya que se aprovecha una energía limpia, económica y ampliamente disponible en nuestro país, pues según una publicación de Guillermo Cárdenas Guzmán de Ciencia UNAM en estados como Chihuahua se alcanzan los 5.8 kWh/m2. Con este proyecto buscamos comprender mejor el funcionamiento de los calentadores solares para así, identificar áreas de oportunidad.
METODOLOGÍA
Se establecieron valores meta para distintas variables y se evaluaron las alternativas de construcción para alcanzar estos valores. Para ello, se realizaron tablas con algunos parámetros que determinan la eficiencia de los calentadores, así como gráficas que muestran la relación entre ellos. Se mencionarán algunos:
Radiación Solar Global (Ig): Incluye la radiación recibida del disco solar y la radiación difusa dispersada al atravesar la atmósfera.
Área
Potencia Incidente (Pinc): Es la radiación solar perpendicular a los rayos del Sol. Considera lo que sería recibido por un módulo que realiza el seguimiento a la perfección el sol.
Absortancia: Relación entre el flujo de radiación absorbida por una superficie y la radiación total incidente.
Potencia Absorbida (Pabs): Es la potencia que puede ser transformada en trabajo.
Calor específico (Cp): Cantidad de calor que por kilogramo necesita un cuerpo para que su temperatura se eleve en un grado Celsius.
Caudal: Volumen de agua que atraviesa una superficie en un tiempo determinado.
Temperatura de entrada (Tin)
Temperatura de salida (Tout)
Los valores objetivo fueron la radiación solar global, temperatura de salida y caudal y se evaluó el resto de los parámetros con ayuda de las expresiones siguientes:
Pinc=Ig*Área…(1)
Pabs=Absortancia*Pinc…(2)
Q=m*Cp*(Tf - Ti)…(3)
La expresión (1) relaciona la potencia captada por un panel dependiendo de su superficie y de la radiación incidente. La (2) considera que dada una cantidad de energía incidente sobre el panel para que esta pueda convertirse en energía útil debe evaluarse la absortancia. Finalmente, la fórmula (3) da una relación entre el calor absorbido y la temperatura final de un fluido de masa m con calor específico Cp. Al dividir entre el tiempo se obtiene una ecuación que muestra que la potencia absorbida va a generar un cambio en la temperatura de una sustancia con calor específico Cp y un caudal determinado. Estos parámetros pueden ser modificados con distintos fines. A continuación, se muestra lo realizado:
Se seleccionaron para estudio cuatro estados de México: Sonora, Ciudad de México, Veracruz y Oaxaca tomando en cuenta su nivel de radiación en las cuatro estaciones del año en W/m2 según datos reportados por Smartbitt Technologies, Energía Solar en el año 2017. Posteriormente se tomaron cuatro diferentes medidas para el área dependiendo de la cantidad de tubos que contiene cada uno de los calentadores solares (8, 10, 12 y 15 tubos). Además, se consideró un valor de absortancia de 0.8 (valor común en los materiales con los que se fabrican los conductores en los calentadores). El calor especifico que se utilizó para dicho estudio fue el del agua de 4180 J /kgK.
Se estableció como objetivo alcanzar las temperaturas de 65°C (valor común de los calentadores de temperatura baja) y 90°C. Se consideraron valores de radiación global de 1000 W/m2, 840 W/m2 (valor máximo de 2016) y 600 W/m2 siendo este el mínimo alcanzado en diciembre de ese año (lo anterior según el Informe de la Calidad del aire de la Ciudad de México). Además, se consideraron absortancias de 0.8 y 0.9. Para el estudio se usaron agua y aceite (con calor específico de 4.18 kJ/kg K y 1.8 kJ/kg K a 25°C) y densidad para el aceite de 910 kg/m3. Se calculó la relación área de captación-caudal considerando una temperatura de entrada de 25°C.
Finalmente, otro parámetro a considerar es el caudal. En un calentador común con flujo forzado pueden alcanzarse flujos de hasta 17 lpm. En este caso se fijó alcanzar 5 y 10 lpm y se encontró la relación entre el área y la temperatura de salida. Se usaron rangos de área desde 2 hasta 12 m2 y temperaturas de salida desde 50°C hasta 75°C con los mismos datos de absortancia, radiación global y temperatura inicial que los anteriores.
CONCLUSIONES
Con el análisis anterior logramos comprender de mejor forma los factores que intervienen en la eficiencia de un calentador solar. Es importante considerar la zona geográfica y la estación del año pues al ser parámetros que no podemos controlar nos permiten evaluar de qué forma deben manipularse el resto de las variables para alcanzar una temperatura final determinada o calcular costos. Por otro lado, una vez que se establece una temperatura de salida la relación caudal-área queda determinada bajo una relación lineal directa que depende de la absortancia y del fluido de trabajo. También se encontró que la temperatura y el área guardan una relación lineal y esto puede hacerse más eficiente si se considera el aumento en la absortancia o el uso de fluidos con calor específico bajo. El caudal guarda una relación inversa con el aumento de temperatura, por lo tanto, cuando lo disminuimos podemos obtener mayores temperaturas, a costa de un mayor tiempo en el proceso de calentamiento. Todo lo anterior muestra que aún es posible explotar mucho de este recurso renovable.
Vázquez Gómez Alfonso, Instituto Tecnológico de Chilpancingo
Asesor:Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
DESARROLLO DE SKILLS DE ALEXA
DESARROLLO DE SKILLS DE ALEXA
Florencio Martínez Miguel Angel, Instituto Tecnológico de Chilpancingo. Vázquez Gómez Alfonso, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. Francisco Ham Salgado, Instituto Tecnológico de Iguala
PLANTEAMIENTO DEL PROBLEMA
Los dispositivos que cuentan con Alexa integrada, facilitan tareas cotidianas y no cotidianas a través de skills de Alexa, ya sea que deseemos saludar a Alexa, conocer cuál es el clima, el resultado de un partido, cambiar de canción, pausar un vídeo o incluso encender luces de la sala. El problema planteado en esta investigación, consiste en descifrar el cómo funciona una skill de Alexa, es decir, como desde una instrucción de voz, Alexa puede realizar la tarea que nosotros especificamos, donde debemos identificar tanto los conceptos abstractos como los conceptos del campo informático. A su vez, buscamos aplicar todos los conocimientos relevantes al funcionamiento de Alexa, y a través de conocimientos informáticos, desarrollar un prototipo de skill de Alexa básico, en el cual simplifiquemos un problema de la vida real.
METODOLOGÍA
Con el fin de alcanzar los resultados planteados, en primera instancia se realizó el proceso de consulta de información, información de diversas fuentes, como lo es el sitio web Amazon Developers, el cual brinda la información para el desarrollo de diversas herramientas tecnológicas con el respaldo de Amazon, otra fuente de consulta fueron videotutoriales de la plataforma Youtube. Una vez recabada la información, se comenzó el filtrado de la misma, un proceso donde se analizaron los conceptos tanto los obtenidos directamente de Amazon Developers, como de los videotutoriales de youtube. Tras la realización de esto, se materializó una definición propia de los conceptos relacionados al desarrollo y funcionamiento de skills de Amazon Alexa, diseñando la definición más sencilla de comprender si se tiene pocos conocimientos en el ámbito tecnológico. Ya completados la definición de conceptos, creamos una cuenta de Amazon para poder hacer uso de la herramienta Console, del sitio web Amazon Developers, la cual permite desarrollar dentro del mismo sitio web diversas herramientas de software para la gama de dispositivos Amazon Alexa. Configuramos la región de la cuenta para hacer uso del lenguaje Español en el desarrollo de la misma. A continuación, el equipo se planteó el enfoque que tendría la skill que se tenía que desarrollar, donde se tomaron en cuenta diversos criterios, que sea útil, que dé solución a un problema real y que fuera sencillo de desarrollar, según los mismos conceptos definidos previamente en el desarrollo del proyecto. Se llegó a la conclusión de que el enfoque de la skill sería un horario o calendario escolar, el cual cuando se le hagan cuestionamientos como ¿Qué tengo el lunes? o ¿Qué hay el jueves? , la skill deberá describir todo el horario definido al día en el que se le solicita, describiendo el nombre y horario de cada una de las asignaturas definidas, en segundo lugar, la skill deberá responder con el nombre de la asignatura, el horario y días definidos de la misma, cuando se le cuestione ¿Cuál es el horario de Métodos Numéricos? o ¿Cuando tengo tópicos avanzados de programación?, por último la skill deberá describir su finalidad y quienes fueron sus desarrolladores cuando se le solicite responder. Creamos la skill dentro de la consola en Amazon Developers, cambiamos el nombre de invocación a Horario escolar, añadimos todos los intents necesarios para los días, las materias y la información de la skill, entrenamos el modelo de intents y evaluamos el modelo entrenado para identificar posibles errores tanto en la creación de intents como en el entrenamiento del modelo. En el código de la skill a través de conocimientos básicos de Node.js desarrollamos los ResquestHandler para cada día, cada materia y para la información propia de la skill, después, se añadieron los handlers para el funcionamiento correcto de los métodos creados previamente. Hecho esto, desplegamos la skill, es decir compilamos la skill, donde hasta este punto tendríamos un prototipo, dicho prototipo fue probado tanto en los intents como a la skill entera, se corrigieron algunos errores, añadiendo más intentos a los intents de días y materias, abarcando así una mayor gama de posibilidades a los cuestionamientos de la skill. Continuando el proceso, descargamos la skill ya desplegada, para ser probada en otros equipos ajenos al usado para el desarrollo, para comprobar la portabilidad que se obtiene al desarrollar este tipo de aplicaciones que basan el grueso de su funcionamiento en servicios de la nube. Se obtuvieron resultados positivos en cada uno de los casos de prueba. Por último, se contrastó los conocimientos planteados al inicio del desarrollo de la skill, con los conocimientos reales aplicados en el desarrollo del prototipo
CONCLUSIONES
Tras concluir el desarrollo del proyecto, concluimos que los resultados planteados fueron alcanzados con éxito, ya que, en lo general, los conceptos y la información definidos en la investigación, se puede entender el funcionamiento que existe tras una skill de Alexa y en sí, el cómo funciona Alexa. A su vez, fueron definidas y utilizadas las herramientas necesarias para el desarrollo de una skill de Alexa, permitiendo así el desarrollo de un prototipo sólido dando solución o facilitando más la vida estudiantil. Es necesario destacar que algunas de esas herramientas están al alcance de la mayoría de los individuos, además de que es posible desarrollarla con mucha facilidad una vez entendiendo la metodología que se ocupa en el proceso de construcción de una Skill. Mediante el uso de Node.js, la plataforma de Amazon y video tutoriales es posible lograr la creación de una skill aún si no se tiene el conocimiento suficiente en cuanto a programación se habla. El uso de las skills de Alexa o de algún otro asistente de voz, puede ayudarnos en gran manera a medida que su implementación se va extendiendo y aprendiendo gracias a la tecnología que hay detrás de la misma. Es importante mencionar que al personalizar nuestras skill podemos extender aún más el funcionamiento que tiene y por consecuente también se puede extender el nivel de capacidad que tiene para ayudarnos de manera particular, permitiéndonos así explotar mucho más el funcionamiento que esta herramienta nos puede brindar.
Vázquez González Elisandro de Jesús, Instituto Politécnico Nacional
Asesor:Mg. Erika Patricia Ramirez Oliveros, Corporación Universitaria Minuto de Dios
ESTUDIO DE LA ETAPA DE DISEñO EN EL PROTOTIPADO DE UN SENSOR DE CALIDAD DE AIRE EN AMBIENTES DE TRABAJO DE RECOLECCIóN DE RESIDUOS SóLIDOS.
ESTUDIO DE LA ETAPA DE DISEñO EN EL PROTOTIPADO DE UN SENSOR DE CALIDAD DE AIRE EN AMBIENTES DE TRABAJO DE RECOLECCIóN DE RESIDUOS SóLIDOS.
Vázquez González Elisandro de Jesús, Instituto Politécnico Nacional. Asesor: Mg. Erika Patricia Ramirez Oliveros, Corporación Universitaria Minuto de Dios
PLANTEAMIENTO DEL PROBLEMA
Introducción
En la actualidad, la recolección de residuos sólidos presenta un gran reto para la sociedad ya que en el mundo se genera más de 2010 millones de toneladas de desechos al año (Kaza, Yao, Bhada-Tata y Van Woerden, 2018). Lo anteriormente expuesto pone en manifiesto la necesidad de manejo y recolección eficiente debido al gran volumen de material involucrado. En adición, propone un desafío ante la exigencia de adaptarse a las distintas zonas geográficas, tratando que el impacto que estos generen en el ambiente sea el menor posible y esto supone la aplicación de técnicas como la separación en la fuente.
Analizando la logística o tipo de recolección asignada a los residuos producidos por la población se pueden encontrar grandes diferencias dependiendo el lugar objeto de estudio. Un claro ejemplo lo sugiere la comparación del modelo de recolección empleado en México y en Colombia. En algunos lugares de México se acostumbra la recolección casa por casa, el usuario deja bolsas plásticas para ser recolectadas, mientras que en otros lugares se usan los contenedores comunitarios, solo en las grandes ciudades se utilizan cuartos de aseo. En Colombia, aunque también se acostumbra la recolección puerta a puerta, cada vez es más frecuente el uso de cuartos de almacenamiento, especialmente en nuevas construcciones.
Al hablar del volumen de residuos sólidos, también se debe considerar la descomposición de estos y en consecuencia la generación de los distintos gases. Uno de los principales gases es el metano (CH4) pues los residuos orgánicos son su principal foco de emisión de origen natural con un aproximado del 30% del total de gas emitido, superando a otras fuentes naturales como los pentanos (23%), la extracción de combustibles fósiles (20%) y los procesos de digestión y defecación de animales como el ganado (17%) (PRTR España, 2020).
El metano causa grandes efectos a la salud humana. Al ser inhalado en grandes cantidades, el metano (CH4) puede causar asfixia ya que disminuye el contenido de oxígeno del aire provocando una posible pérdida de conocimiento e incluso la muerte (PRTR España, 2020). Adicionalmente, las emisiones de metano favorecen la formación del ozono en la atmósfera, el cual se encuentra en las capas más bajas y tiene un impacto significativo en la salud de las personas. Algunos de los mencionados efectos incluyen irritación de las vías respiratorias, sensaciones de ardor, complicaciones en cuadros de asma, disfunciones pulmonares y muertes prematuras. Otro efecto importante se presenta al inhalar constantemente ozono, generando alteraciones en la respuesta del sistema inmunológico, lo que lleva a una disminución en su capacidad inmunológica ante enfermedades de vías respiratorias como lo es el COVID-19 (Quintanilla 2020).
En el presente artículo se estudiarán las etapas de prototipado de un sensor de calidad de aire, que entregue datos en tiempo real y permita el favorecimiento de la seguridad y la salud de los trabajadores. Lo anterior mediante el análisis de alternativas de materiales, sensores y funcionalidad. Para tal fin se realizará una revisión documental de fuentes primarias y secundarias relacionadas con el entorno de trabajo de personas que realizan recolección de residuos sólidos en cuartos de almacenamiento y disposición final en rellenos sanitarios.
¿Cómo el estudio de la etapa de diseño puede contribuir al prototipado de un sensor de calidad de aire en ambientes de trabajo de recolección de residuos sólidos?
METODOLOGÍA
Estudio descriptivo, con enfoque cualitativo. Para este análisis se ha realizado una revisión documental de fuente primarias y secundarias relacionadas con el entorno de trabajo de personas que realizan recolección de residuos sólidos en cuartos de almacenamiento y disposición final en rellenos sanitarios. La metodología se lleva a cabo en fases, la primera la construcción de los resúmenes analíticos estructurados, segunda selección de posibles materiales y definición de sus características y finalmente, integración de los materiales de acuerdo con las características del prototipo.
CONCLUSIONES
Se puede concluir que el prototipado contempla varias fases entre ellas la de diseño, que incluye la selección de materiales. Para el caso del sensor de aire la revisión permitió la elección de materiales que ofrecieran una estructura liviana, rígida y resistente. En cuanto a los sensores, se eligieron por su precisión y exactitud. Finalmente, otros equipos en el mercado ofrecen una amplia gama de opciones de medición de gases, sin embargo, el dispositivo propuesto es específico para el sector de recolección de residuos lo que permite delimitar los sensores y disminuir su costo final.
Vazquez Gonzalez Perla Judith, Instituto Tecnológico de Tuxtla Gutiérrez
Asesor:Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla
APLICACIÓN DE LA ECUACION DE LA LANGMUIR PARA CAPTURA DE CO2 UTILIZANDO ZEOLITAS
APLICACIÓN DE LA ECUACION DE LA LANGMUIR PARA CAPTURA DE CO2 UTILIZANDO ZEOLITAS
Vazquez Gonzalez Perla Judith, Instituto Tecnológico de Tuxtla Gutiérrez. Asesor: Dra. Laura Alicia Paniagua Solar, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los desequilibrios ambientales en muchas partes del país ocurren a medida que avanza el desarrollo y agregan poco valor al comportamiento de la prestación de servicios ambientales (SSAOT, 2012). El proceso de adsorción ayuda a eliminar este tipo de líquido contaminante (Bathen et al., 1997). Las zeolitas adsorbidas se utilizan como secadores de gas y para la separación de gases de mordenita y clinoptilolita. Algunas nuevas aplicaciones de zeolitas también conocidas como medios hidropónicos en la agricultura o en la descontaminación del suelo (Ostroumov et al., 2003).
METODOLOGÍA
Las zeolitas son sustancias cristalinas y son minerales aluminosilicatos hidratados que contienen cationes de metales alcalinos en sus canales y cavidades. Según la Asociación Mineralógica Internacional, se caracterizan por la susceptibilidad al intercambio iónico y la deshidratación reversible.
La característica estructural básica de la zeolita es una estructura tetraédrica tridimensional en la que cada átomo de oxígeno está protegido por dos tetraedros.
CONCLUSIONES
Una isoterma de adsorción describe el equilibrio de la adsorción de un material en una superficie a temperatura constante, dicho esto en las gráficas podemos apreciar el comportamiento de cada una de las muestras de la zeolita por medio de las temperaturas, a lo cual observamos que se comporta distinto ante las diferentes temperaturas y mayor sea la concentración de equilibrio el inverso del adsórbete es menor.
Vázquez Isidro Narayoana, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
REALIDAD VIRTUAL EN LA EDUCACIóN SOBRE ENERGíAS
RENOVABLES
REALIDAD VIRTUAL EN LA EDUCACIóN SOBRE ENERGíAS
RENOVABLES
Vázquez Isidro Narayoana, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Dr. Guillermo Santamaria Bonfil, Instituto Nacional de Electricidad y Energías Limpias
PLANTEAMIENTO DEL PROBLEMA
Un grupo de investigadores de Centro de Estudios de las Energías Renovables del Instituto de Ingeniería de la Universidad Autónoma de Baja California, proponen un diseño que consideran una combinación de varios equipos individuales aislados mediante una o varias micro redes. La localización de este pequeño aerogenerador está en Puertecitos, Baja California, México. Para cumplir dicho diseño se utiliza un modelo de Optimización Híbrida de Múltiples Recursos Energéticos (HOMER Pro, por sus siglas en ingles). Los resultados de la simulación permiten identificar la tecnología minieolica más adecuada, para situarlo en el mejor emplazamiento y predecir la energía anual que se puede producir en él. Se proporciona un análisis técnico de distintas opciones y se determinó que para comunidades que se encuentre a más de 40 Km de la red eléctrica tradicional la menor opción es la instalación de micro redes.
La problemática en la que enfrenta esta presenta. La demanda que proporciona del micro red no es suficiente para cubrir las necesidades del consumo energético que tiene el pueblo de Puertecitos. En la casa de prueba se realizaron mediciones durante un año y los resultados obtenidos fueron utilizados como perfil de demanda de cada hogar del proyecto.
METODOLOGÍA
Por lo que se optó agregar un segundo aerogenerador de baja potencia la cual cumplió con la demanda que requiere el pueblo de Puertecitos para ello se desarrolló un interfaz de usuario donde nos permitie conocer el comportamiento de la demanda de energía eléctrica que nos proporcionara el fabricante del aerogenerador. La simulación se desarrolló en Unity ya que es una herramienta de desarrollo de videojuegos y se define como software libre.
Para dar inicio del interfaz del usuario se hizo una recopilación documental de cuatro aerogeneradores de baja potencia estas se compararon y a la que se ajustaban más a nuestras necesidades será la que se diseñara en una ambiente en 3D. El aerogenerador E200L cumplió con nuestras expectativas, posteriormente se tomo información de las características y del funcionamiento así interpretarlo en diferentes paneles donde nos permite conocer mas a detalle el aerogenerador.
Para la interpretación grafica se creó un código. En este código consiste en definir las dimensiones y la interpolación de la curva de potencia. Si el usuario desea conocer valores instantáneos de la curva de potencia esta tiene la capacidad de arrojar los datos requeridos.
CONCLUSIONES
Es necesario mencionar que aún falta agregar texturas al aerogenerador y modificar el código de la gráfica del aerogenerador E200L ya que no se alcanza percibir los valores de viento (m/s) a simple vista, por último en el panel de CaulculadoraPow que tiene como función de arrogar valores instantáneos, al introducir una número con más de tres decimales esta no arroja la potencia que se está generando de manera instantanea, pero al introducir un nuero con tan solo dos decimales esta nos marca un error en la consola por lo que hay que tener que corregir.
Vazquez Isidro Zuleny, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
TEMPERATURA Y TIEMPO DE ANAQUEL DE LA PANELA PARA LA OBTENCIóN DE CRISTALES DE SACAROSA
León García María Fernanda, Tecnológico de Estudios Superiores de San Felipe del Progreso. Martinez Mauricio Misael, Tecnológico de Estudios Superiores de San Felipe del Progreso. Vazquez Isidro Zuleny, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mtro. Segundo Victor Olivares Muñoz, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
PLANTEAMIENTO DEL PROBLEMA
El proceso de producción de la panela es una alternativa para la disminución de la pobreza dentro de la comunidades rurales; de acuerdo a (Silva, 2005) el aprovechamiento de las potencialidades propias ayuda a transformar a los sistemas productivos locales y mejorar la calidad de vida de la población y generar un proceso endógeno para el desarrollo local; la panela logra ser un sustituto del azúcar comercial que contiene componentes que afectan su comercialización y consumo; una de la principales características dentro de esta barreras son las propiedades fisicoquímicas se notan en la imagen del producto, debido a que su propiedades abala desde la coloración, olor, sabor y otras características que significativamente son muy notadas por el consumidor; implementar e innovar el proceso de la panela de una forma natural para la obtención de un producto de la sacarosa con mayor pureza es uno de los desafíos a aplicar, teniendo similitudes de la sacarosa con proceso de alta industrialización; contrarrestando a la pobreza con el aprovechamiento de la panela con mayor pureza.
En el proceso de cristalización se propone para la separación de la panela en solución saturada; en donde la manipulación de las variables independientes (tiempo y temperatura) nos permita obtener una mayor cantidad de cristales de sacarosa de una forma natural; de acuerdo a las similitudes de las normalizaciones de la sacarosa comercial; teniendo como pregunta de la investigación ¿Cuál es la temperatura y tiempo de anaquel de la panela en dilución saturada que permite la obtención de cristales de sacarosa con características fisicoquímicas para el consumo?
METODOLOGÍA
La investigación por sus características experimentales se ejecutó en base a un diseño de tratamientos en arreglo factorial del tipo 32 y se ejecutó un diseño de experimento completamente al azar (Montgomery, 1991); con tres repeticiones, donde el factor A, fue la temperatura de anaquel (A1: 8°C, A2:12°C, A3:16°C) y el factor B fue el tiempo de anaquel (B1: 15 días, B2:30 días, B3:45 días) por lo cual los tratamientos vienen dados por todas las combinaciones posibles entre los niveles de los factores; haciendo un total de 9 tratamientos para la obtención de cristales de sacarosa a partir de panela en dilución saturada. Se utilizaron cañas de la región de Santa Rosa de Lima, Perú, la materia prima, se seleccionaron aquellas que alcanzaban la madurez organoléptica, pues se considera que estas tienen la máxima concentración de jugo en la caña, realizando la determinación del índice de madurez de la caña, calculando los sólidos totales de la base y el extremo terminal de la caña y mediante la siguiente formula se estableció el índice de madurez.
Donde se establece que IM < 85% tierna o no madura, 85%> IM< 100% madura, IM>100 sobremadura.Al tener la materia prima, se realiza un lavado artesanal a la caña, y se somete a un molido artesanal mejor conocido como Trapiche en el Perú, aproximadamente por 30 minutos donde se extrae el jugo de 490 cañas, el jugo se somete a un proceso de evaporación, al eliminarse el agua, el producto se denomina cachas, es la miel en el punto de panela sin batido, se realiza la clarificación, obteniendo la separación de las muestras (panela liquida).En la obtención de los cristales de sacarosa a partir de la panela, como primera instancia se realiza la recepción de la panela liquida, misma que es procedida a su caracterización, para los efectos de control de calidad, posteriormente se lleva a cabo el pesado de la panela liquida, con la finalidad de establecer los cálculos de eficiencia o rendimiento; para asegurar la inocuidad del proceso y el acondicionamiento de la panela, se somete a un pasteurizado, donde el producto se llevado a 85°C, enseguida se realiza el envasado a temperatura de 85°C, en recipientes de vidrio color ámbar de 350 ml cada uno, cada muestra embazada se coloca en refrigeración, almacenándose cada uno a temperaturas (8°C, 12°C, 16°C) y tiempo (15, 30, 45 días)de acuerdo a los tratamientos.
Al cumplir el tiempo de refrigeración, los cristales son extraídos, por medio de un trasvasado del líquido no cristalizado, conservando únicamente los cristales, mismos que son sometidos a un lavado de manera rápida para eliminar restos de sacarosa diluida de la superficie de los cristales, enseguida se realiza un oreado, para eliminar restos de agua de la superficie de los cristales, por medio de un secador de bandejas, a una temperatura de 60°C; para obtener una granulometría homogénea y más fina de los cristales, que pasan por un molido, realizado por molino de tornillos regulado, finalmente los cristales son envasados en un envase de vidrio con cierre hermético y se modifica según tratamiento. En la determinación de las características de los cristales de sacarosa, se utilizan los métodos recomendados por la Comisión internacional de Métodos Uniformes para el Análisis del Azúcar (ICUMSA: International Commission for Uniform Methods of Sugar Analysis), es el organismo internacional de Normalización. Y se realizan los análisis físico-químicos de los cristales como el color cenizas conductimétricas, humedad , polarización azucares reductores factor de seguridad, densidad. Rendimiento, velocidad de solubilidad, pH, porcentaje de acidez titulable, capacidad edulcorante. Una vez obtenidos los cristales con ciertas propiedades requeridas se compararán con el producto azúcar rubia doméstica los cuales debe cumplir con las características físico-químicas y organolépticas para determinar si apto para su consumo.
CONCLUSIONES
Se trabajó el tratamiento a temperatura 16°C por un tiempo de 15 días en almacenamiento; sé logró encontrar cristales de sacarosa; con humedad de 0.18%, densidad 1.573 g/mL, rendimiento de 230 g de cristales en una muestra de 350 mL de panela; pH de 5.72; con color a 420 nm de 1478 UI, lo cual está dentro los parámetros establecidos por la ICUMSA; es necesario mencionar que aún falta la evaluación de la polarización y factor de seguridad con ello se demostrará totalmente la aptitud para el consumo; además se sabe que existe aún que ejecutar los demás tratamientos y evaluar diferencias significativas para seleccionar el mejor.
Vazquez Moisen Alonso Netzai, Universidad Autónoma de Guerrero
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO USANDO áNODO GALVáNICO
PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO USANDO áNODO GALVáNICO
Vazquez Moisen Alonso Netzai, Universidad Autónoma de Guerrero. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Uno de los principales problemas a los que se enfrenta el área de la construcción es el deterioro de los materiales, esta de puede dar de manera natural o espontanea debido a la intervención de agentes externos que intervienen. En el caso del concreto reforzado, la corrosión es el principal problema al que se enfrenta este material tan utilizado en la construcción. Las principales causas de la corrosión del acero en las estructuras de concreto reforzado son: la carbonatación en zonas industriales y el ataque de cloruros en zonas costeras.
La corrosión es un proceso electroquímico que afecta al acero de las estructuras de concreto reforzado, en el que debido a las heterogeneidades presentes en la superficie de los metales y que producen zonas con diferentes niveles de energía, propician la formación de micro celdas electroquímicas, en las que el concreto cumple la función de electrolito y el acero cumple las funciones de cátodo y ánodo, cumpliendo así, las condiciones para que el acero de refuerzo de corroa.
Pero, antes de que inicie el proceso de corrosión, el concreto además de cumplir con las propiedades físicas propias para el buen funcionamiento de una estructura, también participa como una protección química del acero gracias al pH alcalino (de 12.5 a 13.6) que alcanza el concreto después del proceso de hidratación del cemento, por lo que primero se debe debilita la capa pasiva que forma el concreto, que se logra principalmente por un proceso de carbonatación, debido a la presencia de NaOH, KOH y específicamente Ca(OH)2 con componentes ácidos de la atmósfera, tales como SO2 y CO2 ; éste último es el mas abundante, y del cual se deriva el nombre de carbonatación; los productos de tales reacciones son carbonatos, sulfatos y agua, generando un descenso en la alcalinidad del concreto.
La carbonatación afecta directamente a la cinética del proceso, es decir, a la velocidad a la que se corroe el acero.
METODOLOGÍA
Debido a que la estancia fue en modalidad virtual no hubo oportunidad de realizar una experimentación presencial, por lo que nuestro asesor nos mostró la manera en la que se protege un metal por protección catódica usando un ánodo de galvánico o ánodo de sacrificio.
Para que exista corrosión se deben cumplir las siguientes condiciones:
1.- La presencia de un ánodo que produzca electrones (el metal que se oxida)
2.- El cátodo en la superficie donde se efectúa la reducción.
3.- La presencia de un electrolito.
4.- Una conexión eléctrica entre el ánodo y el cátodo que permita la transferencia de electrones.
Las reacciones que se llevan a cabo en la celda electroquímica son:
En el ánodo:
M0 ---> Mn+ ne-(Oxidación)
En el cátodo:
Mn + ne- ---> M0 (Reducción)
Cuando es analizada una estructura de concreto reforzado, puede notarse que el concreto funciona como electrolito, mientras que el acero de refuerzo realiza la función de cátodo y ánodo, y la conexión eléctrica la proporciona el armado interno de la misma estructura. Haciendo así posible la oxidación del acero de refuerzo puesto que hay oxígeno disuelto en el electrolito (disolución poro del concreto) las reacciones presentes son:
Fe ---> Fe2+ + 2e-
O2 + 4e- + 2H2O ---> 4HO-
Entonces el Acero se oxida cediendo electrones al Oxigeno quien se reduce.
La protección catódica consiste en colocar un material más activo que el material que se quiere proteger, colocando un Ánodo galvánico o ánodo de sacrificio de este material que será el que ceda los electrones (se oxide) y haciendo que el material que se quiere proteger funcione como cátodo, cumpliendo así la reacción del oxigeno que se continuará reduciendo, protegiendo de esta manera el refuerzo de acero.
Al consultar una tabla de Potenciales Estándar (reducción) en Solución Acuosa a 25°C es posible notar que hay varios materiales mas activos que el hierro del que está hecho el acero, por lo que se puede elegir de entre los mas negativos para poder usarlos como Ánodo galvánico. Como se muestra en la siguiente ejemplo usando como ánodo galvánico una placa de Zinc.
Las reacciones presentes cuando se usa un ánodo galvánico de Zinc son:
Zn ---> Zn2+ + 2e-
O2 + 4e- + 2H2O ---> 4HO-
El acero no reacciona de ninguna manera ya que quien está cediendo electrones es el ánodo galvánico de zinc, y hasta que se agote el ánodo galvánico el acero no será afectado.
CONCLUSIONES
Durante la estancia aprendí la importancia de proteger las estructuras de concreto reforzado frente a los daños que puede ocasionar la corrosión, ya que esto pude ahorrarnos problemas en un futuro tanto estructurales como económicos. Además de la protección catódica, existan formas más convencionales de proteger el acero en una estructura de concreto reforzado, como una buena elaboración del concreto disminuyendo la porosidad de presente creando así una protección mejor ante el ataque de agentes químicos externos.
BIBLIOGRAFÍA
Duina Guadalupe Reyes Chan. (2019). Tesis, Evaluación del deterioro de estructuras de concreto reforzado con y sin la adición de iones cloruro. San francisco de campeche: universidad autónoma de campeche, facultad de ciencias químico biológicas.
Manuel Jesús Luna Brito. (2014). Tesis, análisis del proceso de corrosión mediante el uso de la técnica de ruido electroquímico en probetas de concreto reforzado, fabricadas con agregados calcáreos, expuestas en un medio marino. San francisco de campeche, camp., México: universidad autónoma de Campeche, facultad de ciencias químico biológicas.
Vázquez Moreno María Fernanda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas
Asesor:Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
ASOCIATIVIDAD EMPRESARIAL PARA LOS PROCESOS ADMINISTRATIVOS: ESTRATEGIA PARA LA COMPETITIVIDAD EN LAS MIPYMES DEL SECTOR METALMECáNICO EN LA REGIóN CARIBE COLOMBIANA.
Camacho Ochoa Carlos de Jesús, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Interiano Muñoz Mildred Montserrat, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Vázquez Moreno María Fernanda, Instituto de Ciencia, Tecnología e Innovación del Estado de Chiapas. Asesor: Dr. Danilo Antonio Junco Colina, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la globalización y el creciente intercambio de economías, ha ocasionado la apertura de mercados y con ello el incremento de actividades de exportación, incremento de sus dimensiones y de su interdependencia; lo cual, ha sido provocado por la reducción de las distancias económicas entre los países. Esta apertura de mercados, ha generado condiciones no favorables para las mipymes del sector metalmecánico de la región caribe colombiana que se ven amenazadas por la competencia externa. En este sentido, las mipymes son altamente vulnerables ante el ingreso de productos de competencias externas, en las cuales se ve comprometida la productividad y competitividad en el mercado.
Esta problemática obliga a las mipymes a plantearse nuevos retos e impulsa la adopción de estrategias colectivas de cooperación y asociación que le permitan enfrentar desde lo local, la competencia internacional a través del desarrollo de procesos administrativos asertivos; los cuales, permiten aumentar las ventajas competitivas. Por lo que, durante el verano de investigación se estudiaron las bases teóricas de un modelo de asociatividad empresarial para los procesos administrativos en el ámbito práctico del sector metalmecánico en la región caribe colombiana.
METODOLOGÍA
Se realizó una revisión y análisis bibliográfica exploratoria a través de fuentes de información secundaria, donde el objeto de investigación fueron 60 artículos científicos sobre asociatividad empresarial, mipymes, procesos administrativos, sector metalmecánico, competitividad y productividad. Esto con la finalidad de poder entender explicar y analizar el contexto del sector y las palabras claves del proyecto a realizar.
Para la recolección de la información, se diseñó una matriz de revisión bibliográfica que tiene como elementos de selección: Título, datos bibliográficos, ideas principales y resumen. Dichos artículos se tomaron de bases de datos y portales bibliográficos que cuentan con respaldo académico, los cuales sirvieron para la revisión y construcción del marco teórico de la investigación.
Posteriormente, se procedió a la aplicación de los instrumentos para la recolección de la información, dicho instrumento fue una encuesta realizada a 46 responsables de procesos administrativos. Es menester indicar que el presente proyecto es de tipo no experimental, así mismo la investigación es de tipo transversal, puesto que los datos obtenidos se obtuvieron en un único momento, es decir, cuando se realizó la encuesta y no en instantes diferentes con la intención de comparar, cabe mencionar que es una investigación explicativa, por cuanto determinará las relaciones entre las variables, estableciendo los factores que pueden explicar los fenómenos que se estudian. En el caso del proyecto las relaciones explicativas a analizar son la asociatividad empresarial y los procesos administrativos.
Una vez recopiladas las respuestas, se realizó el procesamiento de la información a través de la tabulación de los resultados obtenidos de nuestro instrumento de recolección de datos, esta representación de los resultados se hizo a través de tablas, gráficos de barra y de pastel en excel, con los porcentajes equivalentes a cada resultado de las encuestas realizadas respectivamente.
Con la información recopilada se procedió al análisis estadístico de los datos obtenidos para interpretar la información con respecto a los indicadores de estudio los cuáles fueron: tipos de asociatividad empresarial, competencias esenciales de asociatividad empresarial, desempeño de los miembros del equipo gerencial y docente para los procesos administrativos, roles del equipo gerencial empresarial en la asociatividad empresarial de los 46 responsables de procesos administrativos.
Por último, se realizó una revisión general de la información obtenida tanto en las fuentes primarias como en las secundarias, se redactaron las conclusiones generales del tema de investigación, así como también el aporte a la agenda 2030 de los objetivos de desarrollo sostenible de la investigación realizada en esta estancia de verano de investigación 2021.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la asociatividad empresarial, así como también estudiar los tipos de asociatividad aplicables a los procesos administrativos;El modelo de asociatividad empresarial para los procesos administrativos tiene enfoque en objetivos comunes, tareas definidas, relaciones interpersonales, social y mental así como también grados de interdependencia.En este orden de ideas, se concibe la asociatividad empresarial como una alianza estratégica que tiene por objetivo mejorar la gestión, la productividad y la competitividad de quienes la integran, permite la unión de fortalezas y capacidades de las asociaciones para que éstas puedan complementarse y potencializarse de manera colectiva e individual.
Finalmente, se concluye que este proyecto aporta al objetivo de desarrollo sostenible 8 ya que fomenta el crecimiento económico sostenido en el sector metalmecánico y en la región caribe colombiana, es inclusivo y sostenible, además, fomenta el empleo pleno y el trabajo decente para todos. La configuración de un modelo de asociatividad empresarial evidencia el incremento de la productividad y competitividad, desarrollo del sector productivo en la región, apertura de mercados y mayor poder de negociación. El modelo asociativo planteado deriva en la construcción de ventajas competitivas en el sector metalmecánico, al conjugar esfuerzos entre las mipymes con los actores locales, para crear valor agregado de sus productos.
Se destaca que los resultados de este estudio pueden ser aplicables a mipymes, establecidas en otras regiones, en virtud de las características similares que presenta este sector y de la dinámica del comportamiento empresarial que se establece en el nivel regional, nacional e internacional.
Vazquez Neri Bryan Eduardo, Universidad Autónoma de Guerrero
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
ANALISIS GEOTECNICO DE LA CIUDAD DE CHILPANCINGO DE LOS BRAVO, GUERRERO.
ANALISIS GEOTECNICO DE LA CIUDAD DE CHILPANCINGO DE LOS BRAVO, GUERRERO.
Vazquez Neri Bryan Eduardo, Universidad Autónoma de Guerrero. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En muchas ocasiones, ya sea por falta de información o cuestiones económicas, creemos que un estudio geotécnico no es necesario o bien, que es muy costoso. Debido a esto, al realizar las edificaciones destinadas a viviendas o edificaciones de tipo B, regularmente no se realizan dichos estudios, teniendo como consecuencia problemas en las edificaciones, debido a posibles desplazamientos verticales en los suelos subyacentes a la estructura producto de las cargas adicionales que genera la misma sobre los suelos.
Dado lo anterior, es necesario conocer que tipos de suelos se tienen en el lugar a construir alguna edificación, haciendo énfasis a si clasificación y sus propiedades mecánicas relacionadas a la resistencia al corte de estos, debido a que el suelo soportara una carga extra a la que sometida en estado natural. Para nuestro caso se enfocará en la ciudad de Chilpancingo de los Bravo, asegurando la infraestructura y mayor seguridad para el usuario, ya que actualmente en el reglamento de construcción para la ciudad de Chilpancingo de los Bravo, solo hay dos tipos clasificaciones de suelo (H. ayutamiento de Chilpancingo, 1999).
METODOLOGÍA
El análisis geotécnico será evaluado en dos etapas, las cuales son trabajo de campo y posteriormente trabajo de laboratorio; distribuidas de en la siguiente manera:
Etapa de campo.
Dentro de esta fase se encuentra la ubicación, numero de sondeos y extracción de los materiales para su análisis en laboratorio.
Localización, delimitación y determinación del número de sondeos, serán ubicados en las zonas más críticas de la ciudad y a su vez de manera morfológica, con la finalidad de obtener datos representativos.
Exploración del subsuelo, para la identificación de los estratos que predominan en el lugar, llevado a cabo por métodos directos, obtenidos por los sondeos a realizar.
Obtención de las muestras cubicas de tipo inalterada, con dimensiones aproximadas de 0.40 m por lado, con la finalidad de un buen manejo y análisis, además cuidando que se conserven y mantenga con las propiedades con las que se extrajo la muestra. (N-CMT-1-01), (N-CMT-1-02) (N-MCT-1-03).
Fase de laboratorio.
Se analizarán y describirán los datos obtenidos a través de pruebas de laboratorio de los suelos extraídos en campo. Dentro de las pruebas por analizar son:
Propiedades índices.
Granulometría de las partículas donde se obtendrá la distribución de tamaños de las partículas de los suelos encontrados. (NMX-C-496-ONNCCE-2014).
Humedad de campo, con la finalidad de obtener el porcentaje de agua que contiene la muestra (NMX-C-503-ONNCE-2015).
Análisis de la plasticidad del suelo, para conocer los contenidos de humedad que tienen los suelos al momento de cambiar de un estado a otro (platico, liquido o solido). (NMX-C-493-ONNCCE-2018).
Propiedades mecánicas.
Desarrollo de la prueba de compresión axial.
Prueba de compresión triaxial no consolida, no drenada, especificada en la norma (NMX-C-432-ONNCCE-2002). Con el fin de obtener el ángulo de fricción y cohesión de los suelos ya que son parámetros relacionados a la resistencia al corte de los suelos.
Análisis de los resultados obtenidos en la prueba triaxial rápida.
Una vez realizadas las pruebas, se procederá con la interpretación de los resultados en base a las normativas correspondientes, (Baja M., 2013) con el objetivo de poder identificar y clasificar el tipo de suelo que predomina en la región. Esta clasificación de suelos será designada por el sistema unificado de clasificación de suelos (SUCS), ya que se basa en la plasticidad y el tamaño de las partículas de suelo y es el modelo empleado en estudio geotécnico para edificaciones.
CONCLUSIONES
Al finalizar el análisis geotécnico, se pretende:
Ampliar el alcance de las zonas de suelo que maneja el reglamento de construcción para la ciudad de Chilpancingo de los Bravo, ya que se ha demostrado que la variedad de suelos es muy compleja, y necesario tener más datos que ayuden a poder tomar decisiones constructivas de forma rápida y acertada.
Identificar las zonas geotecnias más críticas y vulnerables y poder emplear una cimentación o mejora de suelos adecuado para realizar edificaciones de tipo B, específicamente casa-habitación.
Difundir entre la población, la información recabada para dar a conocer la importancia que tienen realizar un estudio geotécnico, ya que es importante realizarlos debido a que los suelos son el lugar que recibirá la estructura a construir y conocer a conocer sus características nos ayuda a identificar las necesidades que debemos considerar con base al proyecto a realizar, evitando problemas a futuro, brindado mayor seguridad y reduciendo gastos a mediano plazo.
Agradecimientos:
M.C. Jose Israel Bocanegra Torres.
Vazquez Ortiz Jairo de Jesus, Universidad Politécnica de Tecámac
Asesor:M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
ESTUDIO NUMéRICO DE UN ÁRBOL DE LEVAS SOMETIDO A CARGAS DE FATIGA
ESTUDIO NUMéRICO DE UN ÁRBOL DE LEVAS SOMETIDO A CARGAS DE FATIGA
Enzastiga Quesada Joel, Universidad Politécnica de Tecámac. Vazquez Ortiz Jairo de Jesus, Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Estudio Numérico de un Árbol de levas Sometido a Cargas de Fatiga.
METODOLOGÍA
Simulaciones de esfuerzo y temperatura en un árbol de levas.
El esfuerzo es una carga aplicada a una probeta en un ensayo de tracción o compresión dividida por el área transversal de la probeta. Al calcular el esfuerzo de ingeniería se ignora el cambio del área transversal que se produce con aumentos y disminuciones en la carga aplicada. También se denomina esfuerzo convencional.
Por ello la simulación de estos consiste en una serie de paso para poder realizar la misma, los cuales son:
Crear estudio de Simulación.
Defina materiales para cada sólido, vaciado y viga.
Defina las restricciones.
Defina las cargas externas.
Para ensamblajes y piezas multi cuerpo, utilice componente de contacto y grupos de contactos para simular el comportamiento del modelo.
Propiedades de estudio
Nombre de estudio
Árbol de levas
Tipo de análisis
Análisis estático
Tipo de malla
Malla sólida
Efecto térmico:
Activar
Opción térmica
Incluir cargas térmicas
Temperatura a tensión cero
298 Kelvin
Incluir los efectos de la presión de fluidos desde SOLIDWORKS Flow Simulation
Desactivar
Tipo de solver
FFEPlus
Efecto de rigidización por tensión (Inplane):
Desactivar
Muelle blando:
Desactivar
Desahogo inercial:
Desactivar
Opciones de unión rígida incompatibles
Automático
Gran desplazamiento
Desactivar
Calcular fuerzas de cuerpo libre
Activar
Fricción
Desactivar
Utilizar método adaptativo:
Desactivar
Carpeta de resultados
Documento de SOLIDWORKS (c:usersmisael~1appdatalocal emp)
Unidades
Sistema de unidades:
Métrico (MKS)
Longitud/Desplazamiento
mm
Temperatura
Kelvin
Velocidad angular
Rad/seg
Presión/Tensión
N/m^2
Propiedades de material
Referencia de modelo
Propiedades
Componentes
Nombre:
AISI 316L Acero inoxidable
Tipo de modelo:
Isotrópico elástico lineal
Criterio de error predeterminado:
Desconocido
Límite elástico:
1.7e+008 N/m^2
Límite de tracción:
4.85e+008 N/m^2
Módulo elástico:
2e+011 N/m^2
Coeficiente de Poisson:
0.265
Densidad:
8027 kg/m^3
Módulo cortante:
8.2e+010 N/m^2
Coeficiente de dilatación térmica:
1.7e-005 /Kelvin
Sólido 1(Sólido importado2)(Pieza1),
Sólido 2(Sólido importado3)(Pieza1),
Sólido 3(Cortar-Extruir1)(Pieza1),
Sólido 4(Sólido importado1)(Pieza1)
Datos de curva:N/A
Nombre de sujeción
Imagen de sujeción
Detalles de sujeción
Fijo-1
Entidades:
2 cara(s)
Tipo:
Geometría fija
Fuerzas resultantes
Componentes
X
Y
Z
Resultante
Fuerza de reacción(N)
-1459.67
-2528.23
0.0979004
2919.35
Momento de reacción(N.m)
0
0
0
0
Cargas y sujeciones
Nombre de carga
Cargar imagen
Detalles de carga
Torsión-1
Entidades:
17 cara(s)
Referencia:
Cara< 1 >
Tipo:
Aplicar momento torsor
Valor:
150 N.m
Temperatura-1
Entidades:
72 cara(s)
Temperatura:
90 Celsius
Información de contacto
Contacto
Imagen del contacto
Propiedades del contacto
Contacto global
Tipo:
Unión rígida
Componentes:
1 componente(s)
Opciones:
Mallado compatible
Información de malla
Tipo de malla
Malla sólida
Mallador utilizado:
Malla estándar
Transición automática:
Desactivar
Incluir bucles automáticos de malla:
Desactivar
Puntos jacobianos
4 Puntos
Tamaño de elementos
8.23406 mm
Tolerancia
0.411703 mm
Calidad de malla
Elementos cuadráticos de alto orden
Información de malla - Detalles
Número total de nodos
24792
Número total de elementos
14744
Cociente máximo de aspecto
6.2811
% de elementos cuyo cociente de aspecto es < 3
98.9
% de elementos cuyo cociente de aspecto es > 10
0
% de elementos distorsionados (Jacobiana)
0
Tiempo para completar la malla (hh;mm;ss):
00:00:05
Nombre de computadora:
CIM-1
CONCLUSIONES
Tenemos por conclusion que el arbol de levas al ser sometido a las cargas que le producen fatiga es meramenmte resistente ya que el material elegido resiste el esfuerzo y trabajo aplicado. Sin embargo tenemos que caundo es sometido a una cierta temperatura el arbol de levas, se le es incapaz de trabajar adecuadamente para dar los resultados esperados y empiza a tener un desgaste muy rapido en el material por lo que llegamos al analisis que las levas deberian estar mas juntas entre si para que el funcionamiento sea el adecuado y la temperatura no sea un impedimento para realizar su trabajo correspondiente dentro de un motor
Vázquez Rosas María de Jesús, Instituto Tecnológico Superior de Guanajuato
Asesor:Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato
IMPLEMENTAR ESTRATEGIAS EFICACES QUE TRANSMITAN LA INFORMACIóN NUTRIMENTAL DEL NUEVO ETIQUETADO PROPUESTO POR LA NORMA NOM-051
IMPLEMENTAR ESTRATEGIAS EFICACES QUE TRANSMITAN LA INFORMACIóN NUTRIMENTAL DEL NUEVO ETIQUETADO PROPUESTO POR LA NORMA NOM-051
Vázquez Rosas María de Jesús, Instituto Tecnológico Superior de Guanajuato. Asesor: Esp. Mayra Victoria Campos, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
México es uno de los principales países con problemas de obesidad, de acuerdo a los estudios que se han realizado en el país existen un gran número de individuos con exceso de peso que genera graves complicaciones de salud y minimiza la longevidad. El índice de Masa Corporal alto, tiene un alto riesgo con la enfermedad cardiovascular, diabetes y cáncer (Ministerio de Salud y Protección Social, 2021, P.2).
Es indispensable conocer si esta medida es efectiva para los consumidores para ser uso de su información para su beneficio, relacionando la inadecua ingesta de alimentos industrializados para condicionar el sobrepeso y obesidad.
En México se tiene la problemática con relación al etiquetado, mismo que al estar expresado en porcentajes respecto al requerimiento diario a una dieta basada en 2000 calorías suelen perderse en la información quienes lo leen según la
Encuesta de salud y nutrición 76.3% de la población no sabe cuántas calorías debe consumir una persona adulta aproximadamente (CASTILLA, 2019). Este desconocimiento podría ocasionar en el consumidor un exceso de calorías en la diera mismo que al prolongarse podría condicionar sobrepeso, obesidad o propiciar problemas de salud en los consumidores.
METODOLOGÍA
Primero se procedio investigar información para dar sustento al presente trabajo. Una vez que se detecten los requerimientos de la población y las opiniones de la comunidad.
Se requiere de un tiempo y de un conocimiento matemático mínimo.
Emplea términos no específicos y no toma en cuenta a la población ni a los niños ni a los adolescentes, lo cual difícilmente se saben si son calorías y cantas deben consumir al día.
Es representada en porcentajes por envase o porción, lo cual para algunos consumidores puede ser de difícil comprensión.
Puede ser difícil de interpretar por poblaciones de menores recursos que no cuentan con el conocimiento matemático o de lectura para su comprensión.
Información más clara sobre el exceso de calorías, azucares, grasas saturadas, grasas trans, sodio y en su caso edulcorantes.
El consumidor podrá decidir su compra más clara, sin necesidad de hacer un análisis detallado de los gramos de cada nutrimento que contiene una proporción o envase.
Advierten la presencia de edulcorantes, sustitutos de azúcar y de cafeína, por ser sustancias no recomendables para niñas y niños.
Permite entender mejor el papel de los ingredientes no saludables en la salud y porque es importante reducir su consumo.
Una vez medidos estos parámetros se ajustan las estrategias y se públican para generar impacto.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las enfermedades crónico degenerativas a la que esta sometida la población mexicana derivado de su mala alimentación y sus malas decisiones a la hora de realizar sus compras.
Al implementar estrategías abona a la estrategia del Gobierno de poder impactar de manera postiva en la desición de compra de los consumidores. Por lo que propone continuar con este trabajo para que vez que las estrategias se pueda medir su efectividad en una población meta.
Esto ayudará a tener mayor eficacia del nuevo etiquetado, que como eneficio tranversal minimice los grandes problemas que se tienen de un poco más los grandes desafios que tenemos en el tema de la alimentación.
Vázquez Torres Diana Paola, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Victor Manuel Garrido Arévalo, Universidad Tecnológica De Bolívar
IMPLEMENTACIóN DE LA AUTOMATIZACIóN PARA LA MEJORA EN EL ARRANQUE DE MOTORES TIPO JAULA DE ARDILLA COMPLEMENTANDO AL SISTEMA ELéCTRICO DE POTENCIA
IMPLEMENTACIóN DE LA AUTOMATIZACIóN PARA LA MEJORA EN EL ARRANQUE DE MOTORES TIPO JAULA DE ARDILLA COMPLEMENTANDO AL SISTEMA ELéCTRICO DE POTENCIA
García Barragán Christian Salvador, Universidad de Guadalajara. Vázquez Torres Diana Paola, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Victor Manuel Garrido Arévalo, Universidad Tecnológica De Bolívar
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los sistemas eléctricos de potencia suelen presentar perturbaciones es sus sistemas, las cuales pueden ser generadas en el proceso que se lleva a cabo al realizar interfaces entre maquinas. El funcionamiento de distintos componentes electrónicos o fenómenos atmosféricos que podrían afectar directamente a las diferentes áreas del sistema.
Una de las principales fuentes de perturbaciones en los sistemas eléctricos de potencia se encuentra en el sector industrial; mismo donde el uso de maquinaria es esencial para la producción del producto o servicio, durante los procesos es necesario considerar tener una gran potencia, por lo cual podría ser constituida por motores de inducción, son considerables y pueden llevar a cabo un arranque, debemos tomar en cuenta el tiempo que le tomará a la máquina alcanzar su punto de funcionamiento y en los posibles efectos que se puedan presentar en el arranque del sistema.
Por ello se empleará el uso de un sistema de arranque automatizado el cual conllevará una serie de beneficios considerables debido a la reducción de la corriente de arranque necesaria para empezar a operar maquinas donde se emplee el uso de motores tipo jaula de ardilla; con esta mejora se espera reducir el porcentaje de daños en el sistema interno en la máquina, los beneficiados de esta mejora serán todos aquellos que quieran eliminar esta problemática, para lo cual ahorrarán bastante dinero en el mantenimiento constante de los sistemas internos de las maquinas.
METODOLOGÍA
Se analizó el estado actual de los sistemas eléctricos de potencia y las fallas más comúnmente encontradas en los mismos.
Se utilizó el software Simulink de Matlab para realizar un modelo de estudio del sistema, en este caso considerando un motor jaula de ardilla de 100Hp conectado a un transformador reductor de tensión (11kV-0.4kV) de 1MVA.
Posteriormente, se realizó la selección de variables que serán evaluadas partiendo del modelo base, el cual no cuenta con un método de arranque asistido y así obtener los valores de corriente y tensión en la etapa de arranque, luego se realizan los cambios al modelo añadiendo diferentes métodos de arranque automatizados para poder comparar el impacto en los niveles de corriente y tensión en la etapa de arranque en busca de un cambio.
Finalmente, se realiza la comparación entre el modelo base y los diferentes modelos con métodos de arranque automatizados para poder posteriormente establecer cual es el que ofrece mejores beneficios en ciertas aplicaciones.
CONCLUSIONES
En equipo podemos concluir que se espera analizar el impacto generado por los diferentes métodos de arranque automatizados en los sistemas eléctricos de potencia a fin de encontrar el que más se adapte a las necesidades que requiera el arranque en los motores tipo jaula de ardilla y se pueda llegar a profundizar las aplicaciones seleccionadas, que nos permita conocer de manera más acertada sus variables, efectos y eficiencias sobre el sistema permitiendo así conocer la mejor opción de diseño.
Vega Blanco Ismael, Universidad Autónoma de Guerrero
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
ESTUDIO DEL DESEMPEñO FíSICO-MECáNICO DEL CONCRETO HIDRáULICO REFORZADO CON FIBRAS ELABORADAS CON RESIDUOS DE PET.
ESTUDIO DEL DESEMPEñO FíSICO-MECáNICO DEL CONCRETO HIDRáULICO REFORZADO CON FIBRAS ELABORADAS CON RESIDUOS DE PET.
Vega Blanco Ismael, Universidad Autónoma de Guerrero. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El concreto hidráulico es una roca artificial creada por el hombre mediante la mezcla de agregados y aglutinantes, además es el material más utilizado en la industria de la construcción por sus propiedades de durabilidad y resistencia mecánica. El estudio del concreto ha demostrado que aporta alta resistencia a compresión y poca resistencia a tensión, lo cual ha generado la idea de la incorporación de fibras que beneficien su comportamiento mecánico a tensión, también reducir el agrietamiento a la edad temprana y en estado endurecido. En los últimos años se ha registrado un calentamiento global de alto impacto, por la cantidad de residuos que se desechan día con día, es por ello que, para reducir un poco el impacto, se pretende utilizar fibras producto de residuos de PET reciclado.
Las fibras de PET para concreto se fabrican a partir de materiales sintéticos que pueden resistir el medio alcalino del concreto a largo plazo. Para evaluar una fibra como refuerzo en el concreto es necesario realizar pruebas de laboratorio que nos permitan determinar el desempeño mecánico del concreto, es decir, la capacidad de soportar cargas y esfuerzos.
El presente estudio tiene como propósito realizar una revisión documental de investigaciones encontradas en buscadores académicos, que evalúan el desempeño mecánico del concreto reforzado con fibras sintéticas, buscando identificar si es factible.
METODOLOGÍA
Para realizar la presente investigación se desarrolló una secuencia precedida por investigación documental y la creación de gráficas estadísticas basadas en información extraída de publicaciones previas, por diferentes autores, relacionados con el tema de estudio (fibras sintéticas en el concreto hidráulico). A continuación, se muestra una secuencia de pasos desarrollada para realizar el presente estudio:
Participación en diferentes ponencias de investigadores en un periodo establecido Maestro. Noel Díaz Gonzales de la Facultad de Ingeniería Civil (UMSNH) su ponencia y algunos documentos proporcionados ayudaron de manera aleatoria a asentar las bases teóricas respecto al tema de estudio.
Investigación documental, en buscadores académicos; tales como Google Academic, Redalyc, Refseek, Construction and Building Materials, Dialnet, Academia Edu. y Scielo; guiada por coordinadores del tema en estudio, sobre los concretos reforzados con fibras sintéticas producto de residuos PET reciclado.
Teniendo la muestra definida y la tabla de registro completa, se desarrollaron gráficas estadísticas que corresponden a los resultados de las investigaciones realizadas con fibras sintéticas y las cuales fueron desarrolladas a partir de las categorías presentes, mencionadas anteriormente, en la tabla de registro, de tal modo que se pueda determinar si es factible realizar nuevas investigaciones sobre adicionar fibras de PET reciclado a mezclas de concreto hidráulico además de mejorar el concreto, contribuye a la reducción de residuos desechados y se encontró lo siguiente:
El 57.14% de las investigaciones en fibras artificiales fueron desarrolladas en el año 2015.
Las investigaciones realizaron ensayos de compresión, tensión y flexión
La resistencia a compresión simple disminuye cuanto mayor es la adición de fibra incluida
La resistencia a flexión y tensión se incrementa cuando mayor es la adición de fibra
La resistencia a compresión aumenta aun cuando la adición de fibras es mayor porque se utilizan aditivos plastificantes en la mezcla, reduciendo la relación Agua/Cemento en peso
De acuerdo con The National Ready Mixed Concrete Association menciona como trabajan las fibras en el concreto. Los cambios de volumen del concreto a edad temprana causan la formación de planos de debilitamiento y fisuras debido a las tensiones existentes que exceden a la resistencia del concreto en un momento específico. El crecimiento de estas fisuras por contracción se previene mediante el bloqueo mecánico con las fibras sintéticas. El sistema de soporte interno de las fibras sintéticas impide la formación de grietas por asentamiento plástico.
Los atributos del concreto endurecido aportados por las fibras sintéticas son una reducción de la permeabilidad y una mayor resistencia a la fractura, la abrasión y las fuerzas de impacto.
Se observó que la parte de la dosificación es muy importante porque al agregar un porcentaje alto, el resultado no es tan favorable.
Se reduce el impacto ambiental al reciclar un cierto porcentaje de los residuos de PET para dichas fibras.
CONCLUSIONES
En conclusión, se determina que es factible utilizar las fibras sintéticas en el concreto para mejorar su comportamiento a tensión y flexión respectivamente, en cuanto a la dosificación debe ser cuidadosa, responsable y eficiente, para obtener buenos resultados de lo contrario se tendrán serios problemas en cuanto al comportamiento del concreto.
Es muy eficiente el uso de fibras tanto en edad temprana como en estado endurecido, ya que se presenta como un refuerzo secundario del concreto. Además de ser eficiente, se reduce los residuos de PET debido a que en todas obras de infraestructura o todo lo que conlleva concreto, se puede utilizar fibras y como bien sabemos las construcciones están día con día.
Agradecimientos: Al Laboratorio de Materiales de la Facultad de Ingeniería Civil de la Universidad Michoacana de San Nicolás de Hidalgo y al Grupo de Materiales del mismo.
Referencias Bibliográficas[]
1] A. Meza de Luna, F.U.A. Shaikh, Anisotropy and bond behaviour of recycled Polyethylene terephthalate (PET) fibre as concrete reinforcement, Constr. Build. Mater. 265 (2020) 120331. https://doi.org/10.1016/j.conbuildmat.2020.120331.
2.Neville, A. M. (1995). Tecnologia del concreto. Mexico : M. en A. Soledad Moliné Venanzi .
3. Silva, O. J. (22 de Diciembre de 2020). LAS FIBRAS SINTÉTICAS PARA CONCRETO. Obtenido de Argos 360 en concreto, https://www.360enconcreto.com/blog/detalle/tecnologia-del-concreto/las-fibras-sint201ticas-para-concreto.
Vega Niño Ángel Antonio, Universidad de la Costa
Asesor:Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico
MóDULO DE MONITOREO DE VARIABLES CLIMáTICAS
MóDULO DE MONITOREO DE VARIABLES CLIMáTICAS
Vega Niño Ángel Antonio, Universidad de la Costa. Asesor: Dra. Alicia Martínez Rebollar, Centro Nacional de Investigación y Desarrollo Tecnológico
PLANTEAMIENTO DEL PROBLEMA
El avance de las ciudades conlleva el aumento en el consumo de agua en actividades varias como la agricultura, la industrialización y los servicios públicos domiciliarios por la expansión de las zonas urbanas. Sabemos que su alto uso implica una presión sobre las fuentes de esta.
Este problema lo podemos observar cuando nos encontramos en sequía la cual tiene fuerte impacto en el desabastecimiento y otros fenómenos derivados.
Por otro lado, existe una mala administración de los recursos, es importante la planeación del uso y manejo coordinado del suelo, aguas, flora y fauna, en la perspectiva de mantener el equilibrio entre el aprovechamiento social y económico de tales recursos del planeta tierra y particularmente del recurso hídrico.
Para la medición de las variables climáticas se requieren técnicas y procedimientos los cuales nos permitirán analizar detalladamente la información necesaria para los procesos requeridos.
La idea básica es conocer la cantidad de agua necesaria que necesita una planta o un cultivo con el fin de poder utilizar el recurso de una manera óptima sin desperdiciar el recurso hídrico, esto solo es posible mediante un monitoreo continuo de diferentes variables climáticas que puedan facilitarnos la información que nosotros queramos a través de datos sensados.
La planificación de los recursos es de las partes más importantes para el desarrollo de una ciudad o un territorio por lo que se requiere implementar acciones que ayuden al cuidado de las fuentes hídrica y solucionen alguno de los problemas que pueden llegar a ocurrir sino se hace un monitoreo de las fuentes
METODOLOGÍA
Para el proyecto se utilizó el microcontrolador Arduino en su versión mega, será el cerebro del proyecto, ya que será programado para la recolección de datos de los sensores. Se utiliza esta versión por la cantidad de pines analógicos y digitales que ofrece a comparación de otras versiones.
Se conectaron sensores de humedad de suelo FC-28, temperatura y humedad de ambiente DHT-22, sensores de temperatura de líquidos.
Además, se le implementó un pequeño módulo de internet ESP8266, este facilita que el Arduino pueda ser conectado a internet y que pueda enviar información o ser manipulado mediante aplicaciones web.
Se mejoró los esquemáticos y conexiones que el investigador había diseñado anteriormente, se realizaron en un software especial para mayor organización, estética, visualmente más atractivo.
Estos sensores fueron previamente analizados con el datasheet del fabricante con el fin de realizar de manera correcta las conexiones y su uso optimo, todos los esquemáticos fueron hechos individualmente para también organizar de manera estética las conexiones.
Se realizaron las conexiones para cada sensor tales como su fase de envío de datos recolectados y también sus fases de alimentación. Además, se le incluyó a proyecto el sensor de velocidad de viento y radiación solar.
Todos los sensores fueron organizados y colocados en un prototipo de invernadero para su observación y la toma de datos, el invernadero posee lo necesario para la implementación del proyecto, su mallado, las plantas que contiene entre otras cosas.
Es importante que para la implementación se tuviera en cuenta métricas y recomendaciones para la organización de los sensores y cableados, considerar de manera oportuna el largo de los cables para que la señal recolectada no posee mucho ruido y no estropee el estudio de los datos, también materiales de buena calidad y sobre todo optimizar estéticamente la posición y conexión de los sensores que se utilizaron en el prototipo del invernadero.
Posterior a este proceso de conexión y organizado, mediante programación se realiza un código que implemente todos los sensores, código limpio y organizado. El código es suministrado a la placa de Arduino que se encargará de controlar los sensores y recolectar los datos sensados, mediante Excel o base de datos de preferencia.
Con ayuda del módulo de wifi nos permite conectarnos a la plataforma FIWARE, esta es una plataforma especializada para proyectos de IOT, nos facilita una serie de herramientas que ayuda a la visualización, organización y graficar datos que son necesarios para el desarrollo del proyecto.
La plataforma nos brinda un panel de control el cual podemos tener manejo y supervisión de los sensores y aparatos conectados al Arduino MEGA.
Finalmente, después de la toma de datos y almacenados en una base de datos en la plataforma FIWARE nos dedicamos a analizar la información para los objetivos planteados, tales como conocer cuando una planta necesita ser regada, calidad del aire, del suelo, y muchas más variables climáticas que son medidas y evaluadas por los sensores.
CONCLUSIONES
Se puede concluir que, logró crear un sistema eficaz y eficiente que permite monitorear variables climáticas, el cual podemos analizar con sensores y con el estudio de esos datos logramos nuevas técnicas y hábitos que ayuden al planeta, tales como mejorar la calidad del aire que respiramos, examinar la cantidad de agua que requiere una planta, calidad del agua, entre otros.
Se pudo mantener un monitoreo gracias al uso de sensores, microcontrolador y programación permiten no solo hacer un buen cerebro del proyecto, sino que también ayudan a crear un impacto favorable en el ámbito tecnológico y ambiental.
Se pudo organizar de una manera profesional todos los esquemáticos y conexiones del proyecto gracias a las hojas técnicas de los fabricantes, con el fin de darle el mejor uso a los sensores.
Me ayudó a mejorar conocimientos y habilidades en el campo con el fin de ser mejor profesional, además creó lazos de amistad entre el grupo de trabajo y un buen desarrollo de las actividades, muy feliz de haber participado en esta experiencia, intercambiar cultura y también haber aprendido algunas cosas nuevas por la investigación.
Vega Obeso Cruz Itzayana, Universidad Autónoma de Occidente
Asesor:Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
MORTERO DE CEMENTO RECICLADO REFORZADO CON NANOFIBRAS POLIMÉRICAS Y EVALUACIÓN DE SUS PROPIEDADES MECÁNICAS
MORTERO DE CEMENTO RECICLADO REFORZADO CON NANOFIBRAS POLIMÉRICAS Y EVALUACIÓN DE SUS PROPIEDADES MECÁNICAS
Vega Obeso Cruz Itzayana, Universidad Autónoma de Occidente. Asesor: Dr. Manuel de Jesús Chinchillas Chinchillas, Universidad Autónoma de Occidente
PLANTEAMIENTO DEL PROBLEMA
1.INTRODUCCION
El concreto, un material que, al mezclar cemento, agua, agregados gruesos y finos, nos da una pasta que al fraguar es capaz de conformar estructuras rígidas, resistentes a los esfuerzos que se le generen y con una larga vida útil si se le dan los cuidados necesarios y debido a la demanda de un material de buena calidad y resultados favorables para la construcción este ha sido de gran reconocimiento. Debido al gran impacto que se ha provocado la contaminación ambiental, han surgido diferentes ideas para reciclar, reusar o sustituir algunos materiales que puedes perjudicar al medio ambiente. Es por eso la idea de reciclar desechos que es este caso sería el concreto, que se obtiene a base de escombros de derrumbes de alguna edificación o alguna construcción. Los agregados reciclados surgen de los escombros que se obtienen en las construcciones, los cuales son sometidos a un proceso de trituración hasta lograr convertirlos en agregados finos, mediante el uso de maquinaria adecuada, con la finalidad de obtener el tamaño de partícula necesaria, para después agregársela a las mezclas. Una propuesta novedosa para mejorar las mezclas elaboradas con agregados reciclados es el uso de Nanofibras de polifloruro de vinilideno (PVDF), ya que tienen buenas propiedades mecánicas y propiedades piezoeléctricas. Para sintetizar este nanomaterial se ha utilizado la téncias de electrospinning, el cual es un método sencillo y de bajo costo.
En esta investigación de verano científico se llevó un proceso de reciclaje a cilindros de concretos para la generación de agregado fino reciclado. Además, se sintetizaron Nanofibras de PVDF mediante la técnica de electrospinnig y se evaluó su morfología y su estructura química a través de microscopía electrónica de barrido (SEM) y espectroscopia de infrarrojo (FT-IR) respectivamente. El siguiente paso de la investigación es la aplicación de las Nanofibras en los morteros y la evaluación de sus propiedades mecánicas.
METODOLOGÍA
2 METODOLOGIA
La presente metodología describe el proceso que siguió el investigador Dr. Manuel Chinchillas, el cual es mi asesor del programa delfín. Esta metodología nos la enseñó por medio de teoría, fotos y videos. Lo cual sirvió para mi preparación en el enfoque de investigación.
2.1 Recolección del material de desecho
Se visitó una empresa de construcción en la ciudad de Los Mochis, Sinaloa y se solicitó la donación de cilindros de concreto de desecho. Se obtuvieron 20 cilindros de concreto con una resistencia de 20 MPa, destinado a la colocación de pavimentos.
2.2 Reciclaje del agregado fino (Trituración)
Los cilindros de concreto fueron triturados con una trituradora de mandíbulas hasta obtener un tamaño de 4 cm aproximadamente, posteriormente el material se sometió a otro proceso de trituración en un molino de bolas para obtener un tamaño aproximado de 0.6 cm. El material fue tamizado y se utilizó como agregado fino reciclado.
2.3Medición de propiedades del agregado fino
La medición de las propiedades del agregado reciclado fue siguiendo las normas American Society Testing Materials (ASTM). La resistencia a la compresión fue con la norma ASTM C-31, la densidad fue con la norma ASTM C-128, el módulo de finura con la norma ASTM C-125, la absorción del agua la norma ASTM C-127 y la humedad con la norma ASTM C-566-97.
2.1Síntesis de Nanofibras
Para realizar la síntesis de las Nanofibras primero fue necesario crear una solución polimérica de Polifloruro de vinilideno (PVDF) al 18% en una solución de Dimetilformamida (DMF). Después, esa solución se colocó en una jeringa y se insertó en la bomba infusora del equipo de electrospinning. Los parámetros utilizados fueron 18 Kv de voltaje aplicado, 20 cm de separación entre la ajuga y el plato colector y una velocidad de 0.4 ml/min.
CONCLUSIONES
3. RESULTADOS
2.1Propiedades del agregado reciclado
El Concreto de origen tuvo una resistencia a la compresión de 220 kg/cm2, por otra parte, el agregado fino reciclado tuvo un módulo de finura de 3.25, una absorción de agua de14.55%, una densidad de 2.6 kg/cm3 y una humedad de 0.05%.
2.2FT-IR y SEM de las nanofibras
El FT-IR realizado a las Nanofibras de PVDF mostró la vibración de los enlaces moleculares del polímero como C-F, C-C y C-H (vibración de enlaces característicos de las Nanofibras de PVDF), los cuales muestran que las Nanofibras no contenían impurezas. Y, mediante el estudio de SEM se obtuvieron algunas micrografías las cuales mostraron que las Nanofibras contenían diámetros de diferentes tamaños, algunas muy gruesas y otras muy delgadas, esto se debe a la configuración de electrospinning. Además, se observaron algunos defectos como gotas o discontinuidades. El diámetro promedio de las Nanofibras fue de 800 nm.
4 CONCLUSIONES
Durante el verano científico se obtuvo información y se adquirieron nuevos conocimientos gracias al apoyo de nuestro investigador el Dr. Manuel de Jesús Chinchillas Chinchillas, ya que, con sus conocimientos logro apoyarnos para llevar a cabo nuestro proyecto, implementando en nosotros nuevos conocimientos, técnicas y la iniciativa por seguir en el camino de la investigación. Con respecto a que ahorita estamos en una situación de pandemia de COVID-19, fue el motivo por el cual se impidió el acceso a un laboratorio y por ende la experimentación y practica del proyecto. Se pretende darle continuidad a este proyecto, buscando lograr mejorar un mortero reciclado donde al añadirle nanofibras de PVDF sean una mejoría dentro de sus propiedades. Fue relevante el obtener estos nuevos conocimientos dando a destacar también el gran apoyo del investigador, que gracias a sus conocimientos y experiencia dentro del área siempre estuvo para atender nuestras dudas y mostrando un interés por ello, se le agradece.
Velázquez Caballero Itzel Sinaí, Instituto Politécnico Nacional
Asesor:Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
LA INCIDENCIA DE LOS MATERIALES DE CONSTRUCCIóN LIVIANA EN LA CONTAMINACIóN AMBIENTAL
LA INCIDENCIA DE LOS MATERIALES DE CONSTRUCCIóN LIVIANA EN LA CONTAMINACIóN AMBIENTAL
Velázquez Caballero Itzel Sinaí, Instituto Politécnico Nacional. Asesor: Mg. Maribel del Carmen Salgado Pertuz, Servicio Nacional de Aprendizaje SENA - Regional Magdalena
PLANTEAMIENTO DEL PROBLEMA
La incidencia de los materiales de construcción liviana en la contaminación ambiental, pretende cumplir como objetivo principal la determinación de la incidencia de procesos y materiales constructivos livianos en la contaminación ambiental del Santa Martha y Ciudad de México.
Así mismo, el artículo de revisión pretende ser el resultado de la definición de materiales y sistemas constructivos que existen para la construcción liviana en dos países diferentes y generar un contraste entre estos para poder definir los lineamientos, las ventajas, los beneficios y si bien las desventajas que conllevan en la contaminación ambiental.
La conclusión fundamentada es que en la actualidad, existen un multitud de materiales, sistemas constructivos y procesos constructivos que dañan cabalmente al medio ambiente y que en cualquier país en el que nos encontremos, nos encontramos con construcciones en abandono, merma, perdida, desperdicio de infinidad de materiales en la construcción que no tienen una segunda vida o algún nuevo uso, comenzando a generar contaminación ambiental, haciendo falta comenzar a generar concientización en la población de cualquier país.
Finalmente, el aporte que tiene el estado del arte tanto de la Región Santa Martha y la Ciudad de México, se vuelve transcultural al pretender conocer y distribuir los diferentes medios de conciencia para reducir el mal uso que se le da a los materiales y procesos constructivos en cualquier construcción, que si bien nos enfocamos en la construcción liviana, sin embargo existe un deterioro constante e imparable en esta industria que sin importar el estado de arte, las costumbres, las tradiciones o cualquier otro parámetro que generaliza un país, la falta de conciencia y uso desvariado incrementa, como afecta innumerablemente al medio ambiente.
METODOLOGÍA
La metodología empleada para el articulo de revisión es del Doctor Oscar Vera Carrasco, que se adaptó con base en los requerimientos y lineamos que se requerían, permitiendo el alcance y la definición del proyecto con referencia a la incidencia que existe en el medio ambiente tanto para la región de Santa Martha y la Ciudad de México, con el valor agregado sobre los materiales, sistemas y procesos constructivos en la construcción liviana.
Por lo tanto, la revisión descriptiva, proporciona al lector una puesta al día sobre conceptos útiles en áreas en constante evolución. Este tipo de revisión tiene una gran utilidad en la enseñanza, y también interesará a muchas personas de campos conexos, porque leer buenas revisiones es la mejor forma de estar al día en nuestras esferas generales de interés.
Mediante la metodología general de un artículo de revisión, que, si bien este pretende la determinación del título, definir los objetivos a revisión, conocer la búsqueda bibliográfica, es decir conocer una selección de datos, estrategias de búsqueda y criterios de selección. Para dar hincapié a la estructura del artículo de revisión, pues comenzará con la introducción, la descripción, la discusión, las conclusiones y referencias bibliográficas para terminar con un análisis determinado mediante un check list o lista de verificación.
CONCLUSIONES
Durante mi estancia en el program Delfin, aprendi a identificar un articulo de revisión para el desarrollo de cualquier proyecto, pues debe ser el antecedente de cualquier investigación, si bien los resultados obtenidos son que la incidencia de los materiales en la construcción liviana sobre la contaminación ambiental en la región de Santa Martha y la Ciudad de México, son similares pues en ambos países existe un sinfín de contaminación en la industria de la construcción y que sin importar el rubro en el que nos encontremos, se define como falta de conciencia que existe actualmente en la población.
Así mismo, en los artículos de referencia que se identificaron y encontraron basados en nuestra problemática, se descubrió que en general, mantener condiciones sostenidas y una reducción significativa en el consumo de recursos en el próximo siglo, obtenido mediante la implementación de un edificio de construcción en seco, sugiere la importancia de utilizar estos materiales para lograr los principios de la arquitectura sostenible. Como que la placa de yeso reciclado cumplió simultáneamente con todos los requisitos físicos y mecánicos de las normas técnicas brasileñas.
Permitiéndonos descubrir y alcanzar a comprender que a pesar de existir materiales y sistemas constructivos dañinos en el medio ambiente, ya se están comenzando a implementar innovación de los materiales de la construcción liviana que benefician al medio ambiente, pero que además cumplen con el objetivo de salvaguardar el medio ambiente en el que vivimos y el aprovechamiento de todos los recursos en la industria de la construcción, pues si bien observamos que en la región de Brasil ya se implementaron normas y leyes para el uso de ciertos materiales en la construcción que afectan al medio ambiente, logrando que con esta analogía y comparativa, concienticemos y comencemos a crear propuestas de innovación en la construcción principalmente para frenar alternativas bruscas o sanciones por el uso excesivo o inadecuado de los materiales y sistemas constructivos.
Velazquez Ceron Carlos Jesus, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PROCESAMIENTO DE SEñALES
PROCESAMIENTO DE SEñALES
Hernandez Serrano Valeria, Universidad Autónoma de Baja California. Velazquez Ceron Carlos Jesus, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Alejandro Medina Santiago, Universidad de Ciencia y Tecnológia Descartes
PLANTEAMIENTO DEL PROBLEMA
El coronavirus SARS-Cov-2 es un virus que apareció en China. Después se extendió a todos los continentes del mundo provocando una pandemia. Actualmente Europa y América son los más afectados
Con la actual pandemia el cierre de escuelas se vio obligado para resguardar la salud de todos, poniendo a si a trabajar en modalidad virtual.
Tras un año y medio de pandemia la opción de reabrir las escuelas de forma escalonada ha parecido una propuesta cada vez más viable y día con día se buscan implementar nuevas metodologías y procesos para poder garantizar un regreso a clases seguro.
METODOLOGÍA
Antes de empezar con el proyecto tuvimos una pequeña conversación para saber y conocer mas sobre este con nuestro profesor.
Se tiene que elaborar un sistema mediante sensores que detectara tus signos vitales como la temperatura, ritmo cardiaco y oxigenación en la sangre y de esta manera saber si tu tienes lo necesario para poder ingresar a cierta institución, supermercado, hospital, etc. Si llegas a estar bien en cuanto a tus signos vitales encenderá un led verde accediendo tu entrada de lo contrario encenderá un led rojo denegando tu entrada
En la elaboración de nuestro proyecto usamos sensores como el MAX30102 de pulso cardiaco y con oxigenación sanguínea y el LM35 que es un sensor de temperatura la programación de estos es mediante arduino.
Comenzamos programando cada sensor con arduino para que así se cada uno pudiera hacer su función que era medir SPO2, pulso cardiaco y temperatura.
Después se juntaron todos los programas para así tener uno mismo y este mandara datos en una misma pantalla y al mismo tiempo arduino detectar si los datos proporcionados por los sensores eran buenos, si lo eran (37.5ºC,100 RC) encendía un led rojo negando la entrada.
CONCLUSIONES
Durante la estancia de verano se lograron adquirir y reforzar los conocimientos en programación y arduino, para poder ponerlos en práctica al momento de realizar un programa que en base a un cuestionario te indica si el usuario cuenta con acceso permitido o denegado para entrar a la institución.
Se espera que con este programa el riesgo de contraer la enfermedad COVID-19 dentro de la institución sea mínimo y de ser posible nulo en su totalidad debido al control de acceso de personas.
Velazquez de los Santos Jonathan, Instituto Tecnológico Superior de Huauchinango
Asesor:Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
REALIDAD VIRTUAL EN UNITY 3D PARA LA MATERIA DE HISTORIA
Tellez Guzmán Jesus Jair, Instituto Tecnológico Superior de Huauchinango. Vazquez Bustamante Gil Esau, Instituto Tecnológico Superior de Huauchinango. Velazquez de los Santos Jonathan, Instituto Tecnológico Superior de Huauchinango. Asesor: Dr. Gregorio Castillo Quiroz, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Las actuales tendencias en el establecimiento de estrategias competitivas en las escuelas son interactivas y atractivas para mayor aprovechamiento de aprendizajes significativos para nivel básico. Se ha implementado la realidad virtual en la educación de distintas formas, como es la realidad aumentada y la inmersiva, utilizando software para imágenes tridimensionales, como lo es Blender y Unity.
El presente proyecto plantea aplicar nuevas estrategias de enseñanza, haciendo uso de las herramientas de la realidad virtual, con ello contenga información de la materia de historia de la región de Huauchinango. Esta aplicación creará un ambiente virtual incluyendo efectos visuales y sonoros, simulaciones de la realidad.
METODOLOGÍA
Este proyecto surge de la necesidad de enseñar la materia de historia de no ser tediosa para los alumnos, que en su mayoría es teórica. Por estas problemáticas es necesario utilizar herramientas informáticas para colaborar de manera creativa y tener un desempeño escolar agradable. Por lo tanto, se decidió el desarrollo de una aplicación con realidad virtual.
Para ello se siguió la siguiente metodología en el cual cuenta con las siguientes etapas:
Recopilación de información. Para esta etapa se recopila la información necesaria para el mundo de la realidad virtual inmersiva, para ello se realiza un trabajo de campo, que abarca la investigación del tema de historia, información fotográfica del entorno, los modelos tridimensionales de la fotogrametría y hardware.
Creación del entorno virtual. En esta etapa se crea las escenas por cada una de las partes que conforman la experiencia virtual. Para la realización de esta etapa se hace uso del software Blender y Unity.
Programación. En esta etapa se desarrolla el programa de realidad virtual, se busca que el usuario pueda interactuar con el mundo creado por computadora utilizando las características que brinda la tecnología de realidad virtual.
CONCLUSIONES
Se desarrolló un entorno virtual diseñado en el programa blender y unity sobre la danza de los abanicos (la danza de los abanicos es muy representativa de Huauchinango ya que se hace en honor al patrono del pueblo, Santo Entierro). Huauchinango es un pueblo mágico de la Sierra Norte de Puebla, rico en variedad cultural, paisajes y demás.
Velazquez Hinojoza Rocio, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
DESARROLLO DE LA METODOLOGÍA DE ESTUDIO DE TRABAJO PARA EL PROCESO DE RESINACIÓN DE PINO.
DESARROLLO DE LA METODOLOGÍA DE ESTUDIO DE TRABAJO PARA EL PROCESO DE RESINACIÓN DE PINO.
Castillo Solórzano Andrea, Instituto Tecnológico Superior de Los Reyes. Velazquez Hinojoza Rocio, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Mtro. Juan Carlos Barajas Chavez, Instituto Tecnológico Superior de Las Choapas
PLANTEAMIENTO DEL PROBLEMA
La resina es una sustancia pastosa o sólida que se obtiene de manera natural a partir de una secreción orgánica de los pinos tropicales. Gracias a sus propiedades químicas, las resinas se utilizan para la elaboración de productos de limpieza, perfumes, adhesivos, barnices y aditivos alimenticios, entre otros productos. Una vez preparado el árbol, comienza la tarea de realizar la pica, es decir, quitar una tira de la corteza del pino y aplicarle un estimulante que dilate los vasos resiníferos de los árboles de pino, y haga fluir la resina, a través de: sistema de cosecha de resina y cosecha por el método americano.
Por tanto, nace la necesidad de conocer la razón por la cual se tiene baja eficiencia en la productividad de la extracción de resina y así mismo establecer la información adecuada del rendimiento, un análisis de la confiabilidad, de igual manera realizar un análisis de operaciones para determinar la utilidad de las herramientas, la medición de tiempos y movimientos.
Permitiendo que la información aporte múltiples beneficios a la empresa UUMBAL AGROFORESTAL principalmente, además que permitirá al equipo investigador crecer como profesionales, dando la oportunidad de lograr cambios significativos en la empresa a corto y largo plazo para el aumento de la productividad de la extracción de resina. Los principales factores involucrados son el aspecto económico, social y ambiental, asi como el uso del estudio del trabajo, en donde se estipularán de igual forma los resultados obtenidos mediante una recolección de datos de campo.
METODOLOGÍA
En el presente proyecto de investigación, se evaluaron los factores influyentes del bajo rendimiento y eficiencia en el proceso de extracción de la resina, mediante distintas herramientas de Estudio del Trabajo y Lean Seis Sigma, permitiendo tener un mayor panorama con la ayuda de un análisis de confiabilidad y un análisis de operaciones que consintió en determinar la utilidad y rendimiento de las herramientas, la medición de tiempos y movimientos, con el objetivo de incrementar la productividad en cuanto a rendimiento y eficiencia en la producción de resina.
Para recopilación de datos sobre la extracción de resina se involucran distintos factores los cuales repercuten de manera directa al rendimiento de los colaboradores, que a su ves impactan en la producción, siendo este el factor principal a tratar en el estudio de la investigación, por lo que se recurre al uso de las herramientas en razón de que se pretende indagar, analizar, describir, explicar, experimentar con distintas variables e interpretar los resultados en un determinado lapso de tiempo, asi mismo siguiendo los pasos del proyecto, de planeación y ejecución.
Las principales herramientas utilizadas durante el proceso de investigación son, diagramas de proceso, análisis de las operaciones productivas al personal seleccionado (muestreo del trabajo), estudio de tiempos y movimientos, calculo de tiempos, balanceo de operaciones de acuerdo al rendimiento establecido por el tiempo estándar, diseño de formatos acorde a la naturaleza de los datos, para su análisis y evaluación en comparación al rendimiento establecido de la empresa UUMBAL AGROFORESTAL.
Nos sirve de apoyo para visualizar el rendimiento individual y colectivo de la plantilla laboral seleccionada de acuerdo al muestreo de trabajo.
CONCLUSIONES
Durante la estancia del verano se ha logrado adquirir distintos conocimientos teóricos y prácticos acerca del estudio del trabajo, asi como la misma aplicación de la metodología de Lean Six Sigma, ya que se nos permitió observar y analizar el proceso de resinación llevado acabo en la empresa UMMBAL AGROFORESTAL, el cual ha sido aplicado en una actividad demasiado extensa, razón por la cual no se pueden mostrar resultados concretos obtenidos.
La empresa cuenta con una extensión de cuatro fincas, mismas que se encuentran distribuidas en distintas locaciones al sur de Veracruz; dentro de las cuales se desarrollan las mismas actividades, en distinto orden, sin embargo en el estudio realizado se percató de las distintas deficiencias que se tienen, lo cual de manera directa repercuten con la producción final de la extracción de resina, se espera un incremento de eficiencia, rendimiento y productividad dentro de la empresa en general, también otorgar a los trabajadores las condiciones optimas para su mayor desempeño en las distintas actividades realizadas.
Por citar un ejemplo de las deficiencias observadas es la falta de planeación de actividades y comunicación entre los distintos departamentos, puesto que esto repercute directamente a la productividad y rendimiento de la empresa. En función de las herramientas aplicadas se logró concluir que el rendimientos de los colaboradores se ve estrechamente relacionado con factores determinantes como la topografía, ergonomía, condiciones climatológicas, horario laboral y la comunicación con los líderes. Debido a los distintos puntos observados y viendo que se prestan para ser mejorados a largo plazo se le dará continuidad al estudio.
Velazquez Sanchez Luis Aaron, Instituto Politécnico Nacional
Asesor:Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
SSVEP POTENCIALES EVOCADOS VISUALES DE ESTADO ESTACIONARIO
Hernández Rizo María del Rocío, Universidad de Guadalajara. Socha Hurtado Daniel Felipe, Universidad Tecnológica de Pereira. Velazquez Sanchez Luis Aaron, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Potenciales evocados visuales de estado estacionario (SSVEP) son señales electroencefalográficas que se provocan a través de estímulos visuales. Estas señales son importantes en las Interfaces Cerebro-Computador (BCI). Una BCI es un sistema computacional que permite la comunicación sin medir actividad muscular y que consta de los siguientes elementos:
EEG no invasivo
Preprocesamiento
Machine Learning
Control de interfaces
Retroalimentación
Un SSVEP se obtiene al generar un estímulo y esto genera en el usuario un potencial evocado, en ese sentido, se genera un estímulo visual que se detecta en la corteza occipital y con esta información se puede llegar a diferentes aplicaciones en personas que tienen dificultad para moverse, un ejemplo de esto sería poder escribir sin necesidad de teclado a través de estímulos visuales.
Los evocados se pueden detectar de diferentes maneras:
PSDA Power Spectrum Density Analysis, FFT, trasformar del dominio del tiempo a la frecuencia.
Métodos de filtrado especial: CSP, MEC, CCA Análisis de correlación canónica.
METODOLOGÍA
Para la adquisición de datos participaron 5 sujetos de prueba que fueron durante 3 sesiones estuvieron recibiendo estímulos visuales a través de una pantalla de monitor. Los SSVEP se adquirieron a través de un EEG que constaba de 8 canales ubicados en la corteza occipital de acuerdo con el sistema internacional 10-20. Las señales EEG se adquirieron a una frecuencia de muestreo de 256 Hz.
Durante la adquisición de datos, el participante se sienta frente a una pantalla de monitor en la cual hay un cuadrado apagado, se ilumina el cuadrado durante 2 segundos, lo que corresponde a la presentación del objetivo, luego durante 1 segundo se apaga, lo que corresponde a la etapa de preparación, a continuación durante 15 segundos se prenderá a diferentes frecuencia, lo que corresponde a la etapa de estimulación, y finalmente tendrá 5 segundos, lo que corresponde al descanso, una vez que se termina el descanso se repite el mismo bloque (trial) pero a una frecuencia diferente.
Las frecuencias de estimulación son 11: 5 Hz, 5.4545 Hz, 6 Hz, 6.6667 Hz, 7.5 Hz, 8.5714 Hz, 10 Hz, 12 Hz, 15 Hz, 20 Hz y 30 Hz, también se considera un bloque en el que no hay estimulación. Las frecuencias de estimulación se presentan en un orden aleatorio.
Por convención se trabajó con el participante 1. Con los datos obtenidos se graficó la señal EEG, posteriormente se aisló la señal EEG adquirida por cada canal. A continuación, se identificó el inicio de la fase de estimulación de cada trial y su frecuencia que comprenden del segundo 3 al 18 y se realizó un análisis de frecuencia. Luego se identificó la potencia espectral en la frecuencia fundamental y su primer y segundo armónico.
Con esta información se usó la aplicación de Machine Learning llamada Clasification Learner de MATLAB para hacer un clasificador binario. Se hicieron diversos estudios para encontrar el mejor clasificador a una frecuencia de estimulación elegida, se comparó el mismo clasificador con las demás frecuencias. Se identificaron las frecuencias que mejor clasifica y las peores. Con la frecuencia que mejor clasifica se observa la precisión en la frecuencia fundamental y su primer y segundo armónico.
CONCLUSIONES
Para la clasificación de señales SSEVP es preferible solo usar la frecuencia fundamental ya que con los armónicos usualmente se ve reducida la precisión de los clasificadores.
Para el participante 1 las frecuencias de 6 Hz y 15 Hz se diferencian mucho de las demás y por eso presentan un 100% de acierto con el clasificador elegido.
Los clasificadores de clase KNN mostraron un gran desempeño en la clasificación de las señales SSVEP del participante 1.
Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán
Asesor:Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
DESARROLLO DE UNA METODOLOGíA PARA LA IDENTIFICACIóN DE PERFILES DE LOS CONSUMIDORES DEL SERVICIO PúBLICO UTILIZANDO TéCNICAS DE APRENDIZAJE DE MáQUINA.
Barron Valencia Josue Victor, Instituto Tecnológico Superior de Apatzingán. Herrera Cansino Daniel, Instituto Tecnológico Superior de Apatzingán. Ledesma Martinez Larissa, Instituto Tecnológico Superior de Apatzingán. Medina Luna Carlos Miguel, Instituto Tecnológico Superior de Apatzingán. Velázquez Villa Julio César, Instituto Tecnológico Superior de Apatzingán. Asesor: Mg. Luis Ariosto Serna Cardona, CIAF Educación Superior
PLANTEAMIENTO DEL PROBLEMA
El agotamiento de los recursos naturales constituye uno de los problemas más preocupantes de la actual situación de emergencia planetaria [3], a causa de la dilapidación de recursos como el agua y la energía, los cuales son vitales para el sostenimiento de ecosistemas naturales, e históricamente han tenido mucha influencia en la prosperidad y éxito de una nación [4].
El poder y la eficacia de los métodos del aprendizaje automático derivan de la capacidad de extraer patrones y crear modelos a partir de los datos. En consecuencia, la aplicación de estos métodos se vuelve un enfoque clave para utilizar los grandes volúmenes de datos que se obtiene a partir del monitoreo continuo de la demanda de agua (Smart metering), así como tratar la complejidad que subyace al encontrar patrones de hábitos de consumo o predecir la demanda de agua futura, cuando se involucran variables de tipo sociodemográfico.
METODOLOGÍA
La metodología asociada a la consecución del objetivo general se divide por actividades, de acuerdo con los objetivos específicos planteados con antelación.
Creación de una base de datos de consumidores de servicios públicos de agua de la ciudad de Pereira: la generación de la base de datos será posible mediante la realización de encuestas en hogares de la ciudad de Pereira. Teniendo en cuenta la contingencia actual derivada por el CoVID-19, se emplearán recursos digitales para tal fin. Así, la muestra que se pretende tomar consiste en alrededor de 400 hogares de distintos niveles socioeconómicos y estratos, esto con el fin de garantizar la relevancia estadística de la población elegida. La muestra tiene un 95% de confianza con un 5% de error esperado sobre una población de 149.704 suscriptores de estos servicios, que para el año 2017 fueron reportados por el sistema único de información de los servicios públicos, adscrito a la superintendencia de los servicios públicos domiciliarios a la república de Colombia.
Preprocesamiento de la base de datos. La base de datos ha sido recolectada cuenta con dos tipos de datos: categóricos y no categóricos. Por lo tanto, para extraer información relevante e identificar patrones subyacentes se implementarán algoritmos de aprendizaje de máquina supervisados y no supervisados.
CONCLUSIONES
En el transcurso de esta estancia se ha adquirido conocimiento en el área de Machine Learning Aprender en este contexto quiere decir identificar patrones complejos en miles de datos, por medio de algoritmos, ajustando las horas por medio de un plan de trabajo descrito con anterioridad con una breve introducción al entorno y al lenguaje de Python, analizando los diccionarios, estructuras de datos, Pandas, histogramas,tablas, gráficos de 2 dimensiones por medio de la librería (Matplotlib), DataFrames, bibliotecas de aprendizaje automático, preprocesamiento de las bases de datos con sus funciones, cargando bases de datos a Python métodos de agrupamiento de datos en la base de datos de consumo sostenible en sus diferentes métodos. Se puede concluir que los algoritmos arrojaron ciertos resultados, pero que la ineficiencia de los etiquetados fue lo que provocó resultados tan pobres. Esto se puede dar a entender porque aún con cinco métodos de agrupamiento, ninguno dio el nivel de acierto por encima del 50%, lo que denota la deficiencia en el etiquetado de la base de datos.
Venegas Rodríguez Mónica Isela, Instituto Tecnológico Superior de Guanajuato
Asesor:Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato
MONITOREO DE MAQUINA CNC POR VIA REMOTA
MONITOREO DE MAQUINA CNC POR VIA REMOTA
Venegas Rodríguez Mónica Isela, Instituto Tecnológico Superior de Guanajuato. Asesor: Dr. Edgar Enrique Vázquez Ramírez, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
Las maquinas CNC portátiles o de escritorio se encuentran entre las más versátiles que hay ya que permiten el maquinado de piezas personalizadas, ya sea por una necesidad específica o para desarrollar diseños únicos. El maquinado más común a realizar en un ambiente no industrial incluye los cortes lases, las impresiones 3D o los fresados en pequeñas piezas. Se ha registrado un aumento de entusiastas avanzados que quieren aplicar sus conocimientos de programación en códigos abiertos y, también, un grupo de principiantes que solo quieren aplicar sus diseños.
Se quiere dar funcionalidad remota a una máquina CNC revisando el estado de la máquina y progreso de los trabajos, así como enviar instrucciones.
La máquina CNC en la que se trabaja es una máquina armada en la institución controlada por tarjetas programables tipo Arduino a las que se adaptará un sistema remoto de control. El dispositivo receptor de la información será capaz de interactuar con la máquina CNC.
Deberá trabajarse la programación del sistema para permitir enviar y recibir datos, lo cual será una ventaja para el control de un maquinado debido a que el tiempo suele ser extenso. Se utilizará únicamente software de código abierto (Open Source) para el control de la máquina CNC.
METODOLOGÍA
Se realizó una búsqueda de estudios y trabajos recientes en máquinas CNC, especialmente de software de código abierto más versátil, así como una comparación de los sistemas de control que se pueden aplicar a máquinas CNC. Se encontró que hay varios proyectos que utilizan principalmente tarjetas programables tipo Arduino como parte del hardware para equipos personales, además de que el bluetooth es el sistema preferido para comunicación inalámbrica
Se aprendió un poco de lenguajes de programación de las máquinas CNC, de los comandos de movimientos y de las puestas en operación.
Se seleccionaron aquellos protocolos de comunicación remota más prometedoras para manejar la maquina CNC a distancia
Se prepara máquina CNC para su correcto funcionamiento dado que se le hicieron algunos ajustes y se tuvo que poner en funcionamiento.
Se propuso un control inicial con enlace bluetooth para movimiento.
Trabajo futuro
Experimentación y control
• Pruebas de conexión
• Programación de software Open Source para enviar y recibir información
• Diseño de experimentos
Análisis de resultados
• Evaluación de experimentos
• Análisis y resultados
CONCLUSIONES
Durante la estancia en el curso de verano Delfín se obtuvo un gran conocimiento sobre el funcionamiento de la maquina CNC, sus componentes y la manera de desplazarse y de sus estilos de maquinado.
Los controles a distancia disponibles en el mercado nos indican que hay una posibilidad de desarrollo en el control de una máquina personal CNC a distancia, ya que la mayoría de los controles se utilizan como un mando para maquinado manual y hay un campo amplio para aquellos que solo deseen ingresar sus diseños sin necesidad de una computadora y enviarlo por vía remota a la máquina.
El desarrollo del proyecto tuvo que realizarse de manera virtual por lo que las pruebas físicas se realizarán una vez que se tengan las condiciones necesarias.
Ventura Lara Diana Laura, Universidad Mexiquense del Bicentenario
Asesor:Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
ANáLISIS DE REDES SOCIALES PARA LA CLASIFICACIóN DE LUGARES TURíSTICOS
García Vázquez Ivan Horacio, Instituto Tecnológico Superior de Ciudad Serdán. Solano de Sixto Gabriel, Instituto Tecnológico Superior de Ciudad Serdán. Ventura Lara Diana Laura, Universidad Mexiquense del Bicentenario. Asesor: Dra. María Claudia Denicia Carral, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La actividad en redes sociales ha incrementado considerablemente en los últimos años, donde los usuarios comparten información constantemente sobre diferentes temas y opiniones. Por tal motivo, sería de gran interés analizar qué opinan las personas en relación con el turismo para poder clasificar estos comentarios con la ayuda de análisis de sentimientos, identificando que se está expresando, analizando el número de tweets que se han recopilado y las menciones que se han realizado de las diferentes cuentas.
METODOLOGÍA
Se buscaron 10 lugares turísticos por integrante del equipo de investigación, para hacer un total de 30 lugares turísticos en México.
Lugares turísticos seleccionados
African Safari
Atlixco
Catedral de Puebla
Centro Histórico de Puebla
Pahuatlán
San Andrés Cholula.
Teleférico
Tlatlauquitepec
Xicotepec
Zacapoaxtla
Catedral de Toluca
Cosmovitral Jardín Botánico de Toluca
La Marquesa
Plaza de los Mártires
Nevado de Toluca
Centro Ceremonial Otomí
Teotenango
Las Torres Bicentenario
Valle de Bravo
Parque Ecológico de Zacango
Grutas Karmidas Zapotitlán de Méndez, Puebla
Gran telescopio milimétrico Puebla
Cuetzalan, Puebla
Laguna de Chignahuapan,
Libres, Puebla
Museo de la Evolución, Tehuacán, Puebla
Museo Mexicano del Axolote, Chignahuapan, Puebla
Parque nacional Izta-Popo, Puebla
Reserva de la Biosfera Cuicatlán, Tehuacán, Puebla
Valle de piedras encimadas, Zacatlán Puebla.
Recolección de Tweets y almacenamiento
En esta fase se utilizó la red social Twitter,. El software que se utilizó para el proceso de recolección y almacenamiento fue RapidMiner, Para la recolección de los Tweets se utilizaron las siguientes técnicas:
Utilizar Google maps para utilizar las coordenadas geográficas del sitio turístico.
Utilizar símbolos como @ o # y Jugar con las palabras.
Utilizar o buscar por actividades culturales.
Utilizar el nombre del sitio turístico.
Buscar en twitter como se reconocen.
Utilizar diferentes idiomas como inglés, árabe, portugués, español.
Aplicando estas técnicas se obtuvo un total de 19,506 Tweets.
Procesamiento de filtrado
Utilizar una base de datos: Las bases de datos se realizaron con el fin de poder utilizar de manera más rápida y eficaz los Tweets.
Filtrado por selección de atributos: Se utilizó un operador llamado Select Attributes, porque nos enfocamos en los atributos Text, Polaridad, Ironía, e Idioma.
Eliminación de duplicados: Utilizamos el operador llamado Remove Duplicates para remover tweets que se repiten.
Filtrado por palabras: Se utilizó el operador Filter Examples, en donde se colocaron sinónimos de turismo en diferentes idiomas.
Terminando la fase de filtrado de los Tweets obtuvimos un total de 3,163.
Análisis de los textos y sentimientos
Se descargó una extensión por medio de RapidMiner llamada MeaningCloud, ayudó a clasificar los Tweets filtrados en la fase anterior en Positivo, Negativo.
Construcción del ranking
Para la construcción del ranking se utilizaron ciertas técnicas como; el porcentaje de tweets de cada lugar, el porcentaje se mostró en la cantidad de positivos y negativos que tuvo cada lugar, con respecto a los datos sin filtrar y los datos filtrados. Lugares turísticos seleccionados y su porcentaje de positividad ordenados de manera que sea mayor porcentaje, mayor positividad.
Valle de Bravo 6.23%
La Marquesa 5.13%
La plaza de Mártires 3.34%
Las torres Bicentenario 2.25%
Teleférico 1.87%
Centro ceremonial 1.46%
San Andres Cholula 0.96%
Pahuatlán 0.92%
Reserva de la biosfera, Cuicatlán 0.83%
Atlixco 0.75%
Xicotepec 0.65%
Nevado de Toluca 0.57%
Museo Mexicano del Ajolote 0.56%
Centro histórico de Puebla 0.56%
Museo de la Evolución 0.52%
Cuetzalán 0.5%
Catedral de Puebla 0.26%
Parque Ecológico de Zacango 0.24%
African Safari 0.23%
Grutas Karmidas 0.22%
Libres 0.2%
Zacapoaxtla 0.17%
Tlatlauquitepec 0.17%
Catedral de Toluca 0.16%
Gran Telescopio Milimétrico 0.15%
Cosmovitral Jardín Botánico 0.12%
Teotango 0.05%
Valle de piedras encimadas 0.01%
Parque Nacional Izta-Popo 0.01%
Laguna de Chignahuapan 0%
Lugares turísticos seleccionados y su porcentaje de negatividad ordenado de manera descendente, siendo que se indica, entre mayor porcentaje, mayor negatividad.
Laguna de Chignahuapan 0%
Parque Nacional Izta-Popo 0%
Teotenango 0%
Catedral de Toluca 0%
Centro Ceremonial Otomí 0%
Gran telescopio milimétrico 0%
Museo de la Evolución 0%
Grutas Karmidas, Zapotitlán de Méndez 0%
Cosmovitral Jardín Botánico 0.08%
Parque Ecológico de Zacango 0.13%
Valle de piedras encimadas 0.16%
Reserva de la Biosfera Cuicatlan 0.28%
Las Torres Bicentenario 0.31%
Nevado de Toluca 0.60%
Pahuatlán 0.63%
La Marquesa 0.69%
African Safari 0.83%
Catedral de Puebla 1%
Valle de Bravo 1.13%
La Plaza de los Mártires 1.56%
Cuetzalan 1.81%
Xicotepec 1.93%
Atlixco 2.08%
Teleférico 4.16%
Tlatlauquitepec 6.14%
Centro Histórico de Puebla 7.34%
Zacapoaxtla 8%
San Andrés Cholula 8.90%
Museo Mexicano del Axolote 19.85%
Libres 21%
CONCLUSIONES
A lo largo de la realización de este proyecto durante la estancia, con la ayuda de la Dra. Maria Claudia Denicia Carral, nos enfocamos en el sector 11 ciudades y pueblos sostenibles donde aprendimos cómo se realiza un procesamiento de textos para su previo uso en el ranking turístico propuesto, por medio de una red social actualmente demandada (Twitter), haciendo uso de RapidMiner con su debida extensión MeaningCloud, gracias a esta herramienta y a los procesos que se llevaron a cabo para el análisis de sentimientos y de esta manera conocer el grado de aceptación de los lugares seleccionados. El aprendizaje que se logró fue una gran aportación en la manera de cómo se puede utilizar la tecnología para ayudar al centro turístico de la región, además, también se analiza el uso de las redes sociales para el centro turístico.
Vera Arzate Araceli, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Mg. Manuel Fernando Martínez Forero, Universidad La Gran Colombia
UNIONES DE MURO CON BAMBÚ Y CIMENTACIÓN
UNIONES DE MURO CON BAMBÚ Y CIMENTACIÓN
Vera Arzate Araceli, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Mg. Manuel Fernando Martínez Forero, Universidad La Gran Colombia
PLANTEAMIENTO DEL PROBLEMA
UNIONES DE MURO CON BAMBÚ Y CIMENTACIÓN
METODOLOGÍA
En el presente trabajo de investigación se llevo a cabo revisión bibliográfica, de esta manera podemos decir que los programas internacionales de cooperación técnica han reconocido las cualidades excepcionales del bambú y están realizando un amplio intercambio de variedades de esa planta y de los conocimientos relativos a su empleo. En seis países latinoamericanos se adelantan hoy proyectos destinados a ensayar y seleccionar variedades sobresalientes de bambú recoleccionadas en todo el mundo, y también a determinar al lugar potencial de ese material en la economía locales. (Evidally GBS, 2019)
Características
- Propiedades especiales: Ligeros, flexibles; gran variedad de construcciones
- Aspectos económicos: Bajo costo
- Estabilidad: Baja a mediana
- Capacitación requerida: Mano de obra tradicional para construcciones de bambú
- Equipamiento requerido: Herramientas para cortar y partir bambú
- Resistencia sísmica: Buena
- Resistencia a huracanes: Baja
- Resistencia a la lluvia: Baja
- Resistencia a los insectos: Baja
- Idoneidad climática: Climas cálidos y húmedos
- Grado de experiencia: Tradicional
Descripción
En regiones donde crece el bambú, el clima generalmente es cálido y húmedo, lo que conlleva al uso de materiales de baja capacidad de almacenamiento térmico y de diseños que permiten la ventilación cruzada. Las construcciones de bambú satisfacen plenamente estos requerimientos, lo que explica su uso en estas zonas.
Los muros de bambú no pueden ser construidos a prueba de apara y en forma hermética, así que la ventilación cruzada se da en forma inherente, brindando un ambiente agradable y libre de humedad.
CONCLUSIONES
Para concluir, una vez analizando todo el panorama de lo investigado se puede deducir que no hay datos experimentales, parece razonables esperar que las clases duraderas de cañas de bambú puedan durar un tiempo mayor, hincadas en el suelo, mediante la aplicación del pentaclorofenol en una forma apropiada.
Si se emplea el bambú como soporte en casas de bajo costo, las cañas deberán tener un diámetro mayor, paredes gruesas y nudos más próximos, para proporcionar un máximo de resistencia al pandeo. Cuando no se puede obtener piezas grandes de bambú es conveniente emplear pequeños bambúes, con características estructurales adecuadas, amarrados y formando pilares compuestos.
El bambú al igual que la madera se debe mantener alejado de posibles humedades, contactos con el agua y la
exposición directa a los rayos UV.
Debemos por tanto tener en cuenta ciertos aspectos en un punto tan crítico como es la unión con la cimentación.
Diferentes alternativas de cimentación resultan ideales para favorecer una protección de los pilares de bambú. Se deben realizar mas pruebas de campo.
Vera Betancourt Carlos Alberto, Universidad Autónoma de Manizales
Asesor:M.C. Irma Alejandra Amaya Patrón, Universidad Autónoma de Baja California
MONITOREO E INTERVENCIONES PERSUASIVAS MHEALTH PARA CUIDADOS POSTOPERATORIOS
MONITOREO E INTERVENCIONES PERSUASIVAS MHEALTH PARA CUIDADOS POSTOPERATORIOS
Forero Segovia Nicolas, Universidad Autónoma de Manizales. Vera Betancourt Carlos Alberto, Universidad Autónoma de Manizales. Asesor: M.C. Irma Alejandra Amaya Patrón, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El objetivo de desarrollo sostenible número tres titulado salud y bienestar [2], es aquel que busca garantizar una vida sana y promover el bienestar en todas las edades como un punto esencial para el desarrollo sostenible y donde se resalta que existen un gran número de problemas de salud, tanto constantes como emergentes. De hecho, una de las metas de este objetivo es reforzar la capacidad de todos los países, en particular los países en desarrollo, en materia de alerta temprana, reducción de riesgos y gestión de los riesgos para la salud nacional y mundial
Es por esto que se decide aportar en la obtención de esta meta desde el cuidado postoperatorio de pacientes, con el cual se puede asegurar una buena recuperación de la cirugía realizada a la persona [3]. Dentro de estos cuidados se encuentran diferentes recomendaciones e indicaciones según el proceso realizado y a seguir, como lo puede ser:
Realizar movimientos y actividad física [4]-[6]; como se evidencia en el trabajo de Sporrel et al. [6] donde relacionan la actividad física con la duración de la estancia en el hospital.
Mantener reposo y/o la inmovilización [7], [8], por ejemplo la investigación de Shimizu et al. [8] donde comparan diferentes tipos y periodos de inmovilizaciones después de la reconstrucción de ligamentos cruzados anteriores.
De acuerdo a lo mencionado anteriormente es que se propone desarrollar un prototipo mHealth de monitoreo e intervenciones persuasivas para el cuidado postoperatorio de pacientes, con lo que se busca mejorar la calidad en la atención a los pacientes, el bienestar de los mismos y la toma de decisiones en base a la información recolectada.
Después de una revisión de la literatura centrándose en el monitoreo del paciente y basándose en los conceptos clave acelerómetro, cuidados postoperatorios, sensores específicos, sensores del smartphone, autocuidados informados, comparación de sensores frente a datos autoinformados, medición reposo y medición actividad física, se vió reflejado que no existe un trabajo que relacione todos los conceptos mencionados.
De igual manera se realizó otra revisión de la literatura, está centrándose en intervenciones mHealth persuasivas a pacientes postoperatorios y basándose en los conceptos clave Diseño de sistemas persuasivos, Estrategias de persuasión, Adherencia a los sistemas, mHealth, Comparación de estrategias, Cuidados post-operatorios, Descanso, Intervención adaptativa. Al igual que en la primera revisión nombrada, en esta también se vió reflejado que no existe un trabajo que relacione todos los conceptos. Es por esto, que se decide continuar con el proyecto y el desarrollo del prototipo mHealth.
METODOLOGÍA
Revisión de literatura
Lectura de artículos científicos acerca de las intervenciones, las técnicas y/o estrategias de monitoreo, las estrategias de persuasión, y el diseño de sistemas persuasivos para el cuidado de pacientes postoperatorios mediante mHealth
Selección de estrategias de monitoreo al paciente
Esta consiste en la búsqueda de las estrategias para monitorear al paciente haciendo uso del mHealth. Conociendo estas se selecciona la que se considere más adecuada para el proyecto.
Selección de estrategias de persuasión
Similar a la actividad anterior, se realiza una búsqueda de las estrategias existentes que se usan para generar un cambio de comportamiento (o mantenerlo) en el usuario, y de estas se seleccionan las que presenten una mejor adherencia a la hora de persuadir al usuario.
Identificación del funcionamiento y características básicas del prototipo
Obtener y especificar los requerimientos funcionales y no funcionales del sistema que se va a desarrollar. Para esto se intenta dar respuesta a las preguntas de ¿Qué debe hacer el prototipo? y ¿Qué características va a tener? [13]
Selección de la arquitectura del sistema
En esta actividad se escoge cuáles son las tecnologías con las que se desarrollará el prototipo en sus diferentes fases y con las que se implementarán las estrategias de persuasión escogidas.
Elaboración del wireframe del prototipo
Consiste en elaborar el esquema del prototipo, en cómo serán sus interfaces y el flujo en sus diferentes pantallas. En este esquema se visualiza la experiencia del usuario al interactuar con el prototipo.
CONCLUSIONES
Conforme a las actividades realizadas se cuenta con un diseño para el prototipo mHealth centrado en el usuario. Donde se hace uso de elementos con los que ya cuentan los teléfonos inteligentes como lo es el acelerómetro y de tecnologías que permiten el desarrollo del prototipo sabiendo los sistemas operativos móviles como Rest Api, microservicios de notificaciones push, y servicios en la nube. Las interfaces, flujos y experiencias de usuario del prototipo presentan características persuasivas que motivan a los pacientes postoperatorios a mantener un buen comportamiento en su cuidado. Logrando esto mediante el monitoreo del estado del paciente, el establecimiento de metas, el acceso continuo a recordatorios, la ganancia de recompensas y halagos virtuales según se cumplan las metas, y la muestra de que la información que provee el sistema es de fuentes confiables. De esta manera, mejorando la recuperación del paciente y disminuyendo el tiempo para que pueda retomar la realización de movimientos que no se pueden hacer recién se sale de una operación.
Finalmente, uno de los retos con los que cuenta la organización mundial de la salud para realizar el seguimiento y monitoreo de los ODS (SDG), en este caso salud y bienestar, están relacionados a la recolección de datos, como la disponibilidad limitada de datos o pobre infraestructura y herramientas de la infraestructura [23]. Este proyecto aporta en esta dirección como una oportunidad de apoyar la obtención de datos mediante sensores que recopilan información y la almacenan en datos masivos para su procesamiento a gran escala, lo cual beneficia y sirve para mejorar y promover la salud de las personas, en este caso pacientes postoperatorios que necesitan mantener una serie de cuidados y reposo mientras se recuperan.
Vera García Susana, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora
FACTORES QUE PROVOCAN UNA DEFICIENTE GESTIóN DENTRO DE LOS ALMACENES DE MATERIA PRIMA
FACTORES QUE PROVOCAN UNA DEFICIENTE GESTIóN DENTRO DE LOS ALMACENES DE MATERIA PRIMA
Carrasco Ortega Maritza Aline, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Vera García Susana, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dra. Beatriz Alicia Leyva Osuna, Instituto Tecnológico de Sonora
PLANTEAMIENTO DEL PROBLEMA
El almacén de materia prima siempre se encuentra enfrentándose a la mala gestión dentro del mismo, y eso causa los retrasos en los envíos a los clientes, la pérdida o extravío de las mercancías y que los costos sean elevados al hacer los pedidos a los proveedores.
Los almacenes trabajan bajo políticas administrativas como de control para cumplir con la demanda interna del cliente inmediato que son las áreas de producción y surtimiento, así como mantener ciertos niveles de inventario; cuando no se cumplen lo objetivos como los antes mencionados, de abastecer las áreas de producción y surtimiento, la consecuencia es el paro en la línea de producción del cliente lo cual provoca sanciones económicas para la organización. Sin embargo, a pesar que en algunas ocasiones no se han cumplido los objetivos, la organización ha optado por seguir operando bajo los mismos lineamientos. Aunado a esto se generan los famosos cuellos de botella debido a la falla en algún área de la gestión, igual mencionamos la entrega a destiempo de los productos finales, las fallas en algunas máquinas de producción, que el despacho no sea seguro o principalmente que se provoque algún accidente dentro del almacén debido al mal gestionamiento de tiempo de entrega.
Lo que esto nos lleva a hacernos la pregunta ¿El mal funcionamiento de la gestión de un almacén de materia prima genera también cuellos de botella, productos terminados en mal estado, entregas a destiempo y rechazo de clientes finales?
METODOLOGÍA
El tipo de investigación que se realizó en este estudio fue documental, en el cual se revisaron 25 artículos de investigación científica obtenidos de diferentes bases de datos Redalyc, Scielo, Google Académico, Latindex, y Ebsco.
Se seleccionaron las investigaciones que cumplieron con los siguientes requisitos o criterios: 1) que en su contenido expresaran las palabras claves del estudio, 2) que expusieran características generales, 3) que manifestaran las características metodológicas de los mismos, es decir: tipo de estudio, fuente de obtención de la información, población o de la muestra y técnicas de análisis de la información y 4) que mencionaran los factores que Factores que provocan una deficiente gestión dentro de los almacenes de materia prima.
CONCLUSIONES
Las investigaciones en relación con la gestión en los almacenes exponen que los factores que más inciden en su mal funcionamiento son: No se conocen las ubicaciones de donde tiene que ir colocado el producto y eso repercute directamente los tiempos de ejecución, No se dispone de suficiente espacio; los pasillos no se respetan y puede tener consecuencias graves, Falta de organización en el almacén puede ocasionar la pérdida de control, ocasionando retraso, falta de respuesta, rotura de stock y no se contara con más información para tomar decisiones, Trazabilidad interna y externa del producto las pérdidas de las mercancías pueden dejar de será algo esporádico para convertirse en una carga diaria, Errores de picking, esto no solo se trata de tener un stock fiable, sino del nivel de insatisfacción del cliente, Falta de información en tiempo real, Caducidad u obsolescencia, Recursos humanos poco optimizados. Así también se hacen referencias aquellos factores que intervienen para una excelente gestión en el almacén y son los siguientes: El sistema de almacenaje donde se debe tener en cuenta el espacio y las características principales del almacén para así hacer uso máximo de la infraestructura, La recepción donde se debe comprobar que tanto el destinatario como el contenido son correctos, que el embalaje está perfecto y que no tiene signos de manipulación, El coste de almacenamiento donde dependerá de los salarios del departamento de gestión de almacenes, maquinaria de transporte, suministros, alquiler del local, etcétera, El inventario este trata de realizar un conteo físico de los materiales que hay almacenados para cotejar los registros que se tienen, Clasificación este consiste en agrupar u ordenar los artículos en función de su peso, tipo, dimensión o forma, Tipos de productos almacenados como no todos los productos tienen la misma rotación o el mismo valor, es necesario establecer un sistema eficaz con el que priorizarlos y por ultimo Planificación corresponde a un proceso táctico y de estrategia, ya que ha de brindar las soluciones en materia de recursos y debe estar alineado con los objetivos generales de la empresa y su política.
Verdugo Alanis Sergio, Instituto Tecnológico de Ciudad Juárez
Asesor:Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan
EL NIVEL DE EFECTIVIDAD DEL SISTEMA DE MEDICIóN POR ATRIBUTOS DE LOS INSPECTORES DE CALIDAD EN LAS EMPACADORAS DE LAS FRUTILLAS.
EL NIVEL DE EFECTIVIDAD DEL SISTEMA DE MEDICIóN POR ATRIBUTOS DE LOS INSPECTORES DE CALIDAD EN LAS EMPACADORAS DE LAS FRUTILLAS.
Medrano Aros Lesly Alejandra, Instituto Tecnológico de Ciudad Juárez. Verdugo Alanis Sergio, Instituto Tecnológico de Ciudad Juárez. Asesor: Dra. María de Jesús Corona Soto, Instituto Tecnológico Superior de Uruapan
PLANTEAMIENTO DEL PROBLEMA
¿Existe relación entre el inspector de calidad y el nivel de efectividad del M.S.A. en las empacadoras de las frutillas? La calidad según M. Yáñez 20081 es el grado en el que un conjunto de características inherentes cumple con los requisitos, es por eso que en todas las empresas es muy importante que se cumpla con una buena calidad, si bien es subjetiva por los diferentes giros de cada organización, debe estar presente y llevarse de manera adecuada por aquellas personas que laboran en dicho departamento, pero en ocasiones hay discrepancia en las decisiones que toman los inspectores de calidad, por esto es que se aplica el Sistema de Medición por Atributos (M.S.A.) para así analizar el nivel de certeza en sus evaluaciones, ya que, este sistema arroja la efectividad que tienen en su respuesta, puesto que puede haber productos que sean acepados teniendo algún defecto y por otra parte puede haber rechazos de productos en perfectas condiciones y así adquirir costos de mala calidad.
1.(M. Yáñez, 2008)
METODOLOGÍA
Se utilizó una muestra de 50 frutillas (zarzamoras), la mitad de ellas en buen estado y la otra mitad con uno o más defectos previamente bien identificados por el supervisor de los inspectores de calidad, se realizó un ordenamiento aleatorio de números en el software Minitab y Excel como herramienta de apoyo, para así asignarle uno a cada frutilla y realizar la inspección correspondiente dentro del estudio, siendo llevado a cabo en 2 repeticiones para cada inspector, contando con 7 personas seleccionadas para dicho estudio, cada evaluación siendo en un acomodo distinto. Al realizar la inspección de las frutillas se deben de seguir una serie de pasos para hacerlo de manera correcta, se necesitara de contar con una charola cuadriculada y enumerada para el acomodo de las frutillas y varios formatos donde se vaciara la información que recabaran los evaluadores de acuerdo a las respuestas de los evaluados, al momento de los inspectores realizar su labor, tendrán que revisar las frutillas de acuerdo al orden que se les indique por parte de quien realiza el estudio, sin tocar en ningún momento el objeto, para así evitar contaminación o algún defecto extra por la manipulación de estas. Al momento del inspector emitir su respuesta, el encargado del estudio debe limitarse a recabar la información que cada inspector sin dar ningún tipo de señal de si es correcta o no la afirmación del inspector, cada observación hecha por los evaluados deberá ser anotada para una revisión futura, al finalizar con todos los inspectores de calidad la primer ronda de evaluación se procederá con la segunda ronda en una ordenación distinta, las frutillas siempre permanecerán en el mismo lugar, lo que cambiara, será el cómo se preguntan el orden los números de estas, para así realizar una relación entre sus propias respuestas. Los resultados obtenidos se vaciarán en el software Minitab, mediante el cual se realizará un Análisis de Medición por Atributos (M.S.A.), para así analizar la concordancia entre las respuestas de cada evaluador mediante el índice de Kappa de Fleiss, el cual nos arrojará un valor, el cual, en este caso en particular fue un resultado muy bajo, lo requerido para un buen sistema es un .90 como resultado o mayor a este, de .70 a .80 sería un resultado que si bien no es malo, es posible que en algún momento exista el error y necesite un poco de mejoras, y un resultado menor a .70 necesita acciones inmediatas puesto que la actuación de sus inspectores es deficiente, como lo es en este caso, que se cuenta con un resultado de 0.558065, entre los evaluadores y 0.633031 de todos los evaluadores comparados con el estándar.
CONCLUSIONES
Durante la estancia en el verano Delfín se reforzaron términos que se habían visto en algunas materias cursadas, así como también se adquirieron conocimientos nuevos como lo fue el M.S.A., qué es, para qué sirve y cómo puede ser aplicado en todas las empresas en las que su producto sea inspeccionado por medio de atributos y que no se utilice una herramienta para medirlos, si bien es un sistema que aparenta simplicidad tiene su grado de dificultad, siendo un gran apoyo en la medición de las respuestas y de la concordancia entre los inspectores y las repeticiones.
Vergara Garcia Jose Eduardo, Instituto Tecnológico Superior de Huetamo
Asesor:Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES. MóDULO DE NOTIFICACIONES POR VOZ.
SISTEMA PARA EL MONITOREO DE SIGNOS VITALES Y NOTIFICACIóN DEL COMPORTAMIENTO DE LAS VARIABLES CLíNICAS DE PACIENTES. MóDULO DE NOTIFICACIONES POR VOZ.
Jiménez Flores Valentin, Instituto Tecnológico Superior de Huetamo. Vergara Garcia Jose Eduardo, Instituto Tecnológico Superior de Huetamo. Asesor: Dr. Jesus Alberto Verduzco Ramírez, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
Contexto del problema
De acuerdo con la Organización Mundial de la Salud las enfermedades cardiovasculares (ECV) son la principal causa de muerte en todo el mundo. La OMS define las enfermedades cardiovasculares (ECV) como un grupo de desórdenes del corazón y de los vasos sanguíneos entre las que se consideran la enfermedad coronaria, enfermedad cerebrovascular, hipertensión, enfermedad arterial periférica, cardiopatía reumática o insuficiencia cardíaca, entre otras.
El aumento en la prevalencia e importancia de las enfermedades no transmisibles, y específicamente de los factores de riesgo cardiovasculares tales como hipertensión, diabetes, dislipidemia y obesidad, es el resultado de una interacción compleja entre salud, crecimiento económico y desarrollo, lo que está fuertemente asociado con las tendencias internacionales como el envejecimiento de la población mundial, la rápida urbanización no planificada y la globalización de modos de vida dañinos para la salud.
La H. Cámara de Diputados de México organizó una reunión multidisciplinaria con la participación de especialistas en el tema, sociedades médicas, organizaciones civiles y pacientes para dialogar en torno a la carga en salud, económica y social de las principales enfermedades cardiovasculares que afectan a los mexicanos, que de acuerdo con el INEGI constituyen la principal causa de muerte en el país con 206 mil defunciones al año y 34 mil por enfermedades cerebrovasculares.
En México, el 19% de mujeres y hombres de 30 a 69 años muere de enfermedades cardiovasculares, y se estima que el 70.3% de la población adulta vive con al menos un factor de riesgo cardiovascular como hipertensión (17 millones), diabetes (6 millones), obesidad y sobrepeso (35 millones) y/o dislipidemia (14 millones), tabaquismo (15 millones).
Propuestas de solución que existen
A la par es importante implementar acciones que privilegien la promoción y la prevención de la salud, así como garantizar el acceso de los pacientes a tratamientos efectivos, se destacan las siguientes propuestas de acción:
En primer lugar, es necesaria una educación amplia sobre la salud cardiovascular en todos los niveles educativos y en todos los niveles del ámbito de la salud. La educación en la salud es prevención y la prevención es la única medida para revertir esas cifras.
En segundo lugar, el Sistema Nacional de Salud trabaje de manera conjunta para implementar programas transversales y replicar los programas exitosos para que puedan estar al alcance de todos los pacientes sin importar a qué sistema de seguridad social pertenezca, por ejemplo contar con un programa nacional unificado para atender emergencias cardiovasculares como el infarto agudo al miocardio, permite eficientar recursos, mejorar la calidad e incrementar la atención a mayor población en menos tiempo.
Y, en tercer lugar, queremos hacer un llamado a Protección Civil, autoridades y particulares para la colocación de desfibriladores automáticos en los espacios públicos, así como la capacitación de reanimación cardiopulmonar desde edades tempranas.
Las personas se ven en la necesidad de estar mucho más al tanto del monitoreo, en el mercado existen dispositivos de monitoreo que puedes comprar y tener en tu domicilio, sin embargo, estos instrumentos médicos, solo pueden darte un diagnostico en el momento y no hacen un monitoreo de tus datos.
Bandas inteligentes
En la actualidad existen bandas inteligentes, las cuales almacenan los datos, pero con ciertas restricciones: guardan datos no por mucho tiempo, en cierta fecha se borran los datos para guardar los nuevos.
Estas no cuentan con una base de datos, que pueda hacer un monitoreo de los datos y así mismo darle la accesibilidad al usuario de poder consultar datos antiguos.
METODOLOGÍA
Módulo de notificaciones:
Por medio del https://developer.amazon.com/alexa/console/ask se programaran las Skill, donde se crean las notificaciones por comando de voz las cuales estarán dirigidas por la asistente Alexa.
Estas Skill tendrán que cumplir con una serie de funciones como; Enviar mensajes de notificación dirigida por un paciente, así como también informará de forma independiente sobre el comportamiento de los parámetros del paciente. Alexa estará enlazada a la base de datos, en este caso se está trabajando con MySQL donde se guardan el registro de los datos de los pacientes.
Alexa podrá identificar las palabras que se le dirán para que ella pueda arrojar un resultado. Para esto veremos las partes que componen a nuestra Skill.
Las frases por las cuales se podrá consultar a Alexa se les llama Intens las cuales van a representar la acción que quieren que Alexa ejecute. Ejemplo de ello vendría siendo. Dame un dato Pide un dato
El uso de estos Intents dan respuesta a una acción general, pero entonces para la parte específica se desarrolla un Slot siendo esta la variable que dentro del Intent da referencia al dato en concreto que se desea tener. Un ejemplo de ello es que se pida a Alexa Dame un dato de Marte entonces esta frase se convierte en algo más específico que el usuario desea consultar.
2.Los Utterances están encargados de hacer un mapeo de las Intents. Estos utterances permiten crear una clasificación de los Intents, esto aborda a distintas formas de referirse a una intención.
Ejemplo: Un utterance que cancele una acción.
utterance
cancelar
AMAZON.Cancel.Intent → olvídalo
cancela eso
CONCLUSIONES
Conclusión
En conclusión, el módulo de notificaciones es la última parte del proyecto donde se trabaja con Alexa y una conexión de base de datos con MySQL, este módulo tendrá la tarea de mandar notificaciones al usuario, de sus datos, ya sea alguna alerta, un resumen de los datos del usuario de su día y/o donde el usuario pueda pedir información de sus datos de monitoreo. Con la implementación de la asistente Alexa se busca una mejor accesibilidad para el acceso a los datos del paciente, así también se busca mejorar el estado de alerta que puede llegar a causar decesos de personas con padecimientos cardiovasculares.
Vergara Zambrano Loana Isabel, Universidad Cooperativa de Colombia
Asesor:Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara
PLATAFORMA SCOOPE
PLATAFORMA SCOOPE
Vergara Zambrano Loana Isabel, Universidad Cooperativa de Colombia. Asesor: Dra. Miriam Alejandra Carlos Mancilla, Universidad del Valle de México, Campus Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este proyecto tiene la finalidad de aplicar una plataforma para el desarrollo y validación de proyectos o servicios, esta aplicación está basada en la metodología de Design Thinking que consta de 5 pasos principales Empatizar, Definir, Idear, Prototipar, y Finalmente Validar.
Para el siguiente proyecto se definen cuatro fases de desarrollo, descritas a continuación:
Fase 1: Cada usuario debe contar con un registro, y debe definir si se trabajará con un producto nuevo o conocido, y se pedirán mediante un conjunto de etapas la definición de los atributos que se busca implementar en este proyecto.
Fase 2: Se trabajará con el modelo de Kano, para definir los atributos que se trabajarán en el proyecto, mediante la generación de una encuesta que permita compartirse tanto a personas registradas en la plataforma como a usuarios externos a la misma
Fase 3: Se desarrollará la etapa de prototipado para la ejecución y desarrollo del proyecto mediante el seguimiento de tareas.
Fase 4: Se desarrollará la etapa de validación para la ejecución y validación del proyecto.
METODOLOGÍA
La metodología utilizada es Scrum en el desarrollo e investigación del proyecto, está consiste en trabajar entregables que son parte de un proyecto funcional dentro de un periodo de tiempo para la formación de un proyecto propuesto con un límite de tiempo por tal motivo la realización de investigación sobre cómo implementar esto dentro de la plataforma ayuda y optimiza todo el funcionamiento para aquellas personas que no tengan conocimiento de cómo realizar la construcción de un proyecto basado en esta metodología, de igual manera es una de las principales metodologías ágiles que existen actualmente lo cual tenemos en cuenta al momento de realizar todo el planteamiento y desarrollo de este proyecto lo que nos garantiza es la utilización de metodologías agiles para la optimización del tiempo, por tal motivo, el moderador scrum se puede utilizar dentro de esta tarde dentro de este aplicativo herramienta para el análisis desarrollo y validación de proyectos.
Como tal podemos definir el objetivo final el cual se permitirá implementar la metodología scrum al igual que Design thinking, como una manera de optimizar todo el tiempo de creación de un proyecto teniendo en cuenta todas las bases y los conocimientos de las personas, es importante aclarar de que estas dos metodologías junto con la metodología kanon se utilizan para poder validar todas estos todas estas ideas generadas por medio del Design thinking para posteriormente poder validar y realizar todos los estudios de mercado pertinentes y a su vez poder analizar todo el proceso de prototipado del proyecto o la idea generada por parte de la de la fase de enfatiza. Para terminar, que el uso de estas 3 metodologías es realmente importante dentro del desarrollo del proyecto porque cada una aporta espacios completamente importantes para el desarrollo de cada uno de los objetivos planteados al momento de poder ayudar a todas las personas que no tienen conocimientos de cómo realizar su proyecto, pero como tal tienen las ideas y el tiempo necesario para poder realizarlos
CONCLUSIONES
Finalmente podemos concluir que la importancia de utilizar este tipo de metodologías por medio de las distintas herramientas para el desarrollo del software de la plataforma scopus ha sido completamente acertado ,y se encuentra en un proceso de desarrollo cumpliendo con las primeras en las primeras fases planteadas priorizando la gestión y publicación de este por medio de una metodología ágiles de desarrollo las cuales permiten que se pueda agilizar este proceso brindando así de esta forma un acompañamiento asertivo a todas aquellas personas que deseen y el que deseen implementar el Design thinking , en sus proyectos por motivos de optimización de tiempo al incluir también en estos la metodología en cada una de las fases que nos hace mención durante toda la plataforma, durante el desarrollo de esta y la metodología utilizada priorizando que de esta forma se cumpla lo que se pretende con el proyecto. Lo cual es establecer las bases para desarrollar de proyectos para que las personas que no tengan conocimiento previo a ningún desarrollo puedan utilizar esta plataforma para desarrollar su proyecto y de igual manera generen experiencias con el desarrollo de estos. Principalmente podemos concluir que esta herramienta sería de gran ayuda para el análisis de desarrollo y posterior validación de un proyecto ya que utiliza técnicas y herramientas qué tienen en cuenta toda la transformación digital ,priorizando la reducción del tiempo y aumentando el interés por el desarrollo, en los cuales ya se utiliza técnicas y herramientas que tienen en cuenta toda la transformación digital priorizando la reducción del tiempo y aumentando el interés por el desarrollo de los proyectos.
Victoriano Rocha María Isabel, Universidad Veracruzana
Asesor:Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
APLICACIóN DE HERRAMIENTAS DE INGENIERíA INDUSTRIAL EN UN ESTUDIO DE CASO DE LA EMPRESA "CONFECCIONES SARA S. A. S." UBICADA EN LA CIUDAD DE MEDELLíN, COLOMBIA
Chávez Luna Katia Marlen, Instituto Tecnológico Superior de Los Reyes. Conejo Patiño Karen Lizbet, Instituto Tecnológico Superior de Huetamo. González Mondragón Yaxkin Alejandro, Universidad de Guadalajara. Victoriano Rocha María Isabel, Universidad Veracruzana. Asesor: Dr. Julian Andres Zapata Cortes, Fundación Universitaria CEIPA
PLANTEAMIENTO DEL PROBLEMA
El caso que se analiza corresponde a la empresa Confecciones Sara S. A. S." ubicada en la ciudad de Medellín, Colombia, la cual ofrece ropa interior femenina y masculina. Esta empresa no manejaba óptimamente el control de sus pronósticos de ventas debido a una deficiente planeación en sus operaciones y falta de comunicación entre el Área de Gestión Ventas directas y el Área de Gestión de Producción (Directora Comercial y Director de operaciones); sumando a esto, tenía una errónea gestión de inventarios, ya que en repetidas ocasiones se reflejaban excedentes o faltantes de materias primas, para lo cual se busca la integración del área de logística y producción. Si se logra resolver la problemática antes descrita se tendrá un eficiente control tanto en inventarios como en producción, lo cual se verá reflejado en un incremento en las ganancias, teniendo un mejor posicionamiento ante la fidelidad de los clientes.
METODOLOGÍA
Se utilizaron diferentes métodos para la resolución de las problemáticas, uno de ellos fue crear el diagrama de Ishikawa en el que de manera gráfica se pudo observar las principales causas y efectos que tenía la empresa en la gestión inadecuada de los inventarios, flujo de información, proveedores y tecnologías.
Más tarde se elaboraron los pronósticos de los diferentes productos que maneja la industria para el año 2015, los cuales se elaboraron en Minitab y fueron diferentes métodos para cada producto, en el Baby Doll, Brasier, estraple y panty se utilizó el de descomposición, en la brasilera fue el método Winters y en el cachetero fue el promedio móvil. Optamos por estos métodos ya que al analizar la demanda por medio de las diferentes gráficas y utilizar todos los métodos de pronóstico para los productos, se determinó que se trabajaría con el menor porcentaje de error y como se mencionó anteriormente, esos fueron los mejores resultados para los pronósticos del año 2015. Teniendo los pronósticos, se realizó el plan maestro de producción, en donde se planeó cuantos lotes producir por semana para satisfacer la demanda con y sin subcontratación, esta producción varia durante los meses del año dependiendo las ventas del producto.
Posteriormente, para el manejo de los inventarios se tomó en cuenta la demanda anual de cada materia prima, para la formulación de una correcta política de abastecimiento que permitiera contener la menor cantidad de inventarios en almacén. Además, con la información proveída previamente en el caso y obtenida en pasos anteriores, se hizo el cálculo del stock de seguridad con ayuda del plazo de entrega de los productos, la desviación estándar, la demanda y la tasa de servicio que se planea prestar. De esta manera se tiene seguridad ante retrasos y se evita la pérdida de ventas y el ahorro de tiempos.
Con referente a la estructura organizacional, se plantearon varios cambios en relación al organigrama original:
Supresión del Departamento de Gestión Comercial y gerencial. Esto a raíz de que ya se cuentan con dos departamentos que llevan a cabo actividades de gestión comercial, por lo que las acciones de éste departamento pueden ser absorbidas por los últimos mencionados. La gestión gerencial puede ser manejada por medio de otra herramienta de control.
Incorporación del Área de Ventas Directas y Compras al departamento de Gestión Comercial Ventas Directas. El cambio surge al encontrarse dicha área sin depender claramente de ningún departamento.
Reestructuración del Departamento de Gestión de la Producción. Ante la falta de comunicación en las áreas, que ocasiona descoordinación logística, se reestructuró el departamento subviniéndolo en dos áreas, la de producción y la de logística. En el área de Logística se agrupan los despachos, el área de compras y el de producto terminado, mientras que en Producción se asignan el resto de las áreas enfocadas únicamente en la realización del producto.
CONCLUSIONES
Como resultado de la investigación, se puede concluir que, al aplicar las herramientas de ingeniería industrial a los problemas que se presentan en el caso Confecciones Sara S.A.S., se obtuvo la propuesta de mejoramiento de la producción en cuanto a la demanda, control de sus inventarios, y una mejor estructura organizacional.
En cuanto a la planificación de la demanda se debe realizar un proceso riguroso ya que la demanda de los modelos tiene un alto índice de rotación por los cambios de moda, una vez pronosticado, se obtuvo que para baby doll durante todo el año se hará 1 lote por semana de 300 pzas, para brasier se recomienda sub contratación para la producción de 2, 3 y 4 lotes diarios de 800 pzas, esta producción varía de acuerdo a la estacionalidad, para estraple, brasilera y cachetero se pretende 1 lote diario de 300 pzas. De igual manera, para llevar a cabo una mejor administración de los inventarios se plantearon pronósticos de ventas para el año 2015, los cuales resultaron de la siguiente manera: Baby doll un total de 8,987 pzas al año, brasier 510,117 pzas, y panty 146,897 pzas, para el cachetero 6,489 pzas y por último la brasilera con 47,688 pzas al año. Se recomendaron también políticas de inventarios que garanticen un índice aceptable de productividad.
Finalmente, se identificó que se requiere un modelo colaborativo en la cadena de suministro del caso Confecciones Sara tanto como en el área gestión de ventas directas como el área de gestión de la producción.
Viera Juárez Angela Viridiana, Instituto Politécnico Nacional
Asesor:Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
OPTIMIZACIóN DEL DISEñO DE PRóTESIS DE PIE.
OPTIMIZACIóN DEL DISEñO DE PRóTESIS DE PIE.
Viera Juárez Angela Viridiana, Instituto Politécnico Nacional. Asesor: Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
Optimizar el diseño de una prótesis de pie para el retorno de energía intermedia y el amortiguamiento del pie; que cuente con un mecanismo de bloqueo manual.
METODOLOGÍA
Primeramente realicé una investigación para generar un banco de pruebas, mediante el uso de la plataforma Lens.org en donde hice la búsqueda de patentes relacionadas con el tema de las prótesis de miembro inferior y así adquirir conocimiento sobre la información ya existente acerca del tema y comenzar a tener noción de lo que se necesita desarrollar para el proyecto.
Después de obtener los resultados de las patentes, hice un proceso de filtración para conservar la información más relevante mediante el programa Openrefine, así pude visualizar de manera más ágil los archivos necesarios.
A la par de esta investigación comencé con los cursos de capacitación para hacer uso del programa Inventor, el cual permite elaborar diseños desde piezas simples hasta máquinas u objetos más elaborados.
Como primer paso elaboré un modelo sencillo en 3D de la fachada de una casa.
En la siguiente clase aprendí a generar diferentes planos de referencias para poder diseñar modelos un poco más complejos como la base de un barco.
Después realicé el diseño de un mouse para computadora, en donde aprendí a usar más herramientas del programa para generar ese modelado orgánico.
Posteriormente, aprendí a realizar un modelo generando todas sus piezas en un mismo boceto, para después separarlas, con el fin de producir un ensamblaje de un modelo complejo.
Asimismo, realicé el ensamblaje de una prensa, donde hice uso de las relaciones de posición para que todas las piezas quedaran en su lugar y permitieran el movimiento de la máquina adecuadamente.
Una vez finalizada la capacitación de Inventor, proseguí con la del programa Ansys, el cual permite realizar análisis de tipo estructural, así como de resistencia de distintos objetos.
En la primera clase de Ansys aprendí a hacer el análisis de un proyectil que impacta con una pared, para lo cual fue necesario darle propiedades de materiales a ambos objetos, así como determinar la velocidad a la que el proyectil sería disparado y el tiempo en el que se daría el impacto, logrando con ello observar cuanto se deformaría el proyectil y también que tan resistente es la pared que recibe el impacto.
En la siguiente lección, se hizo un análisis de un tanque presurizador que permanecería estático mientras un proyectil impactaría contra él, para esto se estableció la presión interna del tanque, así como el material de este y finalmente la trayectoria y velocidad que tendría el proyectil, al término de este análisis se pudo observar que el tanque fue lo suficientemente resistente al impacto.
Posteriormente se hizo un análisis de una lata a la que le caía encima un objeto, el cual si generó una deformación considerable en la lata.
También aprendí a hacer un análisis hidráulico, esto al analizar una tubería en T la cual tenía 2 entradas de flujos de agua a distinta temperatura, una entrada con el diámetro más grande que la otra, y con una salida en la cual se mezclaban ambos flujos de agua, así se pudo observar que por la diferencia de diámetros de las entradas, la mezcla final de agua no era uniforme, pues la entrada mayor tenía agua caliente mientras que la pequeña agua fría, por lo que en la salida se tenía una mayor parte de agua caliente, mientras que una pequeña porción si tenía una mezcla tibia del agua.
Adicionalmente, realicé el análisis de la explosión de una bomba ubicada debajo de un automóvil para observar el fenómeno que se genera con ese evento.
CONCLUSIONES
Para la optimización de la prótesis elaboré los cálculos necesarios para que el pie fuera capaz de tener un retorno de energía cómodo para los usuarios, esto se logró al obtener un resorte en la parte intermedia de la prótesis capaz de soportar 2000N y otros 2 resortes en la parte trasera, que simula la parte del talón, los cuales soportan 790N cada uno, así una vez teniendo los resultados, mediante el uso del catálogo Lee Springs seleccioné los resortes más adecuados y que se adaptaran a la prótesis.
Adicionalmente, diseñé un mecanismo de bloqueo para que cuando el usuario lo decida, el pie ya no tenga movimiento de arriba abajo, esto mediante un eje que esta sujetado por una chumacera que le permite el movimiento, a la par que en sus extremos se desliza por unas guías y tiene unas pequeñas ranuras en donde se insertan una clase de botones para que a la distancia de bloqueo establecida de 8.263mm, los usuarios sean capaces de generar el bloqueo manualmente.
Vigueras Lugo Edith, Instituto Tecnológico de Pachuca
Asesor:M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
INNOVACAMPING, CAMPAMENTO PARA EMPRENDEDORES
Alejo Carvajal Irma Adelina, Instituto Tecnológico de Tepic. Canales Vera Silvia Johana, Instituto Tecnológico de Pachuca. García Curiel David, Instituto Tecnológico de Pachuca. Miranda Ortuño Juan Pablo, Instituto Tecnológico de Pachuca. Reyes Melo Brenda, Instituto Tecnológico de Pachuca. Vigueras Lugo Edith, Instituto Tecnológico de Pachuca. Asesor: M.C. Juan José González Sánchez, Universidad Politécnica de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Una de las principales problemáticas es el desconocimiento del grupo de componentes que son clave para la construcción de una idea innovadora de negocio que satisfaga una necesidad y además ayude a los jóvenes a desarrollar su creatividad y sus habilidades interpersonales para impulsar su crecimiento en el ámbito profesional.
A estos elementos se suman la falta de convicción y compromiso para desarrollar un proyecto de alto impacto social. Una de las principales causas de estos problemas es precisamente el hecho de ignorar la necesidad de un trabajo cooperativo para el logro de objetivos.
Diversos retos pueden enfrentar un emprendedor al comienzo de su labor, como los mencionados anteriormente, sin embargo, el más importante de ellos es la falta de herramientas que le faciliten el proceso creativo. Es por esta razón que el “Modelo de generación de ideas INNOVACAMPING” propone una metodología sencilla y altamente efectiva que guía al emprendedor a través plataformas que fortalezcan el talento creativo de los emprendedores.
METODOLOGÍA
InnovaCamping es una metodología diseñada para un campamento de innovación y desarrollo de la creatividad, tiene por objetivo: “Ser un espacio desarrollado para Jóvenes universitarios, en el que, a través de técnicas, dinámicas lúdicas, se fomenta el espíritu creativo-emprendedor y se promueve una cultura de autoempleo y la generación de ideas en proyectos”
Esta metodología se trabajó bajo la estructura: I+C=Entrepreneur.
Con la generación de ideas con impacto tecnológico y social que fueron desarrolladas y evaluadas a través de procesos de incubación empresarial.
Finalmente, cuando este modelo se realiza de manera presencial, todo el trabajo desarrollado se cristaliza en una presentación pública ante un jurado que valora cuales son los mejores proyectos.
A continuación, presentamos las etapas para el desarrollo del modelo I+C=Entrepreneur:
Estudio del arte
Fundamentación Teórica
Identificación de Variables
Desarrollo de cuestionarios
Recolección de datos
Desarrollo de modelo
Para llevar a cabo la formulación de la idea de Proyecto, este modelo, tuvo una duración de 20 hrs. de trabajo virtual, en el que los jóvenes se dividieron en equipos donde desarrollaron una idea de negocio desde la perspectiva de cuatro modelos definidos en los siguientes pasos:
Paso 1 Mi Modelo de Emprendimiento: los jóvenes identificaron las principales características que los definen como un emprendedor, en relación a gustos, habilidades y destrezas, aficiones y experiencias en algunos emprendimientos.
Paso 2 Mi Modelo de Creatividad e Innovación: en esta etapa determinaron el nivel de creatividad e innovación para el emprendimiento de cada integrante del equipo.
Paso 3 Mi Modelo de Negocio: para este paso describieron la idea o ideas de emprendimiento de acuerdo al análisis de los pasos anteriores.
Paso 4 Mi Modelo de Evaluación: en este último paso, el participante desarrolló un matriz de evaluación con las principales variables que determinaran la viabilidad de su idea de emprendimiento.
Al finalizar presentaron todos los proyectos y fueron evaluados por el M.C. Juan José González Sánchez quien estuvo a cargo de este entrenamiento, InnovaCamping.
El método utilizado para la identificación de variables y el desarrollo de cuestionarios fue tipo no experimental, con un alcance descriptivo tipo Ex Post Facto de grupo único.
CONCLUSIONES
Durante la estancia de Verano de la Investigación Científica y Tecnológica del Pacífico 2021, en la línea de investigación titulada “Modelo de generación de ideas INNOVACAMPING”, bajo la asesoría del M.C. Juan José González Sánchez, se realizaron múltiples actividades a través de técnicas que permitieron el desarrollo de nuevos conocimientos y habilidades como lo son liderazgo, trabajo en equipo y creatividad. Con la finalidad de ayudar a los participantes a conocer la importancia del espíritu emprendedor con ayuda de estrategias que faciliten concretar nuevas ideas para llevar a cabo una capacidad emprendedora y de este modo reducir o evitar la muerte de las PYMES.
Las habilidades obtenidas dentro del programa fueron numerosas, entre las que destacan la ampliación de red de contactos que comparten el gusto por la investigación, salir de la zona de confort lo que genera la adquisición de experiencia, al mismo tiempo ayuda a fortalecer habilidades y agregar nuevas herramientas en la formación de un ingeniero industrial.
Villa Rivera Sergio, Instituto Politécnico Nacional
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
SUPERADOBE: TéCNICA DE CóMO CONSTRUIR UNA CASA CON BAJO COSTO ECONóMICO.
SUPERADOBE: TéCNICA DE CóMO CONSTRUIR UNA CASA CON BAJO COSTO ECONóMICO.
Villa Rivera Sergio, Instituto Politécnico Nacional. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Para la construcción de una casa existen diferentes métodos y técnicas de construcción, así mismo una variación de costos para el desarrollo de estas, dependiendo principalmente de las características a considerar como el tamaño, diseño y materiales.
Según la SEDESOL en los estudios realizados en el estado de Guerrero entre 2010 y 2012 dan a conocer que el porcentaje de personas que reportó vivir en viviendas sin disponibilidad de servicios básicos fue de 59.0%, lo que significa que las condiciones de vivienda no son las adecuadas para 2,068.1 mil personas, sin mencionar la parte de la población que no cuenta con un hogar propio, siendo este uno de los ejemplos de muchos lugares donde no se cuenta con las condiciones adecuadas de vivienda, ni los recursos económicos para construir un hogar, motivo por el cual durante este verano se pretender realizar una investigación sobre la técnica de super adobe y las características que la hacen factible y económica para la construcción de inmuebles en los lugares más afectados económicamente del estado de Guerrero.
METODOLOGÍA
Para iniciar esta investigación se determinó que seria documental no experimental, ya que las circunstancias y el tiempo con que se está llevando a cabo esta investigación es corto, por lo tanto, se pudo enfocar en obtener la información que se presenta a continuación.
Se comenzó a buscar información sobre diferentes métodos y materiales con los cual se podría implementar la construcción de un inmueble de manera económica, y se escogió la técnica de superadobe ya que al investigar pudimos descubrir que al construir una casa con esta técnica conlleva muchas ventajas para las personas que vivirán en ella, ya que estas casas no generan residuos, soportan desastres naturales como sismos de gran magnitud, tienen un gran aislamiento térmico y la principal ventaje por la que se escogió esta técnica es que tiene un bajo costo económico, ya que por los materiales los que se construye son de muy bajo costo, y tras investigar costos de construcción se dedujo que 1m2 cuesta alrededor de $3 500 mexicanos, a comparación de otros materiales y métodos distintos en los que los precios de 1 m2 varían entre $5 500 y $12 500 pesos mexicanos.
Para construir toda casa es de gran importancia la realización de los cimientos, para ello investigamos las maneras más convenientes correctas de construirlas y lo primero es marcar el suelo delimitando el espacio de la construcción, posteriormente se cava la zanja con 50 cm de profundidad y 40 cm de ancho siendo esto el lugar donde irán las paredes, esta zanja se rellena con cemento, pero en la primera vuelta se coloca un 25% más de cemento para darle un mayor soporte y el resto en mezcla de cemento normal
Para la construcción de las paredes, esta técnica utiliza costales con tierra, que es lo que hace muy barato la construcción de estas casas, los costales o sacos se pueden rellenar con maíz, desechos de animales, paja, tierra o piedras, pero se investigó y determino que la mejor manera de rellenarlos para una mejor estructura y resistencia es colocar tierra, cemento y agua.
Los costales suelen ser alargados y la forma correcta de rellenarlos es ir llenándolo al mismo tiempo que se va colocando en su lugar, y al irlos colocando uno arriba del otro se coloca un alambre de púas, esto hace que los sacos se anclen uno con otros evitando que no se deslicen, y dependiendo de la complejidad de la pared se puede colocar doble alambre, después de haber colocado uno sobre otro los sacos, es de gran importancia a todos los costales irlos aplanando o pisando para que la tierra se compacte bien y adquiera una mayor resistencia.
En tanto a la fontanería y electricidad de la construcción no hay mucho problema, pero es un factor importante al momento de construir la casa ya que los cables deben de ir enterrados y se puede color car un trozo de madera entre dos costales, ahí se atornillarán los contactos; todo lo anterior se hace hasta llegar al nivel del techo o llegar a la altura deseada, sin olvidar dejar el espacio para las ventanas y puertas necesarias en la construcción
En relación con la construcción del techo, se investigaron diferentes maneras de construirlo, la más común es continuar con los costales hasta dar una forma de cúpula, pero esta técnica requiere un poco más de experiencia así que el método que se escogió y recomienda más es elaborar un techo más simple con un marco de madera y se puede complementar colocando chapas de zinc, para el suelo se puede decorar y construir con materiales que se tengan a la mano como ladrillos o madera.
Al tener terminada la casa es importante recubrir de manera rápida las paredes, esto con el fin de evitar que las bolsas se degraden y al investigar los materiales más comunes que se ocupan son la arcilla, el cemento o yeso de cal, el recubrimiento se tiene que ir haciendo por capas y es importante dejar secar perfectamente cada capa antes de agregar otra para que esta pegue con más facilidad y mayor adherencia, este recubrimiento debe tener aproximadamente 10cm de grosor para un mayor aislamiento, al finalizar este proceso de recubrimiento y dejar secar se puede teñir la casa con leche de cal, o cualquier tipo de pintura pero también se puede dejar que el color de la tierra sea el aspecto final.
CONCLUSIONES
Este verano en mi estancia en el programa delfín pude adquirir información necesaria sobre cómo construir una casa con la técnica de superadobe con un bajo costo de construcción, logre adquirir los conocimientos necesarios sobre esta técnica, todo lo que conlleva la construcción de una vivienda y los factores de más importancia en una construcción, a pesar de lo investigado siguieron faltando características importantes que debe llevar una casa como son el drenaje y sistema de tuberías, además falto abarcar un poco más en el aspecto de la electricidad del hogar, pero al haber clasificado mi investigación como no experimental pude enfocarme de una manera más completa hacia la técnica de superadobe y la forma en la que se construye una casa, por lo que en otras circunstancias y una futura investigación se pueda desarrollar el diseño completo de una vivienda.
Villareal Cruz Karina, Instituto Tecnológico Superior de Las Choapas
Asesor:Mtro. Arnulfo Cruz Garrido, Instituto Tecnológico Superior de Huauchinango
DISEñO E IMPLEMENTACIóN DE SISTEMA DE TRATAMIENTO DE AGUAS GRISES
DISEñO E IMPLEMENTACIóN DE SISTEMA DE TRATAMIENTO DE AGUAS GRISES
Espinoza Montes Paola Monserrat, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Villareal Cruz Karina, Instituto Tecnológico Superior de Las Choapas. Asesor: Mtro. Arnulfo Cruz Garrido, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
Existe un problema de alcance mundial que afecta a los seres humanos, los animales, las plantas, los cultivos, es decir al planeta tierra en general y es sin duda la escasez de agua que se deriva de la contaminación. El agua puede contaminarse de diferentes formas, aunque la más común en la actualidad, es mediante descarga de agua servida (grises) o cloacas (negras) en ríos y arroyos.
Las aguas grises que desechamos se dirige al colector primario (drenaje) que se desembocan posteriormente a los ríos, lagos y mares causando contaminación y extinción de las especies que habitan en los diferentes cuerpos de agua.
En muchas ocasiones las tuberías de drenaje suelen estar fisuradas, ocasionando que las aguas filtración a los mantos acuíferos provocando una alteración de las características físicas y/o químicas y/o bacteriológicas, que al final afectan el bienestar de todas las especies.
Es importante buscar nuevas estrategias para reducir la contaminación, es necesario hacer un cambio en los hábitos
Se ha analizado el uso del agua en algunas de las actividades básicas de un hogar que consta de 6 integrantes. Para esto se tomará valores mínimos ya que el consumo de agua en estas actividades es mucho más.
PRIMERA ACTIVIDAD (LAVAR ROPA) en donde se producen aproximadamente 48 kg de ropa sucia por semana
Se es utilizada una lavadora con capacidad de 16 kg, con un minimo de 4 ciclos de lavado y que gasta 60 litros de agua por ciclo concluimos que el gasto mensual seria de 2880 Litros de agua y 1800 gr. de jabón y otro tanto de suavizante Contaminantes directos al agua
SEGUNDA ACTIVIDAD (AGUA PARA RETRETE) según los cálculos realizados suma un total aproximado de 3240 litros de agua al mes
TERCERA ACTIVIDAD BAÑARSE según los cálculos realizados suma un total aproximado de 7200 litros de agua al mes y aproximadamente 2 litros de shampoo y jabón.
CUARTA ACTIVIDAD LAVAR LOS PISOS según los cálculos realizados suma un total aproximado de 720 litros de agua al mes y aproximadamente 1 litros de jabón.
QUINTA ACTIVIDAD LAVARSE LAS MANOS según los cálculos realizados suma un total aproximado de 360 litros de agua al mes y aproximadamente 1 litros de jabón.
SEXTA ACTIVIDAD LAVAR AUTO según los cálculos realizados suma un total aproximado de 320 litros de agua al mes y aproximadamente ½ litro de jabón.
METODOLOGÍA
1. OBJETIVO GENERAL
2. RECOLECCIÓN DE INFORMACIÓN
3. DISEÑAR FILOSOFIA DE OPERACIÓN
Se diseño un sistema de tratamiento de aguas grises y se pretende que funcione en 3 diferentes etapas.
Recolección y separación de aguas por ciclo de lavado
Filtración de aguas grises
Recirculación de agua filtrada para un nuevo ciclo de lavado
4. DISEÑO DE LA PLANTA
5. JUSTIFICACIÓN
6. ANTECEDENTES
7. PRUEBAS CON FILTROS
Se construyeron y pusieron a prueba 6 filtros diferentes para hacer comparaciones y escoger un filtro que ofresca mejores resultados.
RESULTADOS
Filtro de cerámica
El agua que entro al filtro es igual al agua que salió, no hay cambios, sigue conteniendo exceso de jabón y suciedad.
Filtro de algodón, grava gruesa, arena gruesa, arena fina, tierra y carbón
El filtro es demasiado lento se obtuvo agua turbia, aun con exceso de jabón, con un ligero olor a tierra, no se obtuvo resultados favorables
Filtro de algodón y carbón
Se obtuvo agua con menos cantidad de jabón, con olor a carbón, si retuvo gran parte de suciedad, el agua se ve ligeramente blanco.
Filtro de algodón, carbón y tierra
Se obtuvo agua ligeramente turbia, con menos cantidad de jabón, con olor a tierra y carbón.
Filtro # 5: algodón, grava gruesa y grava chica
El filtro es muy rápido, pero el agua sigue siendo jabonosa y turbia con olor a jabón
Filtro de algodón, grava gruesa, carbón, cal y grava chica
Se obtiene agua clara, con una mínima cantidad de jabón, el filtro retiene la suciedad, con ligero olor a carbón, el agua se puede reutilizar sin problemas.
El filtro # 6 es que el funciono de mejor manera, los resultados son de mejor calidad y será integrado en el sistema de tratamiento de aguas grises.
8. PRUEBAS CON AGUAS GRISES PROVENIENTES DEL LAVADO DE ROPA
Se recolecto agua de 4 etapas de lavado para posteriormente filtrarlos y ver si tienen el mismo efecto con el mismo filtro # 6.
Al terminar las pruebas se comprobó que el agua de las 4 etapas de lavado tiene el mismo efecto, se obtiene agua de buena calidad para poder reutilizarla, el filtro retiene la suciedad y gran cantidad de jabón.
9. CONSTRUCCIÓN DEL FILTRO
En base a los resultados del filtro # 6 se construyó un filtro que será integrado en el sistema de tratamiento de aguas grises para llevar a cabo el proceso de filtración de aguas grises.
10. PRUEBRAS FINALES PARA VER EL FUNCIONAMIENTO DEL FILTRO
Se obtuvo buenos resultados, el agua filtrada de acuerdo a sus características puede reutilizarse para lavar ropa, el retrete, los pisos, carros, sin problema ya que la cantidad de jabón es mínima y se ve limpia, el filtro funciona bien.
CONCLUSIONES
De acuerdo a lo observado en las distintas pruebas deducimos lo siguiente:
El carbón, es un elemento clave para la filtración del agua, atrapa jabón, impurezas quita olor y sabor.
La grava gruesa captura partículas en los poros.
La grava chica captura partículas pequeñas que tenga el agua
La tierra atrapa el jabón, pero aporta olor a tierra.
El algodón: retiene elementos solidos que tenga el agua
La cal elimina parásitos y permite que el agua fluya un poco más lento en el filtro y de esta forma el proceso de filtración de mejores resultados.
En base al análisis de los resultados, el filtro #6 compuesto por grava chica, carbón, cal, grava gruesa y algodón , es el que dio mejores resultados, en calidad del agua y velocidad de filtración, es por esto que el filtro # 6 será integrado en el sistema de tratamiento de aguas grises esperando obtener un buen funcionamiento en conjunto con todos los elementos del sistema, con el fin de poder reutilizar las aguas grises en el lavado de ropa y aprovechar al máximo este recurso con la intención de reducir la contaminación del agua.
Villaseñor Castañeda Gerardo, Universidad de Guadalajara
Asesor:Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit
CARACTERIZACIóN DEL USO DE LA ENERGíA: TERMOELéCTRICA A PARTIR DE LA UBICACIóN
DE ZONAS CON PRESENCIA DE ACTIVIDAD VOLCáNICA.
CARACTERIZACIóN DEL USO DE LA ENERGíA: TERMOELéCTRICA A PARTIR DE LA UBICACIóN
DE ZONAS CON PRESENCIA DE ACTIVIDAD VOLCáNICA.
Villaseñor Castañeda Gerardo, Universidad de Guadalajara. Asesor: Mtro. Joel Rodríguez Rodríguez, Universidad Tecnológica de Nayarit
PLANTEAMIENTO DEL PROBLEMA
La producción y el uso de la energía han sido la causa principal, además del transporte, de las emisiones de gases que generan como consecuencia el efecto invernadero (GEI), estos son los gases responsables de dar paso al cambio climático. Es debido a esto que, una de las opciones más relevantes para limitar e impedir sus consecuencias ambientales, sociales y económicas, estrechamente relacionadas con el incremento constante de temperatura, subida del nivel del mar y reducción de las precipitaciones, entre otras, consiste en disminuir el consumo energético.
Nada más en América del Norte producimos:
Canadá: Las emisiones totales de GEI en unidades de CO2-eq de las 72 centrales incluidas en el estudio ascendieron a 122 millones de toneladas.
Estados Unidos: Las emisiones de CO2 de centrales eléctricas estadounidenses ascendieron a 2, 419, 514,935, mientras que las emisiones de CH4 y N2O fueron de 33,590 y 35,428 toneladas, respectivamente.
México: las emisiones totales de GEI de las 102 centrales eléctricas consideradas ascendieron a 118 millones de toneladas de CO2-eq.
Con la llegada de la enfermedad Covid-19, se presenta otro problema debido a que el virus se reproduce con mayor velocidad en ambientes con mayor temperatura, al igual de que su vía de propagación principal es aérea y afecta mayormente a personas con problemas crónicos. Por lo que el hecho de que sigamos degenerado la calidad del aire y aumentando las temperaturas de nuestros territorio agrava aún más el problema.
No hace mucho se entregó la primera concesión a una empresa mexicana con capital privado. Se trata del yacimiento Domo de San Pedro en Nayarit. Después de realizar la perforación de cinco pozos profundos (a 3 mil 500 metros), se calculó que el volumen del yacimiento es de 1,809 km3 con una capacidad total de 200 MW.
El sector de energía eléctrica ha funcionado bastante bien, ya que la ciudad tiene el consumo más bajo por PIB entre las ciudades con climas similares que se encuentran en la base de datos de TRACE, es decir, 0.13 kWh/%PBI. Con pérdidas totales del 17% (8% de perdidas técnicas), Tepic se compara favorablemente con otras ciudades, aunque es factible mejorar.
Debido a lo anterior expuesto, fue necesario crear el Gran Plan 2020-2050 para la transición energética del estado de Nayarit, proyecto en el que el Cuerpo Académico de Innovación Tecnológica en Ciencias Ambientales y Energías Renovables (ITCAR) de la Universidad Tecnológica de Nayarit colabora proponiendo bases y posibles estrategias para su desarrollo.
METODOLOGÍA
Etapa 1. Exploración de otras formas de generación de energía, para esta etapa se hicieron las siguientes acciones:
Se analizaron las distintas fuentes de generación eléctrica dentro del territorio mexicano.
Se analizó el estado energético de Nayarit.
Se exploraron nuevas posibilidades de utilización de algunas fuentes de energías limpias pero sobre todo renovables.
Se analizó la factibilidad de un cambio real en los niveles de producción y consumo de energías renovables, más limpias y respetuosas con el medio ambiente.
Etapa 2. Se utilizaron distintos software de licencias libre y se consultaron datos libres para demostrar la información previamente investigada:
Datos libres México (fuente de información)
INEGI (fuente de información)
QGIS (software)
CFE en línea (fuente de información)
CRE (fuente de información)
Etapa 3. Integración de la información recabada en las fuentes mencionadas en la etapa 2 en el documento de la caracterización.
CONCLUSIONES
Durante el verano se logró avanzar en las caracterizaciones que servirán como base y referencia para los futuros proyectos que se estarán desarrollando en el estado de Nayarit como parte del Gran Plan 2020 - 2050 en el cual viene considerada la transición de la matriz energética de Nayarit hacia la obtención de energías más amigables con el ambiente, la concientización del uso de la energía y la obtención de la misma.
En conjunto con el cuerpo académico ITCAR se analizó la factibilidad del aprovechamiento de las zonas volcánicas de la región como fuente de energía geotérmica y su impacto positivo en la economía, sociedad y el ambiente de la región. Lo cual se demostró con datos irrefutables de que Nayarit es una zona con un amplio potencial de aprovechamiento geotérmico gracias a su ubicación con respecto al cinturón de fuego por lo que es imperativo apostarle a estas nuevas alternativas de energías renovables, no solo por el bienestar del medio ambiente, sino también por el bienestar social y la estabilidad económica de la región y el país.
Villegas Díaz Andrea Carolina, Universidad de Guadalajara
Asesor:Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
DISEñO Y FABRICACIóN DE UNA BIOIMPRESORA 3D DE INYECCIóN EXTRUSIóN.
DISEñO Y FABRICACIóN DE UNA BIOIMPRESORA 3D DE INYECCIóN EXTRUSIóN.
Villegas Díaz Andrea Carolina, Universidad de Guadalajara. Asesor: Dr. Luis Adrian Zuñiga Aviles, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
La bioimpresión tiene como objetivo dispensar células con precisión, hidrogeles, o materiales cargados de células, para lograr construcciones 3D espacialmente controladas e imitaciones de estructuras de tejidos nativos. Tiene una gran aplicación en la ingeniería de Tejidos, por ejemplo, los tratamientos para remplazo de tejidos como la piel, los cuales, se ven limitados por los donadores y las reacciones del sistema inmune, de esta forma la bioimpresión ofrece una alternativa biocompatible y regeneradora.
Las técnicas de bioimpresión se pueden dividir en 3 clases principales: Extrusión, Inyección de tinta y asistida por láser. Utilizando materiales para bioimpresión (MPBI) como Alginato, colágeno, PEG, Quitosano, Ácido hialurónico, PCL, fibrina, entre otras. Sin embargo, el espectro de MPBI utilizados se encuentra segmentado por tipo de bioimpresoras, es decir, existe una lista de MPBI para inyección y otra lista para extrusión, con parámetros de operación determinados para cada técnica y por ello, la fabricación de andamios celulares se desarrolla de forma limitada y particular en relación con el material polimérico utilizado.
METODOLOGÍA
La línea de investigación se encuentra desarrollando un sistema dispensador con funcionamiento extrusión inyección en una bioimpresión incrementando el rango de parámetros de operación y su versatilidad, así como el número de materiales a imprimir. Dentro del verano delfín se colaboró a esta línea con investigación teórica y una aproximación práctica.
Primero, se realizó a modo de introducción una investigación en artículos científicos e indexados sobre materiales utilizados para hidrogeles biotinta y se clasificaron según el tipo de técnica en que se utilizan. Una biotinta es un material de soporte celular imprimible; se utilizan diferentes tipos de biotintas para cada técnica de bioimpresión específica.Para ello fue necesario comprender primero los conceptos básicos utilizados en la bioimpresión.
Después se realizó una investigación para el banco de pruebas de la bioimpresora que se está diseñando, la cual consistió en una descripción de las condiciones de aplicación de Policaprolactona(PCL) y Quitosano- Glutaraldehído. PCL es un polímero muy utilizado en aplicaciones biomédicas, con características especiales para la bioimpresión como su punto de fusión alrededor de los 60°C, su lenta degradación y su biocompatibilidad. Por su parte el quitosano es un polímero natural, biocompatible y atóxico que se ha utilizado para la preparación de hidrogeles mediante la reacción de base de Schiff, misma que es posible gracias al Glutaraldehído. En varios artículos se encontró que la reticulación de Quitosano con glutaraldehído resultaba ser citotóxica, sin embargo, se decidió indagar más al respecto y se encontró información sobre un estudió que sintetizó hidrogeles de Quitosano -glutaraldehído, algunos de los cuales, con porcentajes específicos de Glutaraldehído, resultaban ser citocompatibles; estas condiciones de aplicación fueron descritas en un reporte de investigación para su posterior aplicación o referencia.
Finalmente, en la parte de la investigación teórica y como referencia para los derechos intelectuales de esta línea de investigación, se creó una lista de patentes de diseños de bioimpresoras en los últimos 10 años. Para ello se utilizó la plataforma Lens.org, utilizando como motor de búsqueda la palabra bioprinter, luego se descartaron algunas patentes utilizando como base la clasificación internacional de patentes (CIP). Posteriormente, se descargó un archivo csv con 169 patentes, a las cuales se le aplicaron filtros en Excel para descartar aquellas que no fueran de toda la bioimpresora sino solo de alguna parte en específico. La lista filtrada se procesó después en refine Google esto permitió eliminar las patentes repetidas. Como producto final se obtuvo una lista de 39 patentes.
Para la parte práctica, recibimos de la universidad Autónoma del estado de México pequeños cursos sobre diseño 3D. El primero fue utilizando el software Inventor, en donde realizamos varios modelados con diferente complejidad. En el segundo curso utilizamos el software ANSYS, para el análisis de fuerza de algunos sólidos. Se espera con dichas bases realizar el ensamble de un cabezal extrusor para PLA en una parte de la bioimpresora y realizar las pruebas de esfuerzo de los puntos de apoyo.
CONCLUSIONES
En este verano de investigación científica delfín pude adquirir conocimientos teóricos y prácticos sobre la bioimpresión 3D y los sistemas dinámicos. Hasta el momento se tiene un avance del cabezal extrusor que se espera pueda ser ensamblado en la bioimpresora diseñada dentro de la línea de investigación para su posterior análisis de fuerzas.
La creación de nuevas tecnologías que apoyen al desarrollo de la ciencia, en especial aquellas dirigidas al campo de la medicina y la salud, me parecen de suma importancia. Previo a este verano desconocía que investigaciones como esta se están desarrollando en universidades Mexicanas, por lo que califico a este verano como enriquecedor y motivador.
Villerías Chávez Perla Lizeth, Instituto Politécnico Nacional
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
ESTUDIO DE ACELEROGRAMAS PARA CLASIFICACIÓN DE SISMOS CARACTERÍSTICOS EN LA CIUDAD DE IGUALA DE LA INDEPENDENCIA, GUERRERO, MÉXICO
ESTUDIO DE ACELEROGRAMAS PARA CLASIFICACIÓN DE SISMOS CARACTERÍSTICOS EN LA CIUDAD DE IGUALA DE LA INDEPENDENCIA, GUERRERO, MÉXICO
Villerías Chávez Perla Lizeth, Instituto Politécnico Nacional. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Sismos, temblores y terremotos son términos usuales para referirse a los movimientos de la corteza terrestre, sin embargo, técnicamente hablando, el nombre de sismo es más utilizado (terremoto se refiere a sismos de grandes dimensiones). Los sismos se originan en el interior de la tierra y se propaga por ella en todas direcciones en forma de ondas.
México se encuentra ubicado en el contexto de cinco placas tectónicas: Caribe, Pacífico, Norteamérica, Rivera y Cocos. Estas últimas dos placas se encuentran en subducción (se sumergen) debajo de la placa de Norteamérica. Rivera se sumerge bajo Jalisco y Colima, mientras que Cocos lo hace debajo de Michoacán, Guerrero, Oaxaca y Chiapas. Al sur de Chiapas y en Centroamérica, Cocos continua, pero ahora subduciendo debajo de la placa del Caribe. (Servicio Sismologico Nacional, Instituto de Geofísica UNAM, s.f.).
En las costas de Guerrero los sismos son algo cotidiano, lo que sucede es que, está en una zona de subducción, y son microsismos. Sin embargo, la posibilidad de un terremoto de gran magnitud no puede obviarse, debido a que las placas continúan en movimiento y por algún sitio debe salir la energía que se va acumulando.
La problemática que se presentan en esta zona es la obtención de datos clasificados por orden de importancia por lo que durante el verano de investigación se identifican los datos disponibles y se analizan.
METODOLOGÍA
Se selecciono la zona de estudio de acuerdo con las problemáticas existentes como son:
Zonas en las que eventualmente ocurren movimientos sísmicos del terreno,
Zonas sísmicas no suficientemente estudiadas,
Zonas en las que han ocurrido daños en edificios debido a sismos.
Después de tener la zona de estudio se identificaron los acelerogramas de estaciones localizadas en la región de estudio o cercanos a la región disponibles en sitios oficiales del país, al mismo tiempo que se aprendió a ejecutar el programa seismograms Analyzer-e.
Los datos de las estaciones seleccionadas de acuerdo con los criterios de: disponibilidad y distancias se integraron en tablas para una mejor presentación, así también se plasmaron en mapas para una mejor representación gráfica. La información recabada se clasifico a partir de la zona en la ocurrieron y del tipo de mecanismo de falla que los originó.
Con ayuda del programa seismograms Analyzer-e procesamos los acelerogramas elegidos, leyendo cada componente de cada registro sísmico.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos sobre los sismos y se analizó los datos disponibles los cuales se clasificaron a partir de la zona en la que ocurrieron, de los datos que se obtuvieron de cada registro se dedujo que la ciudad de Iguala, necesita estaciones para un mejor análisis, así como información en suelos diferentes a la roca para tener una mejor comparación con los datos y sus variantes, con la finalidad de dar ofrecer un análisis real y útil, tenemos la experiencia de los sismos de 1985, 2017 y de otros de menor tamaño que han causado daños importantes, no sólo en la Ciudad de México, sino en otros puntos del país. Así que es importante estar preparado. Esto implica desde la preparación personal con planes familiares, hasta la vigilancia de que se sigan los códigos de construcción y se observen los lineamientos de ordenamiento urbano. Esto garantizará que en caso de que se presente un sismo encontrará una sociedad preparada.
Violante Hernandez Rodrigo Rafael, Universidad Veracruzana
Asesor:Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
DISEñO Y DESARROLLO DE ROBOT MóVIL CON RUEDAS PARA APLICACIONES MéDICAS Y DE TRANSPORTE
DISEñO Y DESARROLLO DE ROBOT MóVIL CON RUEDAS PARA APLICACIONES MéDICAS Y DE TRANSPORTE
Violante Hernandez Rodrigo Rafael, Universidad Veracruzana. Asesor: Dr. Gustavo Trinidad Rubin Linares, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En el último año la sociedad ha sufrido un fuerte cambio en la forma de relacionarnos y de vivir nuestras vidas diarias. Esto ocasionado por la pandemia de COVID-19 donde la principal problemática ha sido la rápida propagación del virus. La situación nos obligó a aislarnos para evitar el contagio. Sin embargo, algunas personas como son los médicos corren un alto riesgo de contagio al estar expuestos al virus constantemente realizando sus trabajos, muchos casos sin protección alguna.
¿Cómo podríamos evitarlo en un futuro? Pues la respuesta está cada vez más cera de nosotros, con la robótica. La robótica en las últimas décadas ha ido creciendo exponencialmente, es aplicada en la industrial para la automatización de procesos, en restaurantes para llevar los alimentos, en aeropuertos para guiar a las personas o incluso explorando el espacio como el Robonaut2 de la NASA.
Hoy en día debido a la pandemia la robótica ha recibido un impulso llegando a su aplicación masiva en hospitales en países como China, Corea del Sur, Singapur y Japón para la limpieza y sanitización, detección de posibles contagiadas y transporte de muestras o medicamentos, por mencionar algunas. Su aplicación en estos países ha demostrado ser de gran ayuda en la lucha contra el virus trayendo consigo además grandes ventajas como la reducción de contagios y una logística mejor. Es por esto que este proyecto buscara diseñar y desarrollar un robot móvil modular que permita realizar diferentes actividades como la detección de personas, transporte de equipo médico o alguna actividad simple utilizando la visión artificial de manera autónoma y sin intervención humana para evitar posibles contagios y ayudar a la lucha contra la pandemia.
METODOLOGÍA
El tema a desarrollar es el diseño, desarrollo e implementación de robot móvil con ruedas con una estructura modular que utilice la visión artificial para lograr realizar diferentes tareas como el desplazamiento, la detección de objetos y/o personas de manera autónoma sin intervención de ninguna persona. El enfoque de la investigación tiene un enfoque cualitativo, pues la naturaleza de la misma investigación es amplia y conforme avancemos pueden ir surgiendo nueva información que nos puede hacer cambiar la perspectiva de nuestra investigación.
Para el desarrollo del proyecto primero se realizó unas investigaciones dentro de diferentes fuentes como son; libros, artículos y documentos de investigación recopilados sobre los sucesos más importantes que han involucrado a la robótica, los diferentes tipos de robots y componentes utilizados, así como ejemplos de ellos y algunas aplicaciones de la robótica actuales en diferentes áreas de aplicación como la médica o industrial. Después se realizaría una pequeña búsqueda y enlistado de posibles sensores disponibles para el robot en el mercado con su respectiva ficha para la elección de diferentes comparativas.
Posteriormente se propondrá un modelo que será realizado en el programa Autodesk Inventor que tenga un diseño modular simétrico con diferentes configuraciones, formas, colores y equipo disponibles planeados. En algún documento se especificarán las características del mismo, así como de los componentes utilizados.
Finalmente, se trabajará en el área de la programación escribiendo un código que sea capaz de realizar el desplazamiento, la detección y las aplicaciones que se le darán al robot. Los programas al menos deberán ser capaz de aprenderá a distinguir personas y comprender las emociones que demuestren. Estos códigos deberán aplicar las diferentes librerías que se utilizan para visión artificial y ser confiables. Para la evaluación de la efectividad se requerirá de simulaciones controladas bajo distintos entornos en las que el programa deberá de cumplir su propósito y se reportaran los resultados obtenidos para el análisis y una posible futura optimización
CONCLUSIONES
Al término del programa con las 6 semanas de trabajo en el que he logrado participar me he dado una idea más clara de lo complicado que es el proceso que conlleva no solo el diseño y fabricación de un nuevo robot si no también de lo laboreado que es el proceso de la programación que los hace funcionar.
Aunque no se haya logrado cumplir el plan de trabajo inicial como se esperaba, personalmente estoy complacido con el diseño del robot y los resultados obtenidos en los programas de visión artificial implementado siendo esta la primera experiencia con ella. Si bien el apartado de diseño se despreció un poco con la vaga información de los sensores, creo que la parte de visión artificial cubre ese déficit.
En cuanto a mi experiencia con la visión artificial, aunque en un inicio se tuvieron muchos errores en el código y los resultados obtenidos en los primeros programas por la complejidad que semejaba las funciones y librerías utilizadas, esto se fue corrigiendo y mejorando conforme más se trabajaba en estos programas desarrollando una mayor confianza con la que me desenvolvería al final. La experiencia obtenida con la que quede al final incluso me sirvió bastante para afinar los programas y realizar optimizaciones restructurando un poco los códigos y organizando mejor los procesos.
Aunque la creación, entrenamiento de la inteligencia artificial me parecía muy complicada al inicio, resulto ser mas sencillo de lo que aparentaba, tan sencillo como solamente tomar unas fotos y almacenarlas en una carpeta de cierta manera. Finalmente, en cuanto a los resultados obtenidos en los programas son eficaces en la mayoría de los casos con algunos falsos positivos presentes por la iluminación la cual resulta complicada de trabajar con la visión artificial. Los programas logran detectar a las personas de manera clara y recordarla, ademas de poder identificar sus emociones de manera correcta y de detectar a las personas que usan incorrectamente o no train cubrebocas.
Espero los nuevos conocimientos adquiridos a lo largo del programa me ayuden en mi futuro ámbito laboral como estudiantil dentro de mi universidad y me de un impulso para mi formación en estas áreas de la robótica en el futuro.
Vizcarra Sanchez Luis Enrique, Universidad Autónoma de Baja California
Asesor:Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
EXPERIMENTACIóN EN UN TúNEL DE VIENTO CASERO CON EL PERFIL ALAR EPPLER E562 PARA LA VISUALIZACIóN DE VóRTICES DE ESTELAS DEBIDO AL áNGULO DE ATAQUE.
EXPERIMENTACIóN EN UN TúNEL DE VIENTO CASERO CON EL PERFIL ALAR EPPLER E562 PARA LA VISUALIZACIóN DE VóRTICES DE ESTELAS DEBIDO AL áNGULO DE ATAQUE.
Vizcarra Sanchez Luis Enrique, Universidad Autónoma de Baja California. Asesor: Dr. Diego Moises Almazo Perez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Para aprovechar las fuerzas aerodinámicas las aeronaves utilizan los perfiles alares, que son cuerpos diseñados para que el flujo del viento favorezca el avión disminuyendo su resistencia y aumente la elevación de esta. Sin embargo hay algunas condiciones que tenemos que tomar en cuenta para que no exista perdida al estar en pleno vuelo.
Una de ellas es la separación de flujo la cual tienden a generar vórtices que aumenta la presión en la parte de atrás generando así un aumento de arrastre, al igual de tener una estela con vórtices de gran tamaño. El arrastre es una problemática para la aeronave ya que produce una resistencia al movimiento, por consecuencia deberá de aumentar la tracción del aeroplano para que pueda contrarrestar la fuerza en dirección al flujo, provocando así un mayor gasto de combustible, lo cual no es deseable cuando hablamos de cualquier transporte.
METODOLOGÍA
Como primer paso se obtuvieron las coordenadas del perfil alar que nos proporcionó de manera gratuita la base de datos de UIUC, por lo tanto se utilizaron estos valores en el programa Excel con el submódulo de programación llamada macros que tiene como función transformar los datos a la plataforma de dibujo que el usuario utilice, en este caso fue el Catia V5 el que se usó para dibujar el cuerpo geométrico en base a las coordenadas y su utilizó como diseño para elaborar el perfil.
Para la realización del perfil alar Eppler E562, se optó por utilizar como material madera(pino), se definieron sus dimensiones dándole el valor de cuerda de 15cm y una envergadura de 30cm. Se pintó de color negro para que se pudiera visualizar el rayo de luz verde que tiene como propósito ayudar a la observación del flujo de aire.
Para la elaboración del túnel de viento casero, se eligió utilizar una caja de madera de 16plg de ancho,12plg de alto y con un grosor de 16.5plg, en el cual se le realizaron dos orificios, tienen como función ser la entrada y salida del flujo del fluido. Además de agregarle una ventana en uno de los lados de la caja para tener visualización del experimento. Para lograr que el perfil alar se quedara estable para la experimentación, se prefirió utilizar tornillos de alto grosor, que fueran colocados en los dos lados de la caja siendo paralelas a la envergadura. Dando presión a la cuerda del perfil de cada lado, así evitar que haya una inclinación no determinada.
Posteriormente fue pintada con color negro de igual manera como el perfil alar, puesto que se utilizará un láser de color verde que tiene como intención iluminar el humo del incienso que le dará textura al viento relativo que interactúa con el perfil. Se procedió a hacer el experimento, se colocó los inciensos junto con un ventilador de casa para que ayudara al humo a tener una dirección hacia el perfil y se grabo cada uno de los ángulos de inclinación, los cuales fueron 0°,30°,45°,60°,90°.
CONCLUSIONES
Los resultados fueron los siguientes:
Con un ángulo de ataque de 0° no se logra percibir una separación de flujo apresurada, y abarca un pequeño porcentaje del borde de salida, la estela se logra observar uniforme sin tener perturbaciones llamativas.
Por otro lado al ya tener un ángulo de ataque de más de 15° que serían en este caso, ya hablando de 30°. Aquí ya se pueden ver la frecuencia de los vórtices en formación con la estela, una separación de flujo en una tercera parte de la superficie superior, lo cual nos lleva a estar en pérdida y provoca un aumento de arrastre.
Con un ángulo de ataque de 45° se puede observar el desprendimiento de los vórtices de la estela generando turbulencia, una separación de flujo prematura, siendo dominio de casi la mitad de la superficie superior, el arrastre debido a presión aumenta, disminuyendo el arrastre debido a fricción debido a la inclinación del perfil.
Con un ángulo de ataque de 60°, la estela incrementa al doble de tamaño en comparación con 30° de ángulo de ataque, las áreas de los vórtices incrementaron, el arrastre debido a presión incrementa de igual manera dominando al arrastre debido a fricción. Y la separación de flujo está en casi toda la superficie superior del perfil.
Con un ángulo de ataque de 90° el arrastre debido a fricción es despreciable, dominando el arrastre debido a presión, la estela incrementa casi abarcando la longitud de la cuerda del perfil, los vórtices tienen el doble de tamaño, se deprenden de la estela generando turbulencia mayor e incrementando el arrastre por la bajas presiones del parte de atrás del perfil.
Con respecto a la experimentación del perfil alar Eppler E562 con distintos ángulos de inclinación para la visualización de estelas conformadas por vórtices, se puede concluir que no es favorable en este perfil alar tener un ángulo de ataque superior a 15 grados, debido a que se genera una separación de flujo prematura, es decir, una separación de flujo en el borde de ataque que por consecuencia aumenta el arrastre, crea turbulencia, y vibración. Además que los vórtices aumentan radicalmente al aumentar la inclinación del perfil generando presión en la parte de atrás del cuerpo geométrico.
En la estancia del programa, se obtuvieron bastos conocimientos teóricos sobre las fuerzas aerodinámicas, capa limite, separación de flujo, estela, túnel de viento, arrastre y sustentación. Fue grata la experiencia de hacer un túnel de viento casero, elaborar en base madera el perfil alar E562 y poder visualizar los efectos que tiene un flujo de aire al actuar con el cuerpo y dar una análisis en base a los conocimientos previos y nuevos.
Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
PROCESAMIENTO DE SEñALES BIOFISIOLóGICAS: DETECCIóN DE ISQUEMIA MIOCáRDICA
Niño Merchán Julián José, Universidad Autónoma de Bucaramanga. Rosales Alarcón Olimpia Nohemi, Universidad de Guadalajara. Solorio Huerta Elvira Alejandra, Instituto Tecnológico de Morelia. Xicale Deaquino Rodrigo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Norma Alicia Barboza Tello, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades cardíacas afectan a la población en general de México tal que representan el 19.74% de las causas de defunciones para ambos sexos, de acuerdo con el Instituto Nacional de Cardiología Ignacio Chávez (2020). La isquemia miocárdica es parte de estas enfermedades, y según la Comisión Nacional de Arbitraje Médico (CONAMED) la principal patología causal de muerte prematura tanto en hombres como mujeres siendo el 58% y 42% respectivamente. La isquemia miocárdica se produce cuando se reduce el flujo sanguíneo al corazón, impidiendo que reciba suficiente oxígeno y nutrientes a las células contráctiles. La reducción del flujo sanguíneo suele ser el resultado de una obstrucción parcial o total de las arterias del corazón (arterias coronarias). Una obstrucción repentina y grave de una arteria coronaria puede provocar un ataque al corazón y ritmos cardíacos anormales graves. Para diagnosticar una enfermedad del corazón se utilizan las señales electrocardiográficas (ECGs), estas señales se adquieren de forma no invasiva y registran la actividad eléctrica del corazón del paciente, presentando características muy específicas de acuerdo al estado de salud del corazón. Sin embargo, el análisis de estas señales para un posible diagnóstico de cardiopatías requiere de un médico especialista que en muchos casos no se encuentra disponible, por lo tanto, el desarrollo de un algoritmo que proporcione un diagnóstico semiautomatizado permitiría contar con una herramienta de apoyo para brindar un mejor tratamiento al paciente y a tomar decisiones oportunamente. En este trabajo se propone el desarrollo de un algoritmo basado en Octave que permita identificar en una señal ECG, las características propias de la isquemia cardíaca.
METODOLOGÍA
La detección automática de la isquemia miocárdica, empleando la señal ECG como principal herramienta, implica dos procesos. En el primero se hace la clasificación de latidos que presenten la anomalía y la detección de episodios que ocurren. El estudio para obtener las señales donde se detecta la isquemia suele ser el registro de una señal ECG durante un largo tiempo de monitoreo que va desde las 2 horas y 24 horas. El sitio web PhysioNet ofrece registros médicos de diversas enfermedades relacionadas con el corazón, proporciona una base de datos de libre acceso que contiene un grupo de tomas de una o más señales de ECG digitalizadas, así como sus correspondiente diagnóstico. Dentro de esta base de datos existen distintos registros, para nuestro caso de estudio empleamos la base de datos ST-T Europea la cual concentra 90 registros con anotaciones de cardiólogos.
Dentro de esta base de datos se pueden encontrar 4 tipos de archivos. El archivo .hea que muestra las anotaciones de cabecera, archivos de anotaciones, como lo son los archivos .atr y .xws, y un archivo con la señal, .dat.
Una de las herramientas más utilizadas en la extracción de características de una señal ECG es la transformada Wavelet, esta consiste en la descomposición de una señal sobre el conjunto de funciones obtenidas de una única función llamada wavelet madre por medio de dilataciones y contracciones o bien escalados (coeficientes de aproximación), así como desplazamientos en el tiempo (coeficientes de detalle).
En el desarrollo de este proyecto se creó un código en Octave el cual, a partir de señales ECG, se procesan y se aplica una transformada wavelet que elimina el ruido de la toma y destaca sus componentes, esto con el fin de localizar y determinar si se encuentran anomalías en el registro, como la depresión del segmento ST o la inversión de la onda P, de esta forma podemos destacar descriptores propios de la isquemia y sugerir si existe la presencia de ésta o no.
En las señales ECG existen 3 niveles de frecuencias, una más grande que la otra; en nuestro caso deseamos mantener el segmento ST que se encuentra en las frecuencias más bajas de la señal y eliminar las otras dos, discriminando tanto altas frecuencias como frecuencias medias, requiriendo una acción de pasa banda.
La Transformada Wavelet resulta ser la mejor opción, ya que separa la señal en diferentes bandas de frecuencias; de esta forma el filtrado de paso de banda puede eliminar algunas bandas de frecuencia. El filtrado pasa banda puede lograrse eliminando coeficientes wavelet de escalas tanto inferiores como superiores de la señal ECG que no contribuyan a resaltar las características de interés. En el algoritmo que aquí se propone se utilizó symlet 7 con un nivel de descomposición de 4, y se extrajeron los 8 y 5. Al reconstruir la señal con estos coeficientes se observó que se mantuvo el segmento ST que se desea resaltar. Luego con el uso de un algoritmo de detección estándar de picos localizamos el segmento ST. El algoritmo, implementado en Matlab, primero solicita un archivo .mat con la señal ECG que será tratada y normaliza la amplitud de la señal. Luego calcula la Transformada Wavelet discreta de máximo solapamiento, y con una siguiente línea de código extrae sólo los coeficientes que se necesitan, después calcula la Transformada Wavelet Inversa y en términos del tiempo se realizan algunos cálculos estadísticos que permiten identificar las características de la cardiopatía isquémica.
CONCLUSIONES
A través de este proyecto se determinó que la transformada wavelet es una herramienta matemática muy útil para la identificación de cardiopatías ya que es eficaz en la extracción de características en una ECG, de igual forma se profundizó en los patrones y características que tiene un ECG y cómo diagnosticar la isquemia en la cuarta derivada. Se presenta un algoritmo capaz de resaltar las características irregulares en los picos de señales ECG en la cuarta derivada, los cuales son indicadores propios de la isquemia cardíaca para la posible detección de dicha cardiopatía.
Yam Cetina Dennis Adair, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato
REALIDAD AUMENTADA EN APLICACIONES MULTIPLATAFORMA PARA EL ENTRETENIMIENTO
REALIDAD AUMENTADA EN APLICACIONES MULTIPLATAFORMA PARA EL ENTRETENIMIENTO
Yam Cetina Dennis Adair, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Luis Armando García de la Rosa, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
El desarrollo de las tecnologías ha sido un gran avance en los últimos años desde que se usó la realidad aumentada, en los años 90’ era muy limitado su presencia en otros factores, porque era con el fin de entretenimiento o películas animadas 3D, en la última década se ha potenciado estas herramientas para otros factores como son en la industria, en la educación, el entretenimiento, en el área de la salud, etc.
Por eso es importante dominar estas habilidades para poder fomentar a la optimización de trabajos o para fines de entretenimiento, el alcance de esta herramienta abarca tanto en computadoras de escritorio, laptops, dispositivos móviles porque al ser multiplataforma tenemos la ventaja de verlos en cualquier sistema operativo, mientras tenga un navegador web con conexión a internet.
METODOLOGÍA
¿Qué es la realidad virtual?
La realidad virtual es una simulación de un ambiente tridimensional generada por computadoras, en el que el usuario es capaz tanto de ver como de manipular los contenidos de ese ambiente.
Los elementos clave de esta definición son los siguientes: la RV es una simulación generada en computadoras; es tridimensional (3D) y finalmente es interactiva. En otras palabras, una realidad virtual, también llamada un ambiente virtual, es una simulación tridimensional en computadoras que proporciona información sensorial (visión, sonido y/o otros), con el propósito de hacer que el participante sienta que está en un cierto lugar. Se puede experimentar un ambiente virtual usando una computadora personal típica y unos pocos dispositivos de hardware especializados:
Una tarjeta gráfica 3D, una tarjeta de sonido 3D, un display montado en un casco, un guante sensitivo, un localizador - seguidor 6D, etc. También se necesita el soporte de software diseñado especialmente para manipular los datos del ambiente virtual. Desde el punto de vista técnico, la RV es un modo de visualizar, manipular e interactuar con computadoras y datos extremadamente complejos
En la instancia del verano de investigación, se presentó los antecedentes de la realidad aumentada, donde surgió, en donde se usó, y que tan factible es hoy en día. Empezamos con aplicaciones enfocadas a la realidad aumentada tanto como para aplicaciones de escritorio y aplicaciones móviles. Las herramientas que usamos para las prácticas son: Java y JavaScript como lenguaje de programación, AR.js y A-Frame como librerías y scripts.
Se utilizó processing que es un entorno de programación basado en Java, la cual se realizaron las siguientes práticas:
Reconocimiento de cámara web.
Cargar marcadores (Marker based).
Cargar objetos 3D (.obj, .gltf).
Instanciar el objeto 3D en un marcador.
Manipular el objeto 3D modificando sus propiedades.
Esto con el objetivo que la aplicación se ejecute y habilite la cámara para poder presenciar el objeto 3D encima del marcador que hayamos cargado en formato pdf o impreso.
Además, se estuvo manejando las herramientas de ArToolKit para calibrar nuestra cámara y posicionar los puntos de calibración para un marcador, con la finalidad que tenga un mejor reconocimiento la cámara para detectar los recuadros de un marcador. Respetivamente se trabajó con la creación de marcadores mediante softwares de edición de imágenes o en sitios web que se encuentran gratuitos, con la extensión de .patt y .png.
Se usaron objetos 3D gratuitos descargados de internet, y también con la creación de objetos 3D con las herramientas de SketchUp y Blender.
Estos fueron la base para trabajar con nuestro espacio de trabajo web.
Primeramente, se revisó las sentencias y documentaciones del manejo de scripts y librerías de A-Frame y AR.js para poder aplicarlo en nuestro sitio web. También, se necesita un conocimiento previo sobre HTML y CSS para poder manejar la página web y cargar los objetos 3D. Usamos el recurso de XAMPP para poder trabajarlo de manera local, que es un software libre que utiliza de apache para alojar servidores web. Y evidentemente se trabajó con el uso de certificados y OpenSSL para conexiones seguras del protocolo https para que nuestra aplicación sea multiplataforma.
Después de manejar de manera local nuestro servidor web, lo pasamos remotamente para poder visualizar los objetos 3D en cualquier lugar mientras tenga internet, se dió uso de los repositorios de Github para alojar las páginas web, en donde se realizaron varias pruebas de aplicaciones para analizar su rendimiento, sus funciones y que todo este cargando correctamente en la escena del objeto 3D.
Y finalmente se trabajó con el uso del GPS para posicionar los objetos en diferentes ubicaciones dentro del área de la escena que queremos que se muestre, similar a la aplicación de Pokémon Go. Además de manipular los objetos 3D con el uso del touch o ratón de acuerdo a que plataforma ejecutemos la escena con las librerías de AR.js.
CONCLUSIONES
En el verano de investigación que se llevó a cabo en forma virtual, se adquirió habilidades para manejar objetos 3D, así como la configuración de un espacio web para poder cargar los objetos desde cualquier sitio con acceso a internet, esta herramienta abre muchas puertas con el tema de realidad aumentada, actualmente sigue siendo un trabajo demandante en el campo laboral para elaborar proyectos con fines de entretenimiento, estas tecnologías son la puerta para el futuro en donde se involucran varios factores como es la medicina, la educación, los negocios, etc. Puede ser útil para cualquier proyecto que se tenga en mente.
RESULTADOS
Manejo de objetos 3D en una aplicación de multiplaforma.
Ybarra Alor Cinthia Margarita, Instituto Tecnológico Superior de Las Choapas
Asesor:Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla
ANáLISIS Y DISEñO DE UNA PROPUESTA DE “MACHOMETRO”, CON BASE EN FRASES POPULARES
ANáLISIS Y DISEñO DE UNA PROPUESTA DE “MACHOMETRO”, CON BASE EN FRASES POPULARES
Ybarra Alor Cinthia Margarita, Instituto Tecnológico Superior de Las Choapas. Asesor: Dra. Erika Annabel Martínez Mirón, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, la violencia de género contra la mujer ha tomado un puesto relevante dentro de la sociedad, impulsando movimientos a favor de esta y propiciando cambios significativos dentro de la estructura social.
La violencia contra la mujer se define según las Naciones Unidas en la Declaración sobre la eliminación de violencia contra la mujer de 1993 (OMS,2021), como todo acto violento que tenga como resultado el daño físico, psicológico o sexual, anexando también la violencia verbal representada en amenazas hacia hechos que incluyan la coacción o privación arbitraria de la libertad.
Dentro de este tipo de violencia verbal entra la violencia sutil, llamada así por diversos autores, ya que se puede camuflar como algo normal y usualmente se refiere a frases de índole cotidiano, que si bien, no son tan resaltadas como los otros tipos de violencia, pero que de un modo sutil van dañando psicológicamente a la víctima.
La problemática antes descrita está relacionada con el machismo y sus consecuencias, así como el uso de frases/dichos populares para perpetuar este esquema de violencia y exposición de pensamientos machistas, como bien lo explica (Giraldo, 1972), con el fin de denotar la potencialidad del hombre/macho dentro de la sociedad y su presencia en la cultura mexicana.
METODOLOGÍA
La presente investigación se centró en la elaboración del Machómetro que definimos como un instrumento de medición que permita la identificación de la violencia encubierta en el lenguaje coloquial y así poder tener un margen de referencia ante este tipo de violencia.
Para el sustento del instrumento de medición se partió con una sistematización sobre el libro del Buen Aliado, se sintetizó la guía del buen aliado en 13 categorías: salud, educación, redes sociales, leyes o marco jurídico, medio ambiente, tendencia política, transporte, familia, es o no es, trabajo, sociedad, lenguaje, y explotación.
A partir de eso, se inició con la investigación documental la cual consistió en la recopilación de frases machistas que hayan escuchado o dicho; la búsqueda se realizó en plataformas como Facebook, correo electrónico y "El chingonario" contando con la participación de cibernautas esto con el fin de obtener frases contextualizadas en nuestra zona.
Al término de la investigación, se comenzó un trabajo de clasificación, asignar cada frase o dicho en alguna de las categorías propuestas a partir de la Guía del Buen Aliado, se obtuvieron un total de 164 frases/dichos que fueron etiquetadas de acuerdo a las 13 categorías previamente obtenidas.
Resultando 16 frases para salud, 14 para educación, 2 en leyes/marco jurídico, 1 en transporte, 12 en familia, 7 en NO es NO, 4 en trabajo, 11 en lenguaje, 1 en explotación y en sociedad con 51 frases. Se descartaron 87 frases por falta de coherencia y por pertenecer a más de una categoría; también se omitieron apartados porque no tuvieron frases asociadas.
Las categorías al final con más frases fueron: salud, sociedad y varias, esta última recopilando los apartados de familia, transporte público, redes sociales, lenguaje y explotación.
La encuesta tuvo como objetivo la identificación de las frases o dichos que más se han escuchado/pronunciado en el contexto de los que responden a la misma elaboró en la plataforma virtual de Google Forms, atendiendo las medidas de sanidad ante la contingencia por Covid-19, pero tomando este percance como una oportunidad para ampliar el rango de alcance para la encuesta.
Para estructurar la encuesta se partió de la misma clasificación del Buen Aliado, reduciéndose a 3 categorías, donde se recopilaron frases que se preseleccionaron por la relevancia y trascendencia social, con el fin de no ser repetitivas y que no tuvieran el mismo propósito.
La población que participó en la encuesta fueron hombres y mujeres con un rango de edad <20 y 50>, con un alcance territorial que se extendió por las zonas contextuales de cada una de las investigadoras, es decir, del Estado de Veracruz, Puebla y Baja California con sus respectivos alrededores; la encuesta se difundió en diversos medios de comunicación como es WhatsApp, Facebook y el correo electrónico.
El quehacer metodológico parte desde una visión cualitativa para después transformarse hacia una visión cuantitativa ya que en principio trabajamos con el discurso popular y después lo estructuramos en instrumento de medición que permitirá a la sociedad hacer una identificación rápida y sencilla del nivel de machismo internalizado en hombres o mujeres para quién está dirigido. Esta propuesta rescata la estructura del violentómetro.
CONCLUSIONES
Con este proyecto se identificó que existe una gran cantidad de personas que son machistas. Anteriormente pensaba que sus comentarios eran normales y en realidad estaban violentando a otras mujeres y/o a mí misma. Este tipo de palabras y acciones pueden dañar a una persona psicológicamente, repercutiendo en la sociedad. Haciendo que los pensamientos se vuelven comunes y se normalicen.
Considero que debemos tratar de transformar ese tipo de pensamientos y hacer un cambio positivo en la educación de los niños, que sea desde casa y así fomentar costumbres que lleven mensajes que propicien la buena y sana convivencia.
Con la encuesta aplicada se obtuvo un registro de 3 frases con más porcentaje de votos por cada categoría, las cuales serían parte de un primer planteamiento para la elaboración del machometro y que son las siguientes:
Salud: seguro estas en tus días , Ya estas hecha toda una señorita y ¿Para qué se emborracha?
Sociedad: Ya sabes cocinar, ya te puedes casar, Las mujeres se ven muy mal diciendo groserías, Pinches viejas, ni ellas saben lo que quieren
Varias:El hombre llega hasta donde la mujer quiere, Seguro la que viene manejando es mujer,Esa carrera/trabajo es para hombres
Por todo lo anterior, debemos de prestar más atención a la violencia verbal, que se hace un fenómeno invisible y sigue afectando a muchas mujeres y hombres.
Yeh May Fátima, Universidad Veracruzana
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
LA NANOTECNOLOGíA Y SU PAPEL EN LA INNOVACIóN DEL CONCRETO PARA CONSTRUCCIONES DURABLES Y SUSTENTABLES.
LA NANOTECNOLOGíA Y SU PAPEL EN LA INNOVACIóN DEL CONCRETO PARA CONSTRUCCIONES DURABLES Y SUSTENTABLES.
Yeh May Fátima, Universidad Veracruzana. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El concreto como material de construcción es el más utilizado tanto por la ingeniería civil como la arquitectura para la realización de proyectos que abarcan distintas necesidades y brindan soluciones a cada una de ellas.
Actualmente, las múltiples soluciones de diseño que permite desarrollar la tecnología necesitan materiales durables y sobre todo sustentables que permitan garantizar los mismos resultados de seguridad y duración que los materiales tradicionales como tabique, concretos, etc.
La durabilidad es un aspecto importante dentro del diseño de construcciones en concreto, por lo que es indispensable que se conozcan los beneficios que se pueden obtener si sumamos un buen diseño en concreto junto con la nanotecnología, que se ha convertido en una puerta a un mundo que puede brindar las propiedades físicas y mecánicas que garanticen un diseño completamente durable y sustentable en donde se busque reducir el número de residuos de esta índole y por ende la huella ecológica, mediante la estructura misma, acabados o elementos naturales externos, empleando por supuesto cantidades nanométricas.
METODOLOGÍA
Las necesidades actuales y los múltiples problemas ecológicos relacionados con la construcción nos llevan a requerir que los materiales utilizados briden su mayor capacidad. El concreto es un material que ha sido utilizado desde la antigüedad, y a pesar del paso del tiempo, es el material más utilizado en el mundo, después del agua, y en la industria de la construcción. Las infraestructuras actuales requieren que el concreto esté en su máxima capacidad de durabilidad, por lo que se han buscado métodos para incrementar sus capacidades físicas y mecánicas mediante distintos agregados, aditivos e incluso mediante la nanotecnología.
"El principal objetivo que busca la nanotecnología, es que por medio de la manipulación de moléculas de forma física y química se puede jugar con las nuevas propiedades como la durabilidad y disponibilidad de masas, iguales o mejores, contribuyendo con el medio ambiente." (Muciño 2009) Existen distintos estudios al respecto; donde los agregados estudiados que se frecuentan incluyen: nanomateriales como nano-sílice (nano-SiO2), nano-alúmina (nano-Al2O3), nano-óxido férrico (nano-Fe2O3), nano-óxido de titanio (nano-TiO2), nanotubos de carbono (CNTs), grafeno y óxido de grafeno. Estos nanomateriales se pueden añadir al cemento con otros materiales de refuerzo como fibras de acero, vidrio, casco de arroz y cenizas volantes. Las dosis óptimas de estos materiales pueden mejorar la resistencia a la compresión, tracción y flexión de los materiales a base de cemento, así como su absorción de agua y trabajabilidad. (Bautista-Gutierrez et al. 2019)
Dentro del diseño de las estructuras de concreto un concepto importante y que no debe dejarse de lado es la sustentabilidad y la arquitectura verde. Dichos términos, no solo involucran el uso de materiales que no impacten directa o totalmente al entorno, sino brindar circunstancias y espacios en donde el usuario se sienta pleno y tenga la oportunidad de desarrollarse dentro de un ambiente que incremente la calidad de vida tanto de sí mismo como de las estructuras.
…Se discute brevemente la importancia de la sostenibilidad como el principal impulsor de las innovaciones futuras y las perspectivas de desarrollo de nuevos materiales cementicios con menor impacto ambiental. (Birgisson et al. 2012)
Un ejemplo de lo antes mencionado, volviéndose una alternativa completa es: el concreto traslucido (TC) o concreto transmisor de luz (LTC) se produce como uno de esos tipos innovadores de materiales que permite que la luz externa se transmita a través de espacios interiores mediante el uso de algunos elementos de luz como fibras ópticas con concreto. (Mosalam and Casquero-Modrego 2018) Dicha manipulación del material con nanotecnología arroja resultados positivos sin perder el objetivo principal en su rol dentro de la ingeniería civil en la parte estructural y dentro de la arquitectura en la parte de diseño. (Covaleov 2019)
CONCLUSIONES
Se puede concluir que el concreto es un material, que a pesar de los avances tecnológicos no solo en el mundo de la construcción, está para quedarse. De igual manera, no se debe dejar de lado los diseños sustentables y las tecnologías verdes, ya que el principal objetivo de este resumen es buscar una forma de aumentar la duración de las estructuras de concreto con el fin de reducir de forma paralela los residuos causados por la construcción.
El uso de la nanotecnología es un concepto prometedor para la solución; sin embargo, considero que, en base a toda la investigación y estudios existentes, aún es factible el indagar aún más dentro de este concepto y probar alternativas aún más arriesgadas que incentiven incluso el uso de residuos que se consideraban no aprovechables (siempre y cuando beneficien al estudio y brinden las características físicas y mecánicas deseadas). De igual forma, estos nanomateriales pueden modificar las propiedades no únicamente del concreto, ya que existen otros materiales de construcción sumamente utilizados como el acero, rocas, madera y demás en donde se podrían comenzar a investigar de forma aún más precisa y con ayuda de la nanotecnología volverlas igual de prometedoras que la combinación con concreto.
AGRADECIMIENTOS
Al Dr. Jorge Alberto Borrego Pérez de la Universidad Michoacana de San Nicolás de Hidalgo por su ponencia titulada Concretos Antibacterianos y el aporte de bibliografía relacionada.
Al Departamento de Materiales, Facultad de Ingeniería Civil de la Universidad Michoacana de San Nicolás de Hidalgo por todo el apoyo y conocimiento brindado.
Zamora Bautista Verónica, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
ZEOLITA CLINOPTILOLITA APLICADA A UN TRATAMIENTO DE AGUA RESIDUAL.
ZEOLITA CLINOPTILOLITA APLICADA A UN TRATAMIENTO DE AGUA RESIDUAL.
Balderas Ramirez Daniel, Benemérita Universidad Autónoma de Puebla. Zamora Bautista Verónica, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En la actualidad existen muchos tipos de contaminación ambiental que dañan los ecosistemas y la vida en general del planeta. Las zeolitas forman parte de la solución a causa de que sus propiedades y características le confieren importantes aplicaciones en diferentes tipos de remediación.
A partir de la información recabada, se determinó que para la zona específica de Puebla y Tlaxcala, tanto el río Atoyac como el río Zahuapan sufren de un gran problema de contaminación. El recorrido del Río Atoyac se divide por zonas de acuerdo con las comunidades que atraviesa de las cuales recibe descargas de residuos sólidos urbanos, así como por el punto más importante para nuestro estudio: las aguas residuales que emanan de actividades industriales. La evaluación toxicológica del Río Atoyac presentada en 2015 para el segundo congreso de la Asociación Mexicana de Ingeniería, Ciencia y Gestión Ambiental, identifican zonas que por la naturaleza de las descargas y las industrias establecidas ofrecen diferentes niveles de contaminación con metales pesados y variaciones en el oxígeno disuelto. Esto de acuerdo a los límites establecidos por la NOM-001-SEMARNAT- 1996 donde se establecen los máximos permisibles de contaminación en cuerpos de agua. La presa Manuel Ávila Camacho, popularmente conocida como la presa de Valsequillo recibe agua del Río Atoyac y del río Alseseca, pero el caudal más importante viene del Atoyac. Justamente en la zona 5, previa a Valsequillo destacaron los niveles de toxicidad de 5 descargas industriales.
Estos metales pueden ser inhalados, ingresar a través de la piel o ser almacenados en las vacuolas de las células vegetales cuando se utilizan aguas contaminadas para riego. Al ser consumidas, se absorben vía intestinal uniéndose a proteínas y así poder viajar por la sangre.
METODOLOGÍA
Para lograr los objetivos planteados a lo largo de la investigación, primero se realizó una investigación general sobre las zeolitas para poder reconocer las más empleadas. Posteriormente, al analizar la información recabada, se tomó una muestra de 4 L de agua de la presa Valsequillo de la ciudad de Puebla. Para elegir el lugar para toma de muestra se utilizaron los siguientes criterios:
Accesibilidad,contaminantes de acuerdo con la NOM-001-SEMARNAT-1996, impacto a la salud por su uso, seguridad para la persona que toma la muestra, el lugar ideal fue a un costado de la Dirección, local de CONAGUA para el distrito de riego 030. Pues representaba un lugar de fácil acceso a pie, nivel de agua suficiente como tomar la muestra en la orilla del río, menos materia orgánica y fecalitos y finalmente se trata del distrito de riego.
Con dos recipientes de plástico utilizados exclusivamente para agua potable se almacenaron 4 litros (2 en cada recipiente) pues se requería uno para un análisis inicial y otro para un análisis posterior al tratamiento del agua. Se llevó la muestra a un laboratorio de análisis de agua, específicamente para un estudio de metales pesados.El laboratorio elegido fue Lab Bio Indu, mismo que realizó la determinación de Plomo, Zinc, Cadmio, Arsénico, Cobre y Níquel de 2 de nuestras muestras. Los resultados iniciales más importantes sin tratar el agua con la zeolita fueron los siguientes:
Plomo +: Límite permisible es de 0.025, el resultado fue < 0.170 mg/L.
Cadmio +: Límite permisible es de 0.005, el resultado fue < 0.014 mg/L.
Níquel +: Límite permisible no especificado, el resultado fue < 0.866 mg/L.
Por temas de costos y tiempos elegimos Clinoptilolita por ser la más asequible, rápida en tiempo de entrega y certificada en cuanto a composición. Como materiales, fue necesario el uso de dos garrafas de agua de 4 litros cada una, así como mallas de plástico reutilizadas y vendas elásticas para retener los sólidos que contenía el agua así como aquellas zeolitas granuladas con un diámetro tan pequeños que pudiese pasar por la malla, tijeras, ligas y una cubeta limpia.
La boquilla de una de las garrafas fue recortada para que el envase únicamente sirviera como contenedor del agua filtrada, mientras que a la otra garrara se le recortó únicamente su base para que en ella cupieran los 3 kilogramos de zeolita Clinoptilolita. A la boquilla de ésta última se le colocó una malla de plástico así como una venda elástica para realizar un primer filtrado al agua muestreada para retirar los sólidos más grandes y así evitar que interfirieran en el análisis posterior. Después, se volvió a realizar otro filtrado al agua muestreada con otra venda elástica. Filtrada el agua, se lavaron los contenedores mientras el agua se almacenaba en una cubeta limpia. Limpios y secos los contenedores, se colocó en aquél que no tenía base, la zeolita con la boquilla hacia abajo y con la malla de plástico y una venda elástica. Se embonó este contenedor con el otro y se vació toda el agua sobre la zeolita. El tiempo de retención fue de 1 hora 35 minutos; se buscaba era que el agua estuviese en contacto mucho tiempo con la zeolita. El agua fue pasada a un tercer contenedor completamente limpio para su posterior análisis.
CONCLUSIONES
Los recursos y el tiempo eran limitados pues se encuentran cerrados los laboratorios de la universidad. De acuerdo con los resultados obtenidos del primer análisis del laboratorio, nos dimos cuenta de que los niveles de plomo y cadmio eran elevados, mientras que otros parámetros que en un principio se pensaron que serían altos, no lo fueron. Uno de los motivos principales por el cual se optó por la zeolita Clinoptilolita fue porque era más fácil de adquirir, y porque después de una investigación exhaustiva en diferentes puntos de la ciudad de Puebla para poder conseguirla normalmente las distribuidoras nos comunicaban que efectivamente. Esperamos que con los resultados que estén por venir del laboratorio, existan parámetros favorables. Se pretende que con este trabajo de investigación se puedan llevar a cabo más investigaciones futuras para seguir estudiando el papel de las zeolitas en el tratamiento de aguas residuales.
Zapata Giraldo Stephanie, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
EVALUACIóN FíSICO-MECáNICA MEDIANTE LA PRUEBA DE TENSIóN DIRECTA Y PRUEBAS NO DESTRUCTIVAS EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL EN ARENA DE PET Y SUSTITUCIóN PARCIAL DE CEMENTO PORTLAND POR CBC CENIZA DE BAGAZO DE CAñA
EVALUACIóN FíSICO-MECáNICA MEDIANTE LA PRUEBA DE TENSIóN DIRECTA Y PRUEBAS NO DESTRUCTIVAS EN ESPECíMENES DE MORTERO BASE DE CEMENTO PORTLAND CON ADICIóN PARCIAL EN ARENA DE PET Y SUSTITUCIóN PARCIAL DE CEMENTO PORTLAND POR CBC CENIZA DE BAGAZO DE CAñA
Zapata Giraldo Stephanie, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Hugo Luis Chávez García, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
En primer lugar, es importante mencionar como en nuestras ciudades actuales, el mundo de la construcción ha venido involucrando elementos para el desarrollo moderno, esto ha derivado en gran parte la contaminación ambiental presente desde su extracción hasta la ejecución de la obra, aportando significativamente a la destrucción de la capa de ozono y el calentamiento global por la producción de gases nocivos, como lo son el CO2, mencionado por cabrera (2018).
Son tendencia de producción y consumo la situación de la industria de las resinas de polietileno en México, en la publicación de NTR periodismo crítico, se menciona que solo se recicla el 15% anuales de 800 mil toneladas de Pet, cifra que es preocupante porque el 85% termina sin tratamiento alguno en relleno sanitarios, bosques, playas y océanos generando impactos negativos en costas del pacifico norte del país,(Álvarez, 2016) de una forma paralela surgen estrategias que ayuden a la protección del medio ambiente factor que es básico para la supervivencia en la raza humana, derivado de esto se identifica la necesidad de garantizar la durabilidad del concreto, conservación de materiales y reciclaje de materiales cementantes como lo es la ceniza de bagazo de caña como reemplazo parcial del cemento portland (landa, 2019)
Evaluar combinaciones a morteros, generando adición de Pet y sustitución ceniza de bagazo de caña, logrando que la mezcla presente una reducción de cemento con respecto al agua y arena, verificando los procesos cumplan con las normativas mexicanas ONNCCE, donde estipulan los porcentajes de fluidez y resistencia a la tensión.
METODOLOGÍA
Esta investigación está desarrollada en cuatro fases, como objetivo se propone analizar y comparar la resistencia de los especímenes de mortero con adición de 10% PET y sustitución de 10% ceniza de bagazo de caña, a edades de 7,14 y 28 días.
Fase 1: Calidad del material, Iniciamos con el cuarteo y selección del material para garantizar la obtención de la muestra significativa y se realizo el análisis de granulometría, donde pasamos la muestra significativa por una serie de mallas o tamices, para conocer la distribución de los diámetros de las partículas y el módulo de finura.
Determinamos la capacidad máxima de absorción que tiene la arena al estar saturada por 24 horas con agua expresada en porcentaje, Con estos porcentajes se realizamos las pruebas de fluidez, estableciendo la relación de agua cemento según la combinación a realizar para lograr que el mortero sea más manejable plástico y dúctil.
Fase 2: Colado de especímenes, Se elaboraron 4 morteros donde, se estableció la relación agua cemento (a/c) de 800 ml de agua por 1 kl de cemento portland y 2.750 de arena, en la combinación con Pet se realizó una adición del 10% que equivale a 100gr de, la variación con ceniza de caña se realizó una sustitución del 10% al cemento al ser un material cementante y en la combinación de Pet y ceniza 900gr de cemento con sustitución del 10% de ceniza que son 100gr, adición de 100gr de PET, con la misma relación en gua y arena.
Además, se realizó la elaboración de especímenes tipo briqueta, para la determinación de la tensión directa de cada prueba, se realiza con moldes de bronce, inicialmente se engrasan, y se agrega la mezcla hasta que este rebosando y se apisona con los pulgares 12 veces en movimientos parejo, se limpia el exceso de mezcla y se retira el molde, se procede a dejarlo fraguar, después de 24 horas de haber fraguado las mezclas el mortero de testigo y con adición de Pet, se empleo un procedimiento de curado de concreto para evitar que el agua de la mezcla del concreto se evapore en forma rápida o para reintegrar al mismo la perdida de humedad. Pasadas las 72 horas los morteros de ceniza y los combinados de ceniza y Pet fueron introducidos a curar y posterior mente analizar a las edades de 7, 14, 28 y 60 días.
Fase 3: Pruebas no destructivas, pasados los 7 y 14 días iniciales del curado, se extraen del curado las pruebas saturadas se toman los pesos en una balanza digital con capacidad de 3000 gramos, se tomaron las dimensiones de las áreas de las caras de contacto y la seccione medida (Sm) que nos ayuda a establecer las variaciones y las fórmulas para realizar las pruebas de resistencia de cada mortero.
Fase 4: Pruebas destructivas, resistencia tensión directa en briquetas, El objetivo de esta prueba es poder determinar la resistencia de tensión directa de un mortero, para esto se lleva la briqueta a la máquina que previamente es nivelada con manivelas se dispone elemento en la pinza, y lentamente por medio de municiones de acero se agrega un esfuerzo hasta la falla de la muestra las municiones serán colocadas en la tolva de la máquina.
CONCLUSIONES
Se obtuvo que la mezcla de mortero con mejor resistencia a la tensión directa con las edades 7-14-28 días, ejercidas en unidades de medida en Mpa, que se define como la presión que ejerce una fuerza de 1 newton sobre una superficie de 1 metro cuadrado, fue la sustitución de CBC, y su relación agua cemento (a/c) de 800 ml de agua por 900kl de cemento y 2.750 de arena, y sustitución del 10% en ceniza de caña, cumpliendo parámetros fisicoquímicos que les otorgan las propiedades de aglomerantes cuando entran en la ecuación de hidratación del cemento Portland.
El aporte que realiza el proyecto es significativo, al agregar varios componentes a la realización del mortero con base de cemento, se contribuye a los objetivos de desarrollo sostenible a nivel mundial, debido a que son elementos que contienen un alto porcentaje de contaminación al medio ambiente, como lo son el PET y el CBC ceniza de bagazo de caña, ayudando a reducir la cantidad de la utilización del cemento portland, que en su ejecución deriva a la destrucción de la capa de ozono y el calentamiento global por la producción de gases nocivos, como lo son el CO2.
Zavala Juárez Efrain Rafael, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
CARGA INDUCTIVA ELECTROMAGNéTICA
CARGA INDUCTIVA ELECTROMAGNéTICA
Zavala Juárez Efrain Rafael, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Francisco Javier Perez Pinal, Instituto Tecnológico de Celaya
PLANTEAMIENTO DEL PROBLEMA
En los últimos años los vehículos eléctricos se están volviendo parte esencial en la industria automotriz, por lo tanto, nos hemos encontrado con la necesidad de tener innovaciones que estén al nivel de la tecnología actual, como tal una parte fundamental al momento de adquirir un vehículo eléctrico es la forma en la que se cargan los vehículos eléctricos, una de las opciones que se cree va a facilitar la carga es la carga inductiva electromagnética, pero… ¿Qué tanto sabemos de esta tecnología? Es importante conocer los principios electrónicos que rigen esta innovadora forma de cargar los vehículos de forma dinámica, para tener considerables ahorros de energía, dinero y tiempo.
METODOLOGÍA
De principio se tenía contemplado hacer una investigación presencial que contemplara las innovaciones en la electrónica de potencia en autos eléctricos eh híbridos, por contingencia se hizo una investigación a distancia (online), al ser temas muy extensos nos dividimos el trabajo, el cual a mi equipo de trabajo y a mí nos tocó investigar sobre baterías, carga inductiva electromagnética y los materiales ferromagnéticos usados en circuitos de potencia en los autos autónomos eléctricos.
Al haber tenido la complicación de la distancia, solo hubo enfoque en una investigación documental, nos dedicamos a recabar información que cumpliera con el objetivo y enfoque del tema, información de costo-beneficio, la parte eléctrica, la parte ecológica, entre otros temas de interés, por lo tanto la investigación fue cualitativa. Para esto recolectamos revistas (en su mayoría) con información de nuestro interés.
CONCLUSIONES
Mi participación en el programa delfín me pareció bastante beneficioso, ya que aumento mis habilidades de redacción, de investigación autónoma, entre otras. Al haber sido de forma electrónica se mejoró la forma de recabar información de forma eficiente. Para estar concluyendo mis estudios en Ingeniería en Sistemas Automotrices esta investigación me ayudo a poder ver el futuro de la industria automotriz y la forma en que se está trabajando el diseño de los vehículos eléctricos.
Zavala Lorenzana Nancy Griseny, Instituto Tecnológico de Tapachula
Asesor:Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA
ANALOGíA ENTRE LA DUREZA DEL AGUA DE UN POZO EN ZONA PETROLERA Y AGUAS TRATADAS EN UN PUEBLO ECO TURISTA
Vázquez Culebro Kevin Marconi, Instituto Tecnológico de Tapachula. Zavala Lorenzana Nancy Griseny, Instituto Tecnológico de Tapachula. Asesor: Mtro. Omar Hatziel Garza Pascacio, Instituto Tecnológico Superior de Cintalapa
PLANTEAMIENTO DEL PROBLEMA
El proyecto es muy interesante por el motivo de que busca identificar la pureza del agua que contiene desde una botella de agua, hasta la pureza de un lago o un río. El motivo del proyecto es identificar varias empresas de la región aplicando una serie de muestras de sus productos identificando por medio de una serie de procesos estadísticos determinando si el producto es totalmente semiduro o duro ya que con esto podremos juzgar a una empresa si es que está no vende productos de calidad, o bien se puede lograr diseñar una empresa en la cual podamos nosotros aplicar u mejor y más amplio sistema de calidad dentro de la línea de producción, logrando brindar al cliente un mejor servicio y así no resulte afectado por productos de mal composición.
METODOLOGÍA
El proyecto se ha realizado mediante un proceso de arduo trabajo en equipo ya que la realización de las muestras fueron numerosas y de varios días para analizar. Es tiempo de crear una documentación compuesta de la información recaudadas de las diferentes ubicaciones en las cuales se realizaron las muestras estadísticas.
CONCLUSIONES
Los resultados de nuestro análisis estadístico dieron paso a que existe un gran índice de empresa en las cuales el tipo de agua que se comercializa en su mayoría en blanda y semidura mostrándose así que aún falta mucho que mejorar en si sistema de producción ya que el agua que esta llegando a nuestras manos aún se encuentra fuera del límite permisible para consumo, aunque es poco fuera del margen aun 3s significativo como para que este sea ignorado.
Zea Fernandez Jhojan Stiven, Universidad de Medellín
Asesor:Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
BENEFICIOS ENERGéTICOS POR LA CLIMATIZACIóN DE EDIFICIOS CON GEOTERMIA SOMERA VS
CLIMATIZACIóN CONVENCIONAL EN IBEROAMéRICA.
BENEFICIOS ENERGéTICOS POR LA CLIMATIZACIóN DE EDIFICIOS CON GEOTERMIA SOMERA VS
CLIMATIZACIóN CONVENCIONAL EN IBEROAMéRICA.
Zea Fernandez Jhojan Stiven, Universidad de Medellín. Asesor: Dr. David Morillon Galvez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En Iberoamérica existe una gran demanda de climatización debido a los climas cálidos y/o muy fríos que presentan muchos de sus países; sin embargo, la ineficiencia de los equipos usados por gran parte de la población hace que haya un elevado desperdicio de electricidad y alto impacto ambiental debido a las emisiones de CO2. Por eso durante la estancia de investigación, se hizo una evaluación sobre el potencial de la geotermia somera en distintas ciudades de Iberoamérica para calentar y enfriar edificios, así como sus posibles ahorros energéticos.
METODOLOGÍA
Se consideró un sistema intercambiador de calor tierra-aire el cual se simula utilizando un modelo simple de transferencia de calor en el cual el túnel es tratado como un intercambiador de calor con temperatura superficial constante. La temperatura de las paredes del intercambiador se estableció como la temperatura sol-aire media para cada una de las ciudades. Utilizando datos de temperatura y humedad se calculó la máxima capacidad de refrigeración y de calefacción que presenta el sistema a lo largo del año; y según un estudio del bioclima de cada región, para ver cuantas horas al año hay condiciones de frio, calor y confort se obtiene el ahorro energético anual utilizando esta alternativa.
CONCLUSIONES
El uso de la geotermia somera puede ser una herramienta poderosa para disminuir en gran manera el consumo de climatización que se da en países de Iberoamérica con alta variabilidad climática debido a las estaciones, ya que se tienen potenciales de ahorro anuales de hasta 40 MWh, además las ciudades muy frías o muy cálidas que se encuentran en países ecuatoriales presentan potenciales más bajos y por último, se concluye que las ciudades templadas pueden eliminar por completo el uso de aire acondicionado al utilizar geotermia somera como una alternativa.
Zecua Martínez Christian Cesar, Instituto Politécnico Nacional
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
REALCALINIZACIÓN ELECTROQUÍMICA DEL CONCRETO DE ACERO REFORZADO.
REALCALINIZACIÓN ELECTROQUÍMICA DEL CONCRETO DE ACERO REFORZADO.
Zecua Martínez Christian Cesar, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
El concreto reforzado, también denominado hormigón armado, es un material compuesto que resulta convencionalmente de la incorporación de barras o mallas de acero en la masa del concreto. En otras palabras, es un concreto que cuenta con armadura metálica interna. Las estructuras construidas con éste tipo de material han tenido una gran variación de mecanismos de degradación problemas de corrosión por carbonatación debido a la inevitable presencia de CO2 en el aire que se encuentra en contacto con las estructuras que provocan pérdida de carga, su función ya no se desarrolla igual y reduce su vida útil, por lo que estas situaciones han provocado muchas reparaciones en las estructuras, cuya característica principal es la de presentar estados avanzados de degradación, donde el factor común es el problema de la corrosión, (Se define corrosión al desgaste o la alteración de un metal o aleación, ya sea por ataque químico directo o por reacción electroquímica.), se presenta la obligación de intervención con el propósito de disminuir el deterioro de la estructura. Se inicia la aplicación de técnicas no convencionales y no destructivas de reparación, en las cuales se puede destacar en las que se encuentran las electroquímicas. Las técnicas están basadas en la aplicación de un campo eléctrico en el sistemas acero-concreto, generando mecanismos eléctricos, físicos y químicos, que se involucran entre sí, para lograr el decremento de la cinética de degradación de la armadura.
METODOLOGÍA
Realcalinización electroquímica
Cuando se habla de Realcalinización electroquímica (RAE) se tiene que definirlo como una técnica capaz de regresar en el concreto esa alcalinidad perdida durante la carbonatación, que consiste en aplicar una corriente continua entre las barras de acero y un electrodo auxiliar externo con el objetivo de restablecer la pérdida de alcalinidad que provoca la carbonatación. Hace que la armadura se repasive (aumentando el pH del concreto), disminuyendo su velocidad de corrosión.
La aplicación se considera de carácter temporal, ya que el tratamiento puede hacerse desde los 3 hasta los 21 días, para esto se aplica un campo eléctrico formando una celda electroquímica con un metal inerte (noble) (ánodo) y el acero (cátodo) y un electrolito básico (un valor de pH alto). Para aplicar este tratamiento se debe contar con una superficie de hormigón expuesta y libre de revestimientos, materiales extraños o zonas sueltas que limiten el paso de corriente o produzcan su corte.
Aplicación
1) La zona a tratar debe contar con continuidad eléctrica en las armaduras. Se resuelve la falta de continuidad aplicando puentes eléctricos generalmente con la adición de piezas metálicas unidas con soldadura.
2) Posteriormente se crea exteriormente una red anódica mediante un mallazo metálico. Hay que tener en cuenta que durante el proceso esta red exterior se va a corroer, lo que puede generar daños estéticos en la superficie. Para mantener el medio húmedo y como soporte del medio básico que se tiene que aplicar sobre la superficie del hormigón (electrolito) se aplica un gunitado de pasta de papel impregnado en carbonato de sodio que debe mantenerse húmedo durante el tratamiento .
3) Se aplica la corriente en densidades que oscilan entre los 1 y 2 A/m2 en superficies inferiores a 100 m2 y en periodos de 3 a 15 días.
Efectividad
Se estima que la elevación de la alcalinidad total se reparte entre 1/5 que se concentra en el entorno de las armaduras y los 4/5 que se reparten en una superficie mayor. En definitiva, la realcalinización se produce desde la superficie de la armadura hacia el exterior y la subida del PH es mayor cuanto más cerca esta del acero. El alcance total depende de la duración del tratamiento.
CONCLUSIONES
La técnica de la realcalinización electroquímica es relativamente reciente, esta aplicación está basado básicamente en los mismos fundamentos utilizados en la protección catódica y extracción electroquímica de cloruros; fundamentalmente las variantes son: la densidad de corriente el tiempo de aplicación y el tipo de electrolito.
La realcalinización electroquímica es una técnica de reparación de obras de hormigón armado dañadas por corrosión de armaduras. Se pueden aplicar respectivamente a estructuras carbonatadas o contaminadas por cloruros y pueden restaurar, en el hormigón en contacto con las armaduras, los valores de pH y de concentración de cloruros que permitan la repasivación del acero. La técnica ya se ha superado la fase de laboratorio y mostrado su eficacia sobre diferentes estructuras reales, ha sido utilizada en trabajos de campo, sin embargo existen pocos reportes escritos sobre estas experiencias. Pero no se pueden considerar todavía de rutina porque algunos aspectos, como por ejemplo la eficiencia al variar el tipo de hormigón y la geometría de la estructura o los efectos secundarios a largo plazo, no son todavía completamente conocidos. También existen algunos trabajos experimentales de laboratorio, sin en cambio no han sido suficientes para resolver las controversias relacionadas con la durabilidad de la reparación, a saber: tipo de estructuras que pueden ser tratadas, parámetros para medir la eficiencia e influencia de los parámetros de aplicación.
Referencias
W. Yeih, et al., Construction and Building Materials, 19, 516, (2005).
T. Gonen, et al., Construction and Building Materials, 21, 1040, (2007).
R.B. Polder, Electrochemical Techniques for Corrosion Protection and Maintenance, H.
Böhni, Corrosion in reinforced concrete structures, p. 231 CRC Press. USA. (2005).
Zepeda Enriquez Jazmin, Tecnológico de Estudios Superiores de Valle de Bravo
Asesor:Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
MEJORAMIENTO DEL PROCESO DE DISEñO DEL CALZADO ARTESANAL NICARAGüENSE.
MEJORAMIENTO DEL PROCESO DE DISEñO DEL CALZADO ARTESANAL NICARAGüENSE.
Arias Martinez Arturo, Tecnológico de Estudios Superiores de Valle de Bravo. Zepeda Enriquez Jazmin, Tecnológico de Estudios Superiores de Valle de Bravo. Asesor: Dr. Albert L. Balmaceda- Santamaria, Universidad Nacional de Ingeniería
PLANTEAMIENTO DEL PROBLEMA
El zapato es un accesorio pedestre de la vestimenta hecho con la intención de proveer protección y comodidad al pie, mientras este realiza varias actividades. Tiene la misión de proteger el pie de las inclemencias del tiempo frío, humedad, lluvia, barro, de las irregularidades del terreno, de los golpes, roces, heridas, etc. La importancia de utilizar un buen calzado, por tanto, no es solo cuestión de estética; la salud es un aspecto, en este sentido, que no se debe descuidar.
A través del tiempo los zapatos han cambiado su apariencia que originalmente está ligada a sus funciones. Es por ello la problemática en donde los zapatos en esta época actual al tener diferentes apariencias y estilos que predominan conforme a las tendencias se van perdiendo las medidas exactas de los zapatos estándar que originen comodidad en las personas que lo porten.
METODOLOGÍA
Se hizo uso del programa SolidWorks para el diseño 3D del zapato, como primer paso se tuvo que considerar el modelo principal visto anteriormente con el investigador de este proyecto y del modelo se obtuvo una superficie para que fuera similar al sólido. El zapato se parte a la mitad para trabajar de manera detallada en este, se hace uso de la operación de “envolver “para marcar la forma del zapato haciendo el croquis proyectándolo directamente a la pieza, dando un panorama visual de como va a quedar el zapato.
Hay algunas complicaciones con el zapato específicamente con la superficie ya que al proyectarse de necesita poner sobre una sola superficie solida ya que la modelo principal cuenta con varios fragmentos que no permiten una proyección uniforme.
En todo momento se trabaja con la superficie haciendo diferentes funciones como: ponerla sólida, coserla, coser la superficie con el uso de las herramientas “envolver y superficie”, no dejando atrás las operaciones “equidistancia- superficie, rellenar superficie, obstruir superficie, coser superficie y recortar superficie”. Como se menciona estas son las herramientas y funciones utilizadas principalmente durante todo el desarrollo del zapato 3D, cada una de estas están representadas en el diseño hecho en SolidWorks.
Tomando en cuenta que al finalizar el zapato a 3D se obtuvo el diseño 2D a partir de este con la herramienta “Dibujo técnico en 2D” en donde se podría decir que se colocaron cada una de las medidas que se pusieron con anterioridad en el 3D las cuales se colocan en diferentes caras: frontal, lateral izquierda, lateral derecha, superior y posterior que puedan permitir corroborar que las medidas sean precisas.
CONCLUSIONES
El uso de software 3D nos permite modelar diferentes objetos, con la facilidad de poder plasmar nuestras ideas y visiones, con ello podemos agilizarla realización de prototipos, con los cuales podemos revisar los aspectos mas importantes, con la finalidad de mejorar el diseño, con ello podemos reducir los costos en la producción de nuevos productos.
Zepeda Jiménez Cynthia Elizabeth, Universidad de Guadalajara
Asesor:Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla
PATRIMONIO CULTURAL MEXICANO: IMPACTO Y DAñOS POR SISMOS
PATRIMONIO CULTURAL MEXICANO: IMPACTO Y DAñOS POR SISMOS
Pérez Alejandre Maximiliano, Universidad Michoacana de San Nicolás de Hidalgo. Zepeda Jiménez Cynthia Elizabeth, Universidad de Guadalajara. Asesor: Mtra. Patricia Máximo Romero, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Se define como Patrimonio Cultural al conjunto de bienes que constituyen la identidad de un espacio, una cultura y una época por medio de un elemento edificado, esto quiere decir que todo edificio arquitectónico que pueda contar una historia por medio de sus componentes internos y externos que nos hacen ubican en un espacio y tiempo lo llamamos Patrimonio Cultural.
La cantidad de edificaciones Patrimoniales que existen actualmente en el país son incontables, ya que podemos encontrar aún las que datan de la época antes de la conquista (patrimonio arqueológico), hasta lo más actual perteneciente al siglo XX (patrimonio artístico), podemos destacar que cada una de las edificaciones fue construida de una manera distinta. Por ello destacamos que mientras pasaba el tiempo, surgieron actualizaciones respecto las construcciones y lo que las caracterizaban, no obstante eventos naturales y desastres ambientales han obligado al entorno a tomar medidas drásticas en la forma de construir.
Nuestro país se encuentra rodeado de una gran cantidad de placas tectónicas, esto quiere decir que estamos expuestas a cualquier movimiento agresivo que pudiera surgir de ellas y ocasionar sismos de gran magnitud como lo fue el sismo del 15 de junio de 1999 en Tehuacán, Puebla y el sismo del 16 de septiembre del 2018 en la Costa de Oaxaca que causaron pérdidas de vidas humanas y gran cantidad de pérdidas patrimoniales. Es importante conocer los daños que causan los sismos dentro de una edificación patrimonial, ya que específicamente son edificaciones que cuentan con muchos años de pie, por lo que son más delicadas y tienen un trato especial respecto a las demás, muchas de ellas a causa de estos eventos sufres daños severos, por lo que son estudiadas y finalmente procede a su derribo y otras tantas logran ser estudiadas y logran dar un resultados positivos para su reconstrucción, no obstante no es el único motivo por el que las distintas edificaciones patrimoniales pueden sufrir daños, muchas otras veces con el tiempo suelen enfermar y dañar su estructura interna.
METODOLOGÍA
Para llevar a cabo el proceso de investigación propuesta, se plantea la siguiente metodología:
Recolección y recapitulación de fuentes bibliográficas en línea (de ser posible si permite la situación sanitaria, colectar literatura física) respecto a los sismos ocurridos durante el 2017 en las distintas regiones del país, estructuras dañadas, patologías, pruebas para la detección de daños, entre otros.
Prospección y primer acercamiento de los tópicos tratados, revisión de los edificios, daños, evaluaciones y pruebas ejercidas ante ellos.
Contraste, complementación de la información recabada.
Capturar - condensar los datos obtenidos bajo la revisión de la bibliografía, elaboración de síntesis y catálogos de daños.
Elaboración de conclusiones por medio de la reflexión generada a partir de los temas observados.
CONCLUSIONES
Bajo los trabajos anteriormente descritos, se pretende la obtención de los siguientes puntos:
Dimensionar el grado de potencia de los distintos sismos ocurridos en la última década, a nivel nacional, respecto al patrimonio histórico cultural.
Generar comparativas de los distintos daños encontrados en templos, para establecer sus relaciones en los tipos de fallas, materialidad y sistemas constructivos.
Comprender los mecanismos de laboratorio para determinar las patologías presentes en el patrimonio cultural edificado, valorar su pertinencia dependiendo del grado de destrucción que puedan ocasionar.
Relacionar los trabajos de intervención estructural con los distintos ejemplos de daños, para garantizar la estabilidad de edificaciones con valor patrimonial.
Plantear un acercamiento a la metodología de intervención, contemplando un esquema general de prospección, investigación, consolidación y posterior restauración con un ejemplo teórico.
COMPORTAMIENTO DEL CONCRETO CON FIBRAS DE ACERO PARA PAVIMENTOS
COMPORTAMIENTO DEL CONCRETO CON FIBRAS DE ACERO PARA PAVIMENTOS
Zepeda Ortiz Judas Alberto, Universidad de Sonora. Asesor: Mg. Diana Patricia Urrea Ramirez, Corporación Universitaria Remington
PLANTEAMIENTO DEL PROBLEMA
El concreto es uno de los materiales más utilizados para la construcción de variedad de obras, entre ellas los pavimentos, los cuales exigen una demanda alta en cuanto a la resistencia mecánica. La adición de fibras de concreto proporciona mejoras con respecto los concretos convencionales, amplían la capacidad de resistencia del concreto; pueden reemplazar parcial o completamente el reforzado por medio de armaduras o barras de acero, sin embargo, es de interés el saber cuáles son los parámetros que definen qué tan eficaz y qué tan viable resulta la utilización de esta técnica para el área de pavimentos.
METODOLOGÍA
La metodología del proyecto consiste en la consulta de diversas fuentes bibliográficas en las que se puedan encontrar ensayos de consistencia, resistencia a compresión, tracción y flexión, de mezclas de concreto adicionadas con fibras de acero haciendo comparación con lo que se obtiene con el concreto simple, de forma que podamos hacer un análisis del comportamiento y por medio de ello elaborar nuestras conclusiones.
CONCLUSIONES
Los resultados obtenidos reflejan que la adición de fibras de acero para concretos para pavimentos beneficia notablemente su comportamiento, los mismos ilustran un incremento en las diferentes resistencias mecánicas del concreto, además la adición de las fibras no afecta la trabajabilidad o consistencia del concreto para la construcción de pavimentos, siempre y cuando se procure el adecuado empleo de las fibras y que los componentes de la mezcla de concreto cumplan con las normas de calidad correspondientes.
Zubia Almanza Yolanda Selene, Instituto Tecnológico de Chihuahua II
Asesor:Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
LOGíSTICA DE GASODUCTOS VIRTUALES
LOGíSTICA DE GASODUCTOS VIRTUALES
Torres Flores Lucia Grisel, Instituto Tecnológico de Chihuahua II. Zubia Almanza Yolanda Selene, Instituto Tecnológico de Chihuahua II. Asesor: Dr. Jairo Rafael Coronado Hernandez, Universidad de la Costa
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA
La demanda de gas natural y el transporte de combustibles líquidos es importante que se lleve a cabo diversas estrategias para que se logre abastecer a los clientes ubicados geográficamente a lo largo de Colombia que lo necesitan, por medio de vehículos que transportan gas comprimido, como gasoductos virtuales o estaciones de servicio.
METODOLOGÍA
Mediante una investigación en la base de datos se logra obtener suficiente informaciones para identificar los gasoductos virtuales, donde la demanda de gas natural presenta mayor capacidad en las redes de transporte, para poder ampliar la ya instalada y mejorando las situaciones de operación, hace referencia a un método que utiliza herramientas de distintas simulaciones.
A través de las simulaciones se logra establecer distintas estrategias para optimizar la logística de transporte en gasoductos virtuales, se obtuvo mediante la información de los diversos artículos que ayudaron a identificar las fallas y las necesidades de ellos. Por lo tanto se tuvo que optimizar el abastecimiento de los gasoductos virtuales en las ciudades cercanas a Colombia.
Los aspectos de gran importancia que se relacionan con los cambios de circulación de la energía asociados al incremento del transporte del gas natural licuado por vía marítima, donde las reservas de gas natural en regiones alejadas de las grandes ciudades, existen tres diferentes mercados; sector residencial y comercial, industrial y de electricidad. Cada uno de ellos presenta diferentes picos en el invierno y verano, son uno de los factores que se involucran en el abastecimiento de gas natural.
Se logra analizar y comprar la información obtenida del abastecimiento de los combustibles líquidos y gaseosos, donde los gasoductos virtuales se utilizan para la distribución de gas natural licuado, donde se realiza mediante tanques o contenedores criogénicos que permiten transportarlo.
Una vez obtenida la información adecuada y correcta, se logra considerar aspectos de suma importancia como:
El transporte por medio de gasoductos virtuales
El gas natural licuado como factor importante
La circulación de la red de transporte
Integridad estructural de tuberías de transporte
Simulación y análisis de sensibilidad
Al tomar en cuenta la información, para poder obtener los parámetros de operación y diseño para aumentar la seguridad en el transporte, aplicando criterios de evaluación y administración para redactar un artículo final sobre los gasoductos virtuales.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos de las estrategias y la logística utilizadas en el transporte de gas líquido, el cual se logra hacer líquido por medio del proceso de licuefacción, al pasarlo por este proceso hace más fácil su transporte. Se debe de transportar a lugares lejanos, para poder llevar a cabo esto se utilizan los gasoductos virtuales los cuales ayudan al transporte de este gas de una manera más segura y se puede transportar a cualquier lugar. Sin embargo el transporte de este tipo de gas es un extenso trabajo el cual se encuentra en proceso de simulaciones para observar cuales son las mejores estrategias y los menores costos para el transporte del gas.