Inicial del Apellido

Resúmenes por Estudiante

Estudiantes con Apellido que inicia con U

Uc Hau Joseb Eliazar Abisai, Consejo Quintanarroense de Ciencia y Tecnología
Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua

CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.


CAPTACIóN DE AGUA DE LLUVIA EN UN HOGAR EN LA CIUDAD DE CANCúN, MéXICO.

Jimenez Huchim Josue Benjamin, Consejo Quintanarroense de Ciencia y Tecnología. Uc Hau Joseb Eliazar Abisai, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Juan Gabriel Garcia Maldonado, Instituto Mexicano de Tecnología del Agua



PLANTEAMIENTO DEL PROBLEMA

A nivel global debido al cambio climático, uno de los grandes retos a los cuales nos enfrentaremos, es la escasez de agua, la cual aumentará en un 20 % los siguientes años, lo que provocará la necesidad de transportar este recurso desde lugares lejanos o pozos más profundos, esto se verá reflejado en las tarifas de costos que se le aplicará al usuario, pero sobre todo en la disponibilidad que se tendrá de este vital líquido para el desarrollo de diversas actividades cotidianas como el aseo y limpieza u otro uso que se le pretenda dar a esta.  Una de las maneras de obtener agua, es la proveniente de la lluvia, la cual en muy pocas ocasiones presenta contaminación, esta es almacenada en contenedores para su posterior uso, lo que puede significar un ahorro en el consumo de la red de agua disponible en los hogares, la conservación de la fuentes disponibles y un mejor  manejo de este recurso. La ciudad de Cancún cuenta con una precipitación anual mayor a los 1,000 mm, tiene una temporada de secas muy corta, por lo cual la captación de agua de lluvia puede ser una alternativa viable para satisfacer cierta demanda de este líquido. Por lo cual en este verano de investigación se analiza la viabilidad que tiene un hogar para satisfacer la demanda de agua solicitada, con el agua que puede ser captada de la lluvia, mediante estos sistemas de captación.  



METODOLOGÍA

El estudio fue llevado a cabo en la ciudad de Cancún, ubicada en el municipio de Benito Juárez, en el Estado de Quintana Roo, México con coordenadas latitud norte 21° 09’ 41’’ y latitud oeste 86° 49’ 29’’, posee un clima cálido subhúmedo, con temperaturas mínimas de 19.0 °C y máximas de 35.2 °C, con  media de 27 °C, la precipitación media anual de 1,334.6 mm con variaciones desde los 1032.0 mm hasta los 1955.3 mm,  siendo los meses de mayo a octubre en los cuales de presenta una mayor precipitación, con temporadas de secas durante los meses de marzo a abril.   El área de captación utilizada fue de 96 metros cuadrados, para un hogar de 6 personas, con una dotación diaria de 50 litros, lo mínimo recomendado por la Organización Mundial de la Salud (OMS). Se utilizaron dos métodos para calcular el volumen de captación de agua de lluvia, una de acuerdo a los lineamientos de la Comisión Nacional del Agua (CONAGUA) y otra mediante una calculadora, herramienta que nos brinda la página web Isla Urbanda. Para el primer método de acuerdo a los lineamientos antes mencionados, se describe lo siguiente: Los datos de la precipitación normal con distribución mensual. Estos fueron obtenidos de los datos históricos del Sistema Meteorológico Nacional, en el periodo de 1951-2010 (59 años),  la Estación Meteorológica utilizada fue la 00023153 Cancún, ubicada en la Latitud 21° 09’ 24’’N. y longitud 086° 49’ 13’’ W. En el cual se utilizaron datos en un periodo de 20-21 años. Con los datos obtenidos de la precipitación se procedieron a utilizar las fórmulas proporcionadas por la Comisión Nacional del Agua en el documento Lineamientos Técnicos: Sistemas de Captación de Agua de Lluvia con Fines de Abasto de Agua Potable a Nivel Vivienda. Estos lineamientos nos sirven para poder realizar cálculos básicos para conocer la capacidad de aprovechamiento que tiene algún área para la captación de agua de lluvia, dependiendo del material con que esté construida dicha área. Las variables calculadas son el volumen de captación de agua de lluvia (VA), la demanda de agua anual con distribución mensual (DA). Por último comparamos la cantidad de agua de lluvia captada y la cantidad de agua demanda por mes. Se calcula el déficit o el excedente si fuera el caso y son colocados en un tabla para poder ver gráficamente esta relación. Si existe un déficit se determina que no se pudo obtener suficiente agua para satisfacer la demanda en periodo de tiempo, en cambio si existe un excedente, es almacenado y utilizado al día siguiente para satisfacer la demanda, se calculan los días satisfechos al mes y por año.  Para el segundo método Isla Urbana. Esta es una página web, diseñada con información recopilada en la pluvioteca, cuenta con una calculadora de captación de agua de lluvia y con un observatorio. Estaremos usando la calculadora, la cual es una herramienta para la planeación y diseño de sistemas de captación de agua de lluvia, donde mediante el análisis y cálculos básicos nos ayuda a conocer los posibles niveles de aprovechamiento que se tendrían en la captación de agua de lluvia según nuestro municipio. La diferencia entre estas dos herramientas es que el de Isla Urbana es el que nos permite tener un estimado del costo del sistema de almacenamiento.  


CONCLUSIONES

Durante el verano de investigación se logró adquirir conocimientos para poder calcular el volumen de captación de agua de lluvia, en este caso se determinó que con un suministro diario de 50 litros, en un hogar de 6 personas, con un área de captación de 96 metros cuadrados y un coeficiente de escurrimiento de 0.90, lo días satisfechos son de 135 días, este resultado es alentador, sin embargo se tiene que recordar que solo se dotan de 50 litros por persona lo que da un total de 300 litros por día, si se desea dotar de más agua a los residentes se tendría que aumentar el área de captación, de lo contrario los días satisfechos se reducirían considerablemente, esta cantidad puede no ser significativa sin embargo al hacer la conversión se obtiene que los 135 días se ahorran 40.5 metros cúbicos de agua, que puede ser utilizado para la limpieza del hogar, el riego de plantas e incluso el aseo personal.
Uchima Guevara Luz Damary, Universidad de Caldas
Asesor: Dr. Fernando Sandoval Gutiérrez, Universidad Autónoma de Ciudad Juárez

PRÁCTICA DOCENTE, EMOCIONES EN EL AULA, EDUCACIÓN PARA LA CALIDAD DE VIDA.


PRÁCTICA DOCENTE, EMOCIONES EN EL AULA, EDUCACIÓN PARA LA CALIDAD DE VIDA.

Bautista Martinez Diana, Universidad Autónoma del Estado de México. Uchima Guevara Luz Damary, Universidad de Caldas. Asesor: Dr. Fernando Sandoval Gutiérrez, Universidad Autónoma de Ciudad Juárez



PLANTEAMIENTO DEL PROBLEMA

Una de las grandes preguntas que surge en el sector educativo es:  ¿Desde la educación cómo se puede contribuir a mejorar la calidad de vida desde el aula de clases?, es por eso que este proyecto pretende abordar espacios de la educación que casi no son muy tenidos en cuenta, cuando de formación pedagógica se trata  y que además propenden a buscar una respuesta a este interrogante; es por esta razón por la cual se ha estudiado : La práctica docente, las emociones en el aula y la educación para la calidad de vida



METODOLOGÍA

Se programo en un inicio el cronograma de actividades a realizar durante la estancia virtual, participé de los encuentros sincrónicos semanales programados por el Investigador, así como estudié previamente los documentos de apoyo enviados sobre la temática: PRACTICA DOCENTE, EMOCIONES EN EL AULA, EDUCACIÓN PARA LA CALIDAD DE VIDA, por medio de la técnica estado del arte, para condensar la información recibida. Tomé los apuntes pertinentes para solicitar la aclaración de inquietudes con respecto a estos temas y se mantuvo comunicación constante con el investigador a través del grupo de WhatsApp creado por él, al tiempo que hice intervenciones en los conversatorios programados, tanto para aclarar inquietudes como para reafirmar la posición de los expositores, desde mi experiencia.  


CONCLUSIONES

Los aportes que este proyecto hace al ODS: EDUCACIÓN DE CALIDAD, son los siguientes:  Permite reconocer las fortalezas y debilidades que se pueden presentar en el desarrollo de la Práctica educativa. Permite hacer cuestionamientos sobre la importancia del manejo de las emociones dentro del aula (tanto de docentes, como de estudiantes) y cómo influye esto en la calidad de vida de los mismos.  Aclara   y amplia el concepto personal que se tiene sobre lo que representa la calidad de vida en la comunidad educativa. Permite reconocer la importancia de realizar una buena práctica docente y la influencia que esta tiene en la educación. Permite reconocer la necesidad de realizar actividades dónde se desarrolle la inteligencia emocional y él por que es importante.
Ugalde Garcia Ruben Antonio, Instituto Politécnico Nacional
Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional

PROCESOS AVANZADOS DE OXIDACIóN.


PROCESOS AVANZADOS DE OXIDACIóN.

Ugalde Garcia Ruben Antonio, Instituto Politécnico Nacional. Asesor: Dr. Celestino Odín Rodríguez Nava, Instituto Politécnico Nacional



PLANTEAMIENTO DEL PROBLEMA

Hoy en día, con el avance que se ha tenido en el ramo de la farmacéutica y la medicina, la aparición de nuevos fármacos o el mejoramiento químico de algunos ya existentes, ha incrementado el consumo de estos, algo que se ha visto potencialmente incrementado con situaciones como la actual crisis del coronavirus, donde en tiempo récord, se han tenido que hacer esfuerzos experimentales para el desarrollo de compuestos que permitan combatir a dicho patógeno. Se tiene un registro documental de que la mayoría de estos compuestos terminan de una u otra forma en el ambiente, específicamente en los mantos acuíferos redes de abastecimiento de aguas de los asentamientos humanos, lo preocupante o que ha generado un gran interés de estudio entre los especialistas medio ambientales, es la manera en que estos componentes pueden degradarse en el ambiente, ya sea naturalmente o con la ayuda de un proceso de tratamiento auxiliar, ya que su simple presencia en determinadas zonas podría crear un desequilibrio ambiental. Desde el punto de vista del tratamiento de aguas, existen diversos métodos y protocolos que pueden ser usados para la degradación de la mayoría de compuestos farmacéuticos, sin embargo, el objeto de estudio principal que dio origen a este trabajo de investigación, es la forma en como los procesos de oxidación avanzada pueden impactar de forma positiva, eficaz y eficiente en estos procesos de degradación, además de analizar cuáles son los métodos, mecanismos y elementos auxiliares que se necesitan para su posterior implementación.



METODOLOGÍA

El enfoque de esta investigación fue más de carácter documental, es decir, se tomó la decisión de consultar diversos artículos científicos que hablaran del tema con la finalidad de entender los pormenores y principales conceptos relacionados al tema. El trabajo realizado durante la primer semana fue la recopilación de información relacionada a los siguientes temas: Procesos de oxidación avanzada por ozonización, H2O2, Fenton, radiación UV y oxidación electroquímica, posterior a ello, los resultados fueron presentados en forma de una presentación para ser expuestos ante el equipo de trabajo, esto permitió en la práctica, nivelar los conocimientos necesarios para comenzar a desarrollar la estancia, y a la vez, para realizar una retroalimentación de los conocimientos previamente adquiridos. Una vez que se tuvo una mejor comprensión de los conocimientos básicos para este trabajo, el siguiente aspecto a desarrollar consistió en la identificación de la mayoría de los compuestos químicos usados en productos de higiene personal y médico-farmacológicos. Su identificación permitió posteriormente realizar una investigación sobre artículos científicos donde se mostraran los procesos de oxidación avanzada utilizados para su degradación ambiental, o en su defecto, hallar si no existían investigaciones que tocaran este tópico en particular. De igual manera, de forma complementaria se realizó una búsqueda del factor LC50 y el factor EC50, dos indicadores que demuestran de forma practica la toxicidad de diferentes componentes. Como agregado personal, durante la realización de esta dinámica, genere un sentido de conciencia, realmente nunca había profundizado tanto en como el uso de productos cotidianos puede tener un gran impacto al medio ambiente, y sobre todo, como es que en gran parte de estos aun no se tiene una idea de su impacto al entorno. Durante las siguientes semanas se prosiguió con la revisión de una gran diversidad de artículos científicos de temas relacionados a la línea de investigación principal, dichos temas, fueron Reactores Homogéneos y Heterogéneos. Durante la revisión de estos artículos se llevaron a cabo sesiones complementarias de estudio, a fin de desarrollar un poco mas los tópicos revisados y poder reforzar los conocimientos mediante la realización de una serie de ejercicios llevados a acabo en hojas de cálculo. En forma particular, se me encargo de manera paralela llevar a cabo una investigación sobre el tema de paneles solares, especificando las características, los arreglos necesarios para la obtención eficaz de energía y en especial, como es que investigaciones previas habían usado estos elementos para obtener la energía necesaria que demandan los diferentes procesos de oxidación avanzada existentes. Posterior a la investigación se solcito la realización de una memoria de calculo que permitiera contemplar diferentes propuestas de montaje eléctrico para poder hacer uso de 4 paneles solares, con los que cuenta la institución, en experimentos a desarrollar en un futuro, dicha memoria de calculo ya se tiene terminada, actualmente ya se cuenta con dos propuestas para ser presentadas y posteriormente evaluadas e implementadas, de la misma forma, se plantea hacer énfasis en las recomendaciones técnicas necesarias para que la formación de la red eléctrica sea lo más adecuada posible.


CONCLUSIONES

Durante la estancia se logro adquirir una serie de conocimientos técnicos propios de mi área de especialización y también referentes a otras áreas de estudio, sin embargo, al ser un trabajo extenso y que abarca varios frentes de estudio, aun existe una gran cantidad de aspectos por detallar, pulir y ampliar, esto complica en gran forma mostrar los datos obtenidos, aunado también a que como tal, la estancia tuvo un carácter más teórico que practico. Esta edición presento un particular reto por las condiciones actuales a las que se recurrieron por el tema de la pandemia, pero pese a esto se pudo llevar su realización de forma correcta y satisfactoria para ambas partes involucradas.
Ugalde Sánchez Jaime Zuriel, Instituto Politécnico Nacional
Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey

MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO


MACHINE LEARNING & CIENCIA DE DATOS PARA EL ESTUDIO DE COVID-19 EN MéXICO

González Sánchez Andrea, Universidad Tecnológica de Nayarit. Ugalde Sánchez Jaime Zuriel, Instituto Politécnico Nacional. Asesor: Dr. Rajesh Roshan Biswal -, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

Desde el punto de vista sanitario, existe la necesidad de desarrollar un algoritmo para la prevención o detección de la gravedad de los pacientes que padecen COVID-19 y de esta forma predecir si el paciente se encuentra en riesgo con base en los modelos de Machine Learning que se implementarán durante el proyecto a la base de datos proporcionada por la Dirección General de Epidemiología.



METODOLOGÍA

Para llevar a cabo el preprocesamiento de información se estableció la siguiente metodología.  Se normalizaron las fechas de inicio de síntomas, fecha de ingreso en el hospital y fecha de defunción, tomando como referencia al primer paciente registrado en México; así mismo, en caso que el paciente no haya fallecido, el criterio FECHA DEF posee un atributo estilo 9999/99/99 por lo que se cambi´o la fecha al 01/01/2021.  Se normalizaron los atributos de cada criterio, i.e. si al principio el atributo del sexo femenino era 2 se cambió a 0, esto para tener un control binario de este rubro.   Se descartaron los pacientes que hayan dado negativo al COVID-19 y aquellos a los que a´un no se les hubiese dado resultado.   Se eliminaron las columnas con los siguientes criterios : FECHA SINTOMAS, FECHA DEF, RESULTADO.  Se optó por utilizar el 80 % de la Base de Datos para entrenar el modelo de Machine Learning y por consiguiente el 20 % para validar dicho modelo.  Se imputaron los valores faltantes (no registraron) con la estrategia (most frequent).  Se definió el modelo a utilizar y se escogió el método (RandomForestClassifier ). Se establecieron 50 ´arboles de decisiones con un Random State = 0. Se entrenó el modelo. Se ajustaron los datos (data fitting)  Se predijeron los valores nuevos haciendo uso de una Base de Datos actualizada.  Se calculó y validó el modelo con un porcentaje de exactitud del 94,77 %.  Materiales Los materias que utilizamos fueron: Una PC Google Colab Kaggle Jupiter Notebook Anaconda Spyder Base de Datos de la Direcci´on General de Epidemiología


CONCLUSIONES

Este trabajo de investigación nos permitió desarrollar habilidades en el campo de la Inteligencia Artificial a partir del lenguaje de programación Python. Por el cual se diseñó un modelo de clasificación para predecir los decesos relacionados con el nuevo virus SARS-CoV-2, generando una eficacia del 94.77 % y percibiendo una correlaci´on del 33 % al 41 % entre los decesos y los atributos: neumon´ıa, edad, intubado, hipertensión y diabetes.  Se dio un énfasis en la manipulación de bases de datos, preprocesamiento de información, técnicas de imputación y diseño de modelos de machine learning para aumentar la eficiencia del modelo.  Un proyecto a futuro constaría en comparar bases de datos de diferentes instituciones para corroborar el modelo diseñado, además de analizar la duración de la enfermedad en los pacientes con respecto a los atributos de la base de datos.
Ugalde Saucedo Brenda, Instituto Politécnico Nacional
Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey

ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300


ANáLISIS DE LA VARIACIóN DE LA CLASIFICACIóN DE TARGET Y NON-TARGET EN DIFERENTES PARTICIPANTES EN BCI: P300

Alvarez Castañeda Emma Alejandra, Universidad de Guadalajara. Ugalde Saucedo Brenda, Instituto Politécnico Nacional. Asesor: Dr. Javier Mauricio Antelis Ortiz, Instituto Tecnológico y de Estudios Superiores de Monterrey



PLANTEAMIENTO DEL PROBLEMA

En el presente trabajo se abarcan dos diferentes estudios: el primero es el de  determinar cuál combinación de algoritmos de método de extracción de características y clasificador tendrá más precisión catalogando entre target o non-target en un experimento en sujetos sanos; en el segundo, se busca determinar si existe o no variación en el reconocimiento de target y non-target entre las primeras tres sesiones de 4 diferentes participantes. Estos estudios se realizaron con el propósito de aplicar los resultados en el aprendizaje máquina utilizado en una interfaz cerebro-computador (BCI) aplicada en una órtesis para pacientes con esclerosis lateral amiotrófica.



METODOLOGÍA

El experimento realizado consistió en lo siguiente: en una pantalla negra se proyecta un cuadro con 4, 5, 6, 7, 8 o 9 flechas o caritas felices (dependiendo del tipo de estímulo), uno de estos indicadores encendía o cambiaba de color de manera aleatoria, y el sujeto debía contar las veces que este suceso ocurría (únicamente cuando se encendía ese indicador). 8 electrodos (Fz, Cz, P3, Pz, P4, PO7, PO8 y Oz) fueron colocados en los sujetos para la obtención de su EEG. Cada trial de cada participante tenía una duración de -0.2 segundos a 1 segundo, indicando el segundo 0 el momento en el que el estímulo es reflejado en la pantalla. La frecuencia de muestreo del estudio fue de 256 Hz. Refiriendo al preprocesamiento de los datos, todos fueron intervenidos por un filtro pasa-bandas de 14 hz; se recortó el tiempo de los trials, haciendo el intervalo de 0 a 0.8 segundos, pues es en este tiempo donde se espera la respuesta P300. Para efectos del primer estudio, se balancearon los trials target y los non-target; esto quiere decir que, de ser menor el número de trials target, se eligió (en este caso, de manera aleatoria) el mismo número de trials non-target.  Para el primer estudio, se consideró la sesión 1 del participante 8 con 5 estímulos de carita feliz. A partir de esta sesión, se codificaron los siguientes métodos de extracción de características: decimación con factor 3, decimación con factor 10, promedio o average y análisis de correlación canónica. En cuanto a los algoritmos de clasificación entre target y non-target, se optó por trabajar con los siguientes: LDA (de dos diferentes maneras: con el método de MATLAB classify y con fitcdiscr), SWLDA, SVML, SVMG y KNN. Se evaluaron todas las posibles combinaciones, obteniendo gráficas de métricas que indicaran su precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos.  En cambio, en el estudio 2, se utilizaron las primeras tres sesiones de los participantes 8, 9, 10 y 11 con 5 estímulos de carita feliz. Se seleccionó un método de extracción de características (decimación factor 10) y un método de clasificación: (el primer LDA). Los datos de cada participante fueron evaluados por sesión, obteniendo entonces gráficos de la precisión, tasa de verdaderos positivos, tasa de verdaderos negativos y tasa de falsos positivos de cada uno de ellos (4 en total) por cada sesión (3 sesiones). Estos trials (targets y non-target) no fueron balanceados.


CONCLUSIONES

En el estudio 1, los métodos de clasificación que mostraron mejor desempeño fueron LDA y SVML. Se escogió el método LDA para trabajar en el segundo estudio por ser el más apto para este tipo de datos. La decimación con factor 10 mostró hasta un 84% de accuracy utilizando el primer método de LDA. Direccionándonos al estudio 2, en la sesión 1 el participante 11 reflejó mejores resultados en la identificación de target y non-target con una precisión de 75%-95%, tasa de verdaderos positivos de 75%-90% y una tasa de verdaderos negativos de 85%-95%. En la segunda sesión, se obtuvo la tasa de verdaderos positivos más baja en los 4 participantes, llegando hasta 50%. Finalmente, en la sesión 3, el  participante 9 reflejó mejores resultados con un accuracy de 85%-90%, una tasa de verdaderos positivos de 70%-100% y una tasa de verdaderos negativos de 85%-90%. Para crear un modelo de Machine Learning se cuenta con distintos métodos de extracción de características y de clasificación, que si bien cada uno tiene sus ventajas y desventajas, dependerá del objetivo del modelo y del tipo de datos con los que se está trabajando. La combinación del algoritmo de clasificación LDA 1 (realizado con la función de Matlab classify) y el método de extracción Decimación factor 10 arrojaron resultados considerablemente aceptables, posicionándose en una precisión promedio aproximada de 75%. Consideramos que una comparación entre amplitudes de onda P300 sería de utilidad para determinar si es esta la causa de que una de las sesiones tenga un peor desempeño que las demás. 
Ulloa Espinosa Ivette, Instituto Tecnológico de Tapachula
Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados

PROPIEDADES TERAPéUTICAS DEL áRBOL DE GUAYABO (PSIDIUM GUAJAVA)


PROPIEDADES TERAPéUTICAS DEL áRBOL DE GUAYABO (PSIDIUM GUAJAVA)

Ulloa Espinosa Ivette, Instituto Tecnológico de Tapachula. Asesor: Dra. Galdy Hernández Zárate, Colegio de Postgraduados



PLANTEAMIENTO DEL PROBLEMA

La naturaleza, a través de las plantas, ha proporcionado una cantidad excepcional de agentes medicinales. Históricamente, el uso de plantas medicinales representa una fuente factible para el tratamiento de diversas enfermedades, en especial, para las comunidades rurales que enfrentan mayores problemas de salud (Daswani et al. 2017). Se estima que cerca del 80 % de la población mundial dependen de la medicina tradicional (plantas), como una alternativa económica, segura y menos invasiva que la medicina convencional (Aedo y Granados, 2000; Rojas et al. 2015; Sivakrishnan y Pharm, 2018;). En este trabajo, se realizó una revisión bibliográfica sobre las propiedades y usos terapéuticos de la guayaba (Psidium guajava), un árbol con un número considerable de beneficios para la salud humana, y químicamente está dotado de muchas propiedades nutricionales y medicinales (Kafle et al. 2018). La constitución química de esta planta incluye taninos, fenoles, flavonoides, saponinas, carbohidratos, alcaloides, esteroles, terpenoides, compuestos fenólicos, entre otros (Barbalho et al., 2012; Gutierrez et al. 2008; Shruthi et al, 2013; Thaku and Vikrant, 2014; Thenmozhi and Rajan, 2015). Como planta medicinal, los frutos de Psidium guajava han mostrado una amplia diversidad de usos terapéuticos, p. ej. como antialérgico, antimicrobiano, antigenotóxico, antiplasmodial, antidiabético, antiinflamatorio, anti-reumático, citotóxico, antiespasmódico, cardioactivo, preventivo para la tos y anticonceptivo (Daswani et al. 2017; Kafle et al. 2018). Otro de los beneficios presente en este fruto de guayaba está asociado a su actividad antibacteriana, antimicótica y antipalúdica, que contribuye a la inhibición o retraso del crecimiento de diferentes microorganismos. Bacterias patógenas Gram-positivas y Gram-negativas como Staphylococcus aureus, Streptococcus mutans, Pseudomonas aeruginosa, Salmonella enterica, Bacillus cereus, Proteus vulgaris, Shigella dysenteriae y Escherichia coli han mostrado ser susceptibles a extractos de guayaba (Díaz-de-Cerio et al. 2017; Daswani et al. 2017; Kafle et al. 2018). Por su parte, las hojas del árbol de guayabo coadyuvan a prevenir trastornos digestivos, alopecia, ictericia, úlceras en la piel y es buena para aliviar las molestias reumatoides (Adame, 2008; Díaz-de-Cerio et al. 2017). En México, el cultivo de guayaba es una actividad que se realiza en 18 estados de la República. El 97 % de la producción se concentra en cuatro estados, Michoacán (117 322 t), Aguascalientes (53 536 t), Zacatecas (36 949 t) y el Estado de México (10 430 t), siendo Michoacán líder con un aporte del 50 % de la producción nacional (Colima-Agraria,2018; Páez Zavala; 2019; SAGARPA, 2019). A pesar de que México es el tercer productor más importante de guayaba a nivel mundial (Cortes-Penagos, 2016, Valera Montero et al. 2018), son muy pocos los esfuerzos realizados por las instituciones de investigación en la búsqueda de nuevos compuestos bioactivos que exhiban propiedades terapéuticas o medicinales. Sin duda, ésta puede ser un área de investigación emergente, con gran futuro, dada la enorme diversidad de compuestos bioactivos presentes en la guayaba, de los que aún no se conoce una función definida.



METODOLOGÍA

A través de las bases de datos Scopus-Elsevier y Google Académico, se llevó a cabo una búsqueda minuciosa de los artículos científicos sobre propiedades farmacéuticas y efectos del árbol de guayabo (Psidium guajava). Para su selección, se utilizaron las palabras claves “food”, “Psidium guajava” y “pharmaceutical,” y un filtro por área de interés (Ciencias Agrícolas y Biológicas, y Farmacología, Toxicología y farmacéuticas). Se obtuvo un total de 14 artículos registrados desde 2015 a la fecha. A la base bibliométrica generada se le efectuó un análisis con el software VOSviewer versión 1.6.1.5 para identificar la co-ocurrencia de las palabras claves.


CONCLUSIONES

Durante este verano científico, se compiló información sobre las propiedades farmacológicas del árbol de guayabo (Psidium guajava). Dicha información, permitió adquirir conocimientos teóricos que fortalecieron la formación académica y profesional en el área alimentos. En lo que respecta a la guayaba, a nivel mundial es reconocida no solo como alimento sino por sus propiedades medicinales para el tratamiento o prevención de enfermedades gástricas, alergénicas u oncogénicas. A pesar de ello, en México aún son escasos los estudios enfocados a la búsqueda de principios activos con fines medicinales; pero en muchas zonas rurales del país, la infusión de las hojas, raíces o la corteza del árbol de guayabo es una práctica común para tratar la tos, el dolor de estómago o como anti-disentérico.
Ulloa Jasso Saira Estefania, Instituto Politécnico Nacional
Asesor: Dra. Erika Anita Aguilar Chávez, Universidad de Guadalajara

CONCORDANCIA DIAGNóSTICA EN LA ATENCIóN DE URGENCIAS ENTRE EL PRIMER Y SEGUNDO NIVEL DE ATENCIóN MéDICA. ARTíCULO DE REVISIóN.


CONCORDANCIA DIAGNóSTICA EN LA ATENCIóN DE URGENCIAS ENTRE EL PRIMER Y SEGUNDO NIVEL DE ATENCIóN MéDICA. ARTíCULO DE REVISIóN.

Ulloa Jasso Saira Estefania, Instituto Politécnico Nacional. Asesor: Dra. Erika Anita Aguilar Chávez, Universidad de Guadalajara



PLANTEAMIENTO DEL PROBLEMA

Diversos autores han identificado la concordancia diagnóstica entre el primer nivel de atención y el nivel hospitalario o de referencia, con resultados contradictorios que van desde un índice de concordancia bueno o aceptable hasta el más bajo (2), (3), se ha determinado la influencia de variables como la edad y el tipo de diagnóstico de referencia (4) y la alta prevalencia de diagnósticos de referencia poco precisos. (3) En nuestro país las unidades del primer contacto médico atienden a una amplia población de derechohabientes de diversas zonas geográficas, con las implicaciones de divergencia en los padecimientos que pueden llegar a ser estudiados por el médico tratante debido a esta diversidad.   Existen motivos diversos por los que el servicio de urgencias de una unidad de medicina familiar envía pacientes al segundo nivel de atención médica, dentro de las que se encuentran las limitantes propias del primer nivel   La concordancia entre las impresiones médicas diagnósticas inicial o de referencia y la final o de desenlace y el motivo de envío a segundo nivel, permite una coordinación y seguimiento de los pacientes, entre los servicios de urgencias de la unidad de primer nivel de atención y el Hospital de referencia. La integración entre las observaciones realizadas por los distintos niveles de atención, son fundamentales para lograr el tratamiento adecuado y oportuno de los pacientes, motivo el cual realizamos una revisión de conceptos y abordaje metodológico para la evaluación de la concordancia diagnóstica entre los servicios médicos de urgencias de primer y segundo nivel de atención institucional y las implicaciones en la identificación de áreas de mejora, que podría repercutir de manera positiva en la atención médica de urgencia.



METODOLOGÍA

Se realizó una revisión de la literatura médica relacionada a concordancia diagnóstica en el servicio de urgencias enfocada a los distintos niveles de atención en salud. Definimos como Concordancia diagnóstica al grado de variabilidad inter-observador sobre un mismo conjunto de signos y síntomas en un mismo paciente que llevan a definir un diagnostico clínico inicial, que posteriormente servirá para identificar la correlación con estudios de imagen y/o de laboratorio para confirmar o descartar la impresión diagnóstica inicial y planear una estrategia de tratamiento específico en cada paciente. (9) En la mayor parte de los artículos relacionados, utilizan para clasificar la concordancia diagnostica al índice Kappa de Cohen; recordando que este índice representa la proporción de concordancia observada más allá del azar, respecto de la máxima concordancia posible más allá del azar. (10) Para identificar la concordancia inter-observador mediante el índice de kappa, los valores de medición van de 0 a 1, hablar de valores negativos sería manejado como discordancia. La concordancia puede ser interpretada como porcentaje o puede categorizarse en rangos que van desde muy baja, insignificante o nula hasta buena, muy buena o casi perfecta. Cada investigador define los rangos de referencia para estas categorías en base a las particularidades de cada estudio, sin embargo se acepta como buena concordancia cuando el índice kappa supera el valor 0.6, valores superiores a 0.8 se considera una concordancia diagnostica muy buena o casi perfecta. Diversos factores influyen en la  variación diagnóstica inter-observador entre el primer y segundo nivele de atención de salud. En nuestro país son evidentes, principalmente en lo relacionado con la disponibilidad de estudios de laboratorio y de gabinete que cuentan los hospitales del segundo nivel a diferencia de las unidades de primer nivel de atención, por lo que la práctica de la integración de la clínica se hace fundamental en estas últimas. Sin embargo ¿Qué tanta concordancia diagnóstica existe entre estos dos niveles de atención? Diversos autores han identificado la concordancia diagnóstica en los servicios de urgencias en diferentes niveles de salud. La tabla 1 muestra un análisis de los artículos incluidos. Los resultados son contradictorios y van desde un índice de concordancia bueno o aceptable hasta el más bajo (2), (3), se ha determinado la influencia de variables como la edad y el tipo de diagnóstico de referencia (4), la clasificación utilizada para el diagnóstico  y la alta prevalencia de diagnósticos de referencia poco precisos. (3) De todo ello las patologías con mayor porcentaje de concordancia clínica entre el primero y segundo nivel de atención fueron las relacionadas a la rama quirúrgica con hasta el 79%, sin embargo al correlacionar el diagnostico clínico y el postquirúrgico la concordancia fue menor. 


CONCLUSIONES

La diversidad de resultados en los estudios incluidos en esta revisión, nos habla de la posible inferencia de factores externos  al personal de salud en la valoración clínica y la inferencia diagnóstica entre el personal de salud de los diferentes niveles de atención.  Identificar la concordancia diagnóstica  inter-observador entre los sitios de atención médica podría influir en la oportuna intervención a los derechohabientes que demandan los servicios de salud en nuestro país. Estudios futuros de identificación y mejora de la concordancia diagnostica entre hospitales y clínicas serán necesarios para optimizar recursos materiales y de tiempo institucional, mejorar la calidad de atención de los derechohabientes y posiblemente la reducción de costos hospitalarios y de riesgos en la salud de nuestros paciente.
Ulloa Ramirez Martha, Universidad de Guadalajara
Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León

TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.


TRATAMIENTOS COMBINATORIOS BASADOS EN POLíMEROS, NANOPARTíCULAS, NANOCOMPUESTOS Y PéPTIDOS ANTIMICROBIANOS PARA EL COMBATE DE BACTERIAS RESISTENTES A ANTIBIóTICOS.

Román García María Fernanda, Instituto Politécnico Nacional. Ulloa Ramirez Martha, Universidad de Guadalajara. Asesor: Dr. Jose Ruben Morones Ramirez, Universidad Autónoma de Nuevo León



PLANTEAMIENTO DEL PROBLEMA

En 1928 comienza la era de los antibióticos, gracias al descubrimiento de la penicilina por Alexander Fleming; a pesar de que estos novedosos compuestos ayudaron bastante para frenar el crecimiento de enfermedades e infecciones causadas por bacterias, su uso persistente y su automedicación ha favorecido a que dichas bacterias desarrollen versátiles y sofisticados mecanismos de resistencia contra agentes antibióticos clínicamente esenciales. Esta amenazante realidad deja alrededor de cientos de miles de muertes por año, y de continuar de esa manera, el alarmante pronóstico para el año 2050 es que haya alrededor de 10 millones de muertes por la resistencia bacteriana. En este contexto la Organización Mundial de la Salud (OMS) ha declarado la resistencia bacteriana como un problema de salud pública de interés internacional; dando a conocer en 2017, una lista de patógenos de alta prioridad en la que se destacaban Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa y Enterobacter spp, (ESKAPE). Por esta razón, en la actualidad se ha puesto especial atención en el desarrollo y la investigación de nuevos tratamientos que aporten contra la resistencia a los antibióticos, en este caso, se decidió elaborar un artículo de revisión acerca de los tratamientos combinatorios que hasta el momento se han estudiado y que muestran una alta efectividad contra este problema.



METODOLOGÍA

Para comenzar con la realización del artículo se definieron los temas principales que contendría, iniciando por el planteamiento de una visión general de la resistencia bacteriana y las principales bacterias a combatir, los mecanismos de acción más comunes (modificación enzimática del antibiótico, las alteraciones en la permeabilidad de las membranas, los transportadores de efluentes y la modificación del sitio de unión); las actuales acciones que se han tomado para combatir la resistencia bacteriana y las conclusiones. Posteriormente, se definen cuatro subtemas principales en relación a los tratamientos combinatorios. El primero acerca de la combinación de dos o más antibióticos, el segundo abarca las nuevas estrategias combinatorias, entre los cuáles se definieron como subtemas secundarios los tratamientos con polímeros, tanto naturales como sintéticos; con nanopartículas inorgánicas, principalmente metales; y finalmente híbridos o nanocompuestos de nanopartículas y polímeros. Por último, se plantearon los temas de péptidos antimicrobianos en combinación con antibióticos y nanopartículas. Una vez repartidos los temas a desarrollar, se comenzó la búsqueda de bibliografía principalmente de artículos científicos publicados en revistas indexadas; los cuales se podían encontrar en bases de datos bibliográficos, bibliotecas virtuales y motores de buscadores confiables, como PubMed, Scopus, Wiley, Springer, entre otras. Después de obtener los artículos más relevantes para la investigación, se llevó a cabo la lectura de éstos y la extracción de las ideas principales. Una complicación durante el proceso fue que todas las fuentes bibliográficas se encuentran escritas en inglés, por lo que fue necesario utilizar herramientas de traducción que permitieran una mejor comprensión del texto. Una vez con las ideas principales, se procedió a redactar de manera simple y concisa los resultados más esenciales de los estudios que se realizaron acerca de los temas ya mencionados. Para citar correctamente cada fuente consultada utilizamos el programa Mendeley para recolectar los datos bibliográficos de los artículos consultados y poder agregar esta citas de acuerdo al formato de la revista Frontiers in Microbiology. Además, se tomó en cuenta las cinco estrategias propuestas por la Organización Mundial de la Salud en el plan de acción con respecto a la resistencia antimicrobiana: la optimación de la concientización y comprensión de la resistencia antimicrobiana, el refuerzo de los conocimientos por medio de la visualización e investigación, la reducción la incidencia de infección, la mejora del uso de los agentes antimicrobianos y el garantizar una gestión apropiada y financiación de la innovación en las alternativas terapéuticas.


CONCLUSIONES

Ya que las condiciones sanitarias actuales no permitieron una estancia presencial, los principales conocimientos y resultados obtenidos durante la investigación fueron principalmente teóricos, pues además del tema principal del artículo de revisión, se tuvo acceso a pequeñas clases de los temas relacionados a la línea de investigación y a un curso detallado del proceso de planeación, escritura y publicación de artículos de divulgación científica. La importancia de participar en este tipo de veranos de investigación es justamente el colaborar al desarrollo de la ciencia y la tecnología, además de adentrarnos en una edad temprana a la investigación, así como en este caso por ser de una manera virtual a su redacción. Además, fue una oportunidad para hacer una red de contactos para futuras colaboraciones tanto del área de la investigación como la divulgación científica entre diferentes planteles educativos fuera y dentro del país. Sin embargo, conforme a la transcendencia del artículo de revisión, es significativo mencionar que, con el paso de los años, las problemáticas en el área biomédica y biotecnológica cambian conforme al desarrollo de los nuevos medicamentos, así como su metodología de empleo y es por ello que debemos seguir muy de cerca el progreso e investigación de éstos para poder hacer una predicción de futuros inconvenientes que puedan causar, además de ser una problemática de salud pública de suma importancia para el mundo.
Ureña Sauceda Alexis, Universidad de Sonora
Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla

IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE ENERGíA


IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE ENERGíA

Lechuga Zárate Moisés Alejandro, Universidad de Guadalajara. Ureña Sauceda Alexis, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla



PLANTEAMIENTO DEL PROBLEMA

Debido al alto coste de programas como ATLAS y ALICE del LHC se opta por realizar simulaciones de estos mismos en softwares especializados. Uno de ellos es AliRoot, que permite simular colisiones a distintos niveles de energía y compararlas con colisiones reales dadas en ALICE-LHC, además de permitir la identificación de las partículas producidas. Así, la estancia consiste en estudiar las partículas producidas entre colisiones de protones, los datos obtenidos serán comparados con los de las primeras dos corridas del LHC (2009, 2015) y simular colisiones en la tercera corrida (2021).



METODOLOGÍA

Se requiere: distribución de Linux o macOS (recomendable), Docker, Alidock, AliPhysics, AliRoot. En la terminal escribimos alidock y luego git clone https://github.com/rbertens/ALICE_analysis_tutorial.git que nos da los siguientes archivos: AliAnalysisTaskMyTask.cxx (task), AliAnalysisTaskMyTask.h (header), AddMyTask.C (manager), runAnalysis.C (macro). Se solicita el archivo de datos, que debe ir en la  carpeta del tutorial. Se ejecuta el programa con alienv enter AliPhysics/latest, se escribe aliroot runAnalysis.C, cargando así AliRoot y dentro de este se corre nuestro macro. Se genera un archivo con los resultados, que se examinan con new TBrowser. Agregamos los pointers en los headers así como los inicializadores en el task y los nuevos histogramas en la función UserCreateOutput. Ya agregados los histogramas, en la función UserExec, se agregan los ciclos requeridos junto con la línea float vertexZ = fAOD->GetPrimaryVertex()->GetZ();.. Se trató de identificar piones cargados usando la energía perdida por unidad de distancia en la TPC (Time Projection Chamber). Es necesario guardar las señales de la TPC para todas las partículas cargadas en los eventos en un histograma bidimensional, escribiendo fYour2DHistogram->Fill(track->P(), track->GetTPCsignal()); en UserExec. Se identifican y guardan partículas solamente en la señal de la TPC que corresponde a los piones y se agregan al macro las siguientes líneas, antes de cargan el task: TMacro PIDadd(gSystem->ExpandPathName("$ALICE_ROOT/ANALYSIS/macros/ AddTaskPIDResponse.C")); AliAnalysisTaskPIDResponse* PIDresponseTask = reinterpret_cast(PIDadd.Exec()); Se añade otra clase en el header, class AliPIDResponse, a parte del pointer, AliPIDResponse* fPIDResponse; //! pid response object. Se agrega la clase en el header, junto con los inicializadores correspondientes incluyendo su header: AliPIDResponse.h al inicio. Mediante el siguiente código: AliAnalysisManager *man = AliAnalysisManager::GetAnalysisManager(); if (man) {     AliInputEventHandler* inputHandler = (AliInputEventHandler*)     (man->GetInputEventHandler());     if (inputHandler)   fPIDResponse = inputHandler->GetPIDResponse(); } justo al final del UserExec. Se extrae información de los diferentes tipos de partículas insertando estas funciones al final del ciclo en UserExec: double kaonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kKaon); double pionSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion); double protonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kProton); verificando la señal del PIDResponse  dentro de 3 desviaciones estándar escribiendo if (std::abs(fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion)) < 3 ) {   // jippy, i'm a pion }; Se crean histogramas para el momento transverso, la pseudorapidez y el ángulo de acimutal accediendo a la centralidad de la colisión mediante el siguiente código, insertándose  antes de cargar el  task, en el archivo macro: TMacro multSelection(gSystem->ExpandPathName("$ALICE_PHYSICS/OADB/COMMON/ MULTIPLICITY/macros/AddTaskMultSelection.C")); AliMultSelectionTask* multSelectionTask = reinterpret_cast (multSelection.Exec()); y en el task, en UserExec, al final del ciclo: Float_t centrality(0); AliMultSelection *multSelection =static_cast (fAOD->FindListObject("MultSelection")); if(multSelection) centrality = multSelection->GetMultiplicityPercentile("V0M"); Se cambian los datos obtenidos del periodo LHC150 con número de corrida 246757 por los de un generador Monte Carlo. Cambiamos el nombre a AliAOD_MC.root, por lo que será necesario cambiarlo también en todas las instancias en las que se utiliza el nombre anterior en el macro. Dentro del header se añade la siguiente variable: AliMCEvent*             fMCEvent;       //! corresponding MC event y los inicializadores en el header. En UserExec, se añade también fMCEvent = MCEvent(); permitiendo el uso de esta variable. Se declara en el header: virtual void ProcessMCParticles(); para el uso de esta información. Se añade otra sección en el task: void AliAnalysisTaskMyTask::ProcessMCParticles() {     // process MC particles     TClonesArray* AODMCTrackArray = dynamic_cast(fInputEvent->     FindListObject(AliAODMCParticle::StdBranchName()));     if (AODMCTrackArray == NULL) return;     // Loop over all primary MC particle     for(Long_t i = 0; i < AODMCTrackArray->GetEntriesFast(); i++) {       AliAODMCParticle* particle = static_cast       (AODMCTrackArray->At(i));       if (!particle) continue;       cout << "PDG CODE = " << particle->GetPdgCode() << endl;     } } Se llama a la función en UserExec, justo debajo de fMCEvent = MCEvent();: if(fMCEvent) ProcessMCParticles(); Arrojando una lista de códigos PDG.


CONCLUSIONES

Se obtuvo conocimiento básico de teoría cosmológica, software de simulación y programación en C++. Se trabajó con estudiantes de otras carreras y universidades del país, brindando a los alumnos un acercamiento a los trabajos de investigación. Se obtuvieron datos los cuales aún no fueron traducidos, pero con ellos se espera identificar las partículas producidas. Fue posible obtener varias gráficas con otros datos de utilidad, tanto con datos reales como con generados por Monte Carlo, y es posible apreciar las diferencias entre ellas.
Uribe Peña Joselyn Guadalupe, Universidad Autónoma de Nayarit
Asesor: Mg. Eduar Guerra Alvarez, Universidad de San Buenaventura

ESTUDIO DE MULTILATINAS DE LA ALIANZA DEL PACíFICO COMPITIENDO EN EL MERCADO CHINO: CORPORACIONES MEXICANAS.


ESTUDIO DE MULTILATINAS DE LA ALIANZA DEL PACíFICO COMPITIENDO EN EL MERCADO CHINO: CORPORACIONES MEXICANAS.

Uribe Peña Joselyn Guadalupe, Universidad Autónoma de Nayarit. Asesor: Mg. Eduar Guerra Alvarez, Universidad de San Buenaventura



PLANTEAMIENTO DEL PROBLEMA

Es un estudio de carácter exploratorio sobre la internacionalización en relación de las corporaciones mexicanas que compiten en el mercado Chino, el cual busca entender como las multilatinas mexicanas poseen el grado de conocimiento de ese mercado foráneo y como compiten en él, para ellos se toma en consideración el Modelo Uppsala el cual mide el nivel de conocimiento mismo de esas corporaciones desde la proporción de exportaciones esporádicas, exportaciones frecuentes, puntos comerciales y plantas de producción.



METODOLOGÍA

La investigación presentada es principalmente de carácter documental ya que pretende informar todo lo referente al estudio, donde la información disponible es sistematizada coherentemente para entender de la mejor manera la investigación. También, es una investigación cualitativa con trascendencia descriptiva pues recolecta información en fuentes secundarias como bases de datos de artículos científicos, sitios oficiales de la Organización Mundial de Comercio, informes del Banco Interamericano de Desarrollo, revistas, libros, investigaciones y registros de diferentes empresas; dicha información se procesa y analiza en beneficio al estudio para ser plasmada en el documento.


CONCLUSIONES

Se puede concluir, que durante la estancia de verano se lograron adquirir nuevos conocimientos en relación a mi carrera de acuerdo con el tema desarrollado durante la pasantía; además, la investigación presenta información relevante para generar a las empresas mexicanas el conocimiento de mejorar sus prácticas de comercialización, sin embargo es un trabajo que aun no puede mostrar los datos obtenidos al seguir en estado de desarrollo en la búsqueda de datos estadísticos de las empresas aptas para este estudio.
Urueta González Larissa Michelle, Universidad Michoacana de San Nicolás de Hidalgo
Asesor: Dr. Rosalio Mercado Camargo, Universidad Michoacana de San Nicolás de Hidalgo

ACTIVIDAD DE LA BOMBA DE SODIO Y POTASIO EN CEREBRO DE RATAS CON DIABETES MELLITUS EXPERIMENTAL.


ACTIVIDAD DE LA BOMBA DE SODIO Y POTASIO EN CEREBRO DE RATAS CON DIABETES MELLITUS EXPERIMENTAL.

Cárdenas Gómez Maricruz, Universidad Autónoma de Guerrero. Chávez Galván Valeria Salud, Universidad Michoacana de San Nicolás de Hidalgo. Macías Belmán Francisco Octavio, Universidad Michoacana de San Nicolás de Hidalgo. Urueta González Larissa Michelle, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Rosalio Mercado Camargo, Universidad Michoacana de San Nicolás de Hidalgo



PLANTEAMIENTO DEL PROBLEMA

La serotonina (5-hidroxitriptamina) es un neurotransmisor y neuromodulador de gran relevancia que se sintetiza a partir del aminoácido esencial l-Trp. Participa en la regulación de diversos aspectos de la conducta social, la alimentación, el sueño, la atención, la ansiedad, los ritmos circadianos, la conducta sexual y la generación de patrones motores rítmicos, como la locomoción, masticación, respiración, etc. Además, se ha propuesto que regula la actividad de la bomba de sodio y potasio. Por otro lado, la diabetes mellitus (DM) se define como un desorden metabólico de causas múltiples caracterizado por la hiperglucemia crónica asociada a alteraciones en el metabolismo de hidratos de carbono, proteínas y grasas, que se producen como consecuencia de defectos en la secreción de insulina o de su acción o de ambas cosas a la vez, los síntomas de una hiperglucemia marcada incluyen poliuria (micción excesiva), polidipsia (sed excesiva), pérdida de peso, algunas veces presentan polifagia (aumento del apetito), y visión borrosa. Se ha descrito en diversos estudios que la 5HT (5-Hidroxitriptamina) es liberada junto con la insulina desde los gránulos de secreción de las células β, exportándose ambas al medio extracelular tras la estimulación por glucosa, he ahí la relación con la diabetes mellitus. Se ha propuesto que en la diabetes mellitus disminuye la síntesis de serotonina y por otro lado se conoce que está incrementa la actividad de la bomba de sodio y potasio, es por esto que en la presente estancia de investigación pretendemos estudiar la actividad vde la bomba de sodio y potasio en el cerebro de ratas con diabetes experimental.



METODOLOGÍA

En un modelo experimental de diabetes mellitus tipo1 obtenido de la administración de Estreptozotocina vía i.p. en ratas macho de dos meses de edad, determinar la actividad de la bomba de sodio y potasio.


CONCLUSIONES

Los resultados esperados es que la actividad de la bomba de sodio y potasio en el cerebro de ratas con diabetes mellitus experimental esté disminuida comparad con su grupo control. Agradecimientos:Trabajo parcialmente apoyado por CIC-U.M.S.N.H. (2020).  
Uslé Rivera César Alejandro, Universidad Autónoma de Ciudad Juárez
Asesor: Post-doc Silvio Alejandro Lopez Pazos, Universidad Antonio Nariño

CARACTERIZACIóN BIOQUíMICA BáSICA DE PROTEíNAS DE MIEMBROS DE LA FAMILIA CORONAVIRIDAE


CARACTERIZACIóN BIOQUíMICA BáSICA DE PROTEíNAS DE MIEMBROS DE LA FAMILIA CORONAVIRIDAE

Uslé Rivera César Alejandro, Universidad Autónoma de Ciudad Juárez. Asesor: Post-doc Silvio Alejandro Lopez Pazos, Universidad Antonio Nariño



PLANTEAMIENTO DEL PROBLEMA

El 31 de diciembre del año 2019 la oficina de la OMS (Organización Mundial de la Salud) con cede en China, recibió información de varios casos de neumonia previnientes de una etiología desconocida, detectada en la ciudad de Wuhanen la provincia de Hubei, hasta el 3 de enero del año 2020 se reportaron 44 casos sin identificación del agente causal de dicha neumonia, no fue hasta el día 7 de enero del 2020 que las autoridades del gobierno Chino, descubrieron que el agente causal era un nuevo tipo de coronavirus (1). El 11 de marzo de 2020 la OMS clasificó al COVID-19 como pandemia, cuando en el mundo se registraban ya 118,319 infecciones a nivel mundial. Los coronavirus son virus de la familia Coronaviridae los cuales como características generales tienen una cadena de ARN monocatenario de sentido positivo, una envoltura y causan diversos trastornos, desde respiratorios hasta neurológicos, con una severidad variada y afectando a varias especies de animales, incluidos los seres humanos, estos se agrupan generalmente en 4 grupos, Alfa, Beta, Gamma y Deltacoronavirus (2). A la fecha se registran, según la OMS,  20,162, 474 casos confirmados y 737, 417 muertes a nivel mundial por lo que cada vez es mas importante hacer investigaciones buscando una posible cura para el COVID-19, como lo pretende este estudio.



METODOLOGÍA

Se obtuvieron las secuencias de 14 miembros de la familia Coronaviridae y de un aislado de referencia del SARS-CoV 2 o COVID 19 a partir de la base de datos de genomas del NCBI con las cuales se generó una base de datos local. Apartir de esta base de datos local, se caracterizaron las diferentes proteínas de cada uno de los virus con el software Protparam de Expasy, las características que se obtuvieron fueron el peso molecular, punto isoeléctrico, residuos negativos y positivos, índice de inestabilidad, índice alifático, e índice GRAVY. Y se realizará un analisis estadístico con la prueba de Shapiro Test que permitirá identificar los grupos de datos que están distribuidos normalmente (paramétricos) de aquellos que no siguen una distribución normal (no paramétricos), con un umbral de p=0.01. A los grupos de datos que seguían una distribución normal se les realizará la prueba de ANOVA de una vía, con un umbral de p=0.01, y a los no paramétricos la prueba de Kruskal Wallis, con un umbral de p=0.01, con el fin de determinar si existen diferencias significativas. Para los grupos de datos que presenten diferencias significativas y que no sigan una distribución normal se les aplicará la prueba de Dunn con un umbral de p=0.01.


CONCLUSIONES

Durante la estancia de investigación, se logró entender el uso de estudios in silico de caracterización de proteínas para posibles aplicaciones farmacológicas como el claro ejemplo de una comparación de datos por medio de pruebas estadísticas para observar similitudes y que pudieran ser aplicadas en una posible cura para la pandemia mundial del SARS-Cov2, sin embargo al ser extensas las pruebas estadísticas no se han obtenido resultados aún pero se espera encontrar datos distribuidos normalmente los cuales ayudarán a intentar diseñar una posible vacuna para esta enfermedad.
Utrera Gonzalez Luis Eduardo, Instituto Tecnológico Superior de Xalapa
Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato

SISTEMA DE DETECCIóN DE OBSTáCULOS PARA APOYAR A PERSONAS CON DISCAPACIDAD VISUAL


SISTEMA DE DETECCIóN DE OBSTáCULOS PARA APOYAR A PERSONAS CON DISCAPACIDAD VISUAL

Utrera Gonzalez Luis Eduardo, Instituto Tecnológico Superior de Xalapa. Asesor: Dr. Edgar Daniel Martínez Rodríguez, Instituto Tecnológico Superior de Guanajuato



PLANTEAMIENTO DEL PROBLEMA

Caminar en el exterior implica contar con el correcto funcionamiento de los sentidos, especialmente la vista, el tacto y el oído. Gracias a esto es posible prevenir algún accidente que pueda causar daños físicos en la persona durante su desplazamiento. No obstante, para aquellas personas que carecen de algún sentido de los anteriormente mencionados, implica una mayor dificultad para realizar esta actividad de desplazamiento en cualquier entorno. Hoy en día, las personas invidentes cuentan con herramientas como el bastón, la cual es una herramienta sencilla que permite detectar obstáculos a ras de piso. El perro guía es otra herramienta muy habitual donde la persona invidente depende de las capacidades del animal, así como de su adiestramiento para dirigir adecuadamente a la persona con discapacidad visual en cualquier entorno. Actualmente, el desarrollo de nuevas tecnologías se ha incrementado considerablemente, ofreciendo nuevos sistemas de apoyo en este contexto. En los países que cuentan con más avances tecnológicos existen dispositivos muy sofisticados para el apoyo de invidentes, los cuales reflejan un alto costo.



METODOLOGÍA

En primer lugar, se realizó una investigación previa acerca de los instrumentos o material, simple o avanzado que utilizan personas invidentes en situaciones de desplazamiento. Esto proporciona información respecto a las tecnologías existentes, la base de sus diseños o parte del principio de utilidad. De este modo, el presente proyecto pretende estar al margen de dichas tecnologías. Antes de iniciar con el proceso de diseño, se establecer las particularidades por cubrir, mencionadas a continuación: El rango de funcionamiento es el margen de distancia en el que el sistema detecta objetos o entra en funcionamiento. Dicha distancia debe ser variable pero apropiada para que el usuario pueda tomar una nueva dirección. La ubicación de sensores que permitirá obtener información del entorno que sea menos propensa al ruido en los datos de distancia obtenidos. Costo económico por unidad.   En el diseño, se utilizó un avatar masculino, al cual se le ubicaron tres sensores en la cintura y uno en el pecho. El rango de detección se estableció en 1.3 m distancia entre objeto-usuario, para el caso de los sensores de cintura se derivan dos nuevas variables, el grado de inclinación del sensor y una nueva medición de distancia, dicha distancia es la hipotenusa de un triángulo rectángulo. Para lo económico, el material o componentes, así como de microcontroladores a los cuales se realizó una comparación entre dos o más opciones por componente con el fin de definir cuáles son adecuados para este sistema. Es por ello que, los transductores de proximidad HC-SR04, los emisores de señal zumbador y dos motores de bajo voltaje, una fuente de alimentación con características de 10000 mAh y 5v (batería) es el material que cumple con características económicas y capaces de realizar dicha tarea asignada. Se realizó una comparativa de microcontroladores PIC y Arduino con características económicas y accesibles, sin embargo, se optó por Arduino. En general el costo aproximado de construcción por unidad oscila entre los 750 y 1000 pesos (puede variar un poco debido a la fluctuación de los precios en el mercado), por lo cual, el producto final puede tener un costo bastante accesible para una persona discapacidad visual. Pasando al modelado mecánico, el cual inicio con la propuesta de un chaleco y que a lo largo de la estancia se modificó a un cinturón y un arnés para el pecho. El cinturón de cinta polipropileno se encarga de portar el microcontrolador, batería, ultrasónicos y motores, por otra parte en el arnés del mismo material se localiza un ultrasónico y buzzer. Dicho diseño  permite presentar un diseño atractivo, compacto, práctico y confortable. Para probar la eficiencia del circuito electrónico se realizaron prácticas digitales en la plataforma TinkerCAD, Una vez que se probado en la simulación, se realizaron pruebas utilizando componentes electrónicos y microcontroladores reales para validar el funcionamiento del sistema. Finalmente, el proceso para detectar obstáculos del sistema  inicia con una calibración manual de la altura del usuario  y prosigue  de la siguiente manera:  Detección de obstáculos aéreos. Se obtiene la medición de distancia (D1) la cual es sometida a una sentencia if para un rango determinado, si se mantiene en el rango se activa el Buzzer, para el caso contrario se repite el proceso continuamente. Detección de obstáculos frontales. Se obtiene la medición de distancia (D2) la cual es sometida a una sentencia if para un rango determinado, si se mantiene en el rango se activa el Buzzer y Motores Izquierdo y Derecho, para el caso contrario se repite el proceso continuamente. Detección de obstáculos en el piso. Se obtiene la medición de distancia (D3, D4, D5) las cuales son sometidas individualmente a sentencia if para un rango determinado con cierta tolerancia, si se mantiene en el rango para D3 se activa Motor Derecho, para D4 se activan ambos motores, mientras que a la distancia D5 se activa el Motor izquierdo, de no ser así se repite cada una de las sentencias continuamente.


CONCLUSIONES

El diseño del sistema obtenido en el desarrollo de este proyecto, cuenta con los requerimientos básicos para proporcionar al usuario invidente una herramienta de apoyo para la interacción con los obstáculos presentes en el entorno. El desarrollo del sistema, considera la selección de sensores adecuados para realizar la consigna, así como el costo de construcción. De esta manera, se pretende presentar un producto de costo accesible para cualquier usuario. El sistema desarrollado es un prototipo base, quedando abierto a posibles mejoras para ampliar las funcionalidades y añadir nuevas características sin incrementar demasiado el costo, brindando así mayor seguridad al caminar para la población con discapacidad visual.
Uyoa Velasco Angeles, Instituto Politécnico Nacional
Asesor: Dr. Juan Carlos Sepúlveda Arias, Universidad Tecnológica de Pereira

ACTIVIDAD ANTI-SARS-COV-2 DE PRODUCTOS NATURALES: UNA REVISIóN SISTEMáTICA


ACTIVIDAD ANTI-SARS-COV-2 DE PRODUCTOS NATURALES: UNA REVISIóN SISTEMáTICA

Mejía Oliva Juan Carlos, Universidad Michoacana de San Nicolás de Hidalgo. Uyoa Velasco Angeles, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Sepúlveda Arias, Universidad Tecnológica de Pereira



PLANTEAMIENTO DEL PROBLEMA

El surgimiento de la nueva cepa de coronavirus (SARS-CoV-2) ha tomado por sorpresa a los investigadores de todo el mundo, siendo una de las principales preocupaciones de salud a nivel mundial, debido a que está cobrando día a día cientos de vidas, según la Organización Panamericana de la Salud se han reportado hasta el 13 de agosto del 2020 10,953,003 casos de COVID-19 en América, de los cuales 398,271 han sido defunciones. Es por ello que existe una gran urgencia por encontrar una vacuna y/o tratamiento efectivo contra este virus, siendo necesaria la búsqueda de nuevas opciones terapéuticas, dirigiendo la atención hacia los productos naturales, ya sean de origen vegetal o animal. Tales productos han sido utilizados desde hace cientos de años de forma tradicional para el tratamiento de diversas enfermedades en todo el mundo, y para algunos de ellos, se ha demostrado su actividad antiviral.   Diariamente son publicadas investigaciones sobre la actividad de estos compuestos en diversas enfermedades, no siendo la excepción COVID-19, sin embargo, al ser este un problema actual, se tienen ciertas dificultades, como la sobrepublicación de artículos y el exceso de información que podría no ser útil, volviéndose importante la recolección y selección de información que nos ayude a identificar los avances en este ámbito. Por esta razón, durante el verano de investigación consideramos conveniente realizar una revisión sistemática de los artículos publicados en relación con el tema para así podernos dar una idea crítica de las investigaciones que se han realizado y su utilidad para el tratamiento de COVID-19.



METODOLOGÍA

Se realizó una revisión sistemática siguiendo la declaración PRISMA en las siguientes bases de datos; Pubmed, Scopus, ScienceDirect, SpringerLink y Scielo, se aplicó  un criterio de búsqueda específico (SARS-Cov-2 OR COVID-19) AND (natural products OR plant extracts) y se encontró un total de 518 documentos hasta el 07 de agosto del 2020, los cuales fueron filtrados  a través de criterios de inclusión (artículos originales, artículos en español e inglés, artículos que sean del tema de interés) y exclusión (revisiones sistemáticas o metaanálisis, cartas al editor, reportes de caso, literatura gris y artículos en idiomas diferentes al español o inglés) para la selección de estos mismos. Al aplicar estos criterios se seleccionaron finalmente 28 artículos. Posterior al filtrado, los 28 artículos finales serán analizados para realizar la redacción del artículo de revisión, en el cual se incluirá la información reportada en cada uno, así como las concordancias y similitudes entre ellos.


CONCLUSIONES

A pesar de que la pandemia por el nuevo coronavirus es un problema mundial que nos ha atacado desde finales del año 2019 y principios de 2020, la publicación de artículos originales de investigación sobre el uso de productos naturales para el tratamiento de esta enfermedad es reducida, sin embargo, se espera que este trabajo pueda servir como referencia bibliográfica para investigadores interesados en el uso de productos naturales para el tratamiento de COVID-19.