Área I: Física, Matemáticas y Ciencias de la Tierra
Adame Galeano María Fernanda, Instituto Politécnico Nacional
Asesor:Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)
CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES.
CONSTRUCCIóN DE áRBOLES FILOGENéTICOS PARA EL ESTUDIO DE CEPAS VIRALES MEDIANTE MéTODOS COMPUTACIONALES.
Adame Galeano María Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Eduardo Arturo Rodriguez Tello, Centro de Investigación y de Estudios Avanzados (IPN)
PLANTEAMIENTO DEL PROBLEMA
Dados los recientes problemas en salud publica generados por la pandemia del virus SARS-CoV-2 muchas investigaciones han tenido como propósito el identificar el origen del virus y la propagación entre países. Esta información resulta fundamental para reconocer causas, posibles tratamientos y patrones en la propagación para la implementación de nuevos protocolos en casos de futuras pandemias.
En esta investigación se tomaron varias secuencias de distintos virus de la familia coronavirus y SARS-CoV-2 provenientes de distintos países con el objetivo de comparar los distintos métodos computacionales para la construcción de árboles filogenéticos y confirmar los resultados provistos por investigaciones anteriores.
METODOLOGÍA
Para la obtención de las secuencias se utilizaron dos bases de datos; GISAID y NCBI. En total se usaron 28 secuencia; 3 de USA, 3 de México, 13 de otros paises, 3 de BetaCoronavirus, 2 de pangolín, una de murciélago, cerdo, ratón y visón.
Los programas utilizados para la alineación de las secuencias fueron: MUSCLE, MAFFT y Clustal.
MUSCLE: Trabaja tanto con acidos nucleicos como con aminoácidos, como opciones tiene una o dos iteraciones, acepta formato fasta,clustal,html,gcg y phylip, funciona mediante alineamientos múltiples, distancia de Kimura y refinamientos. Como ventajas está disponible en muchos programas bioinformáticos, pero no tiene tantas opciones de configuraciones por lo que al usar secuencias muy largas puede resultar en un proceso muy lento.
MAFFT: Solo trabaja con ácidos nucleicos, como opciones tiene hasta 8 métodos distintos de velocidad, funciona mediante alineamiento múltiple y transformada de Fourier, solo reconoce formato fasto. Como ventajas tiene una gran adaptabilidad por su variedad de configuraciones.
Clustal: Trabaja con ácidos nucleicos y aminoácidos, como opciones tiene una configuración rápida y lenta, funciona mediante el alineamiento de parejas y uso de árbol guía, acepta formatos fasta, nbrf/pir, embl/swiss, prot, gde, clustal y GCG/MSF. Como ventajas tiene muchos formatos de entrada y aunque no tiene muchas opciones de configuración resulto útil para el alineamiento de las secuencias largas.
Para la construcción de los árboles filogenéticos se usó únicamente el método de máxima parsimonia, que se fundamenta en el principio de que los caracteres compartidos por entidades diferentes implican una misma descendencia y el uso de la navaja de Ockham para determinar arboles con mayor parsimonia. Los softwares utilizados fueron: MEGA X, Dambe, PAUP4 y SBL (standard bioinformatics library)
MEGA X: Disponible en Windows, Mac OS y Linux, contiene ClustalW y MUSCLE, acepta formatos phylip, gcg, fasta, pir, nbrf, msf, ig, xml, nexus y clustal. Tiene una amplia variedad de herramientas y métodos filogenéticos. La interfaz es muy accesible e intuitiva, pero suele tardar bastante en realizar los procesamientos, El análisis de las 28 secuencias con los parámetros preestablecidos resulto en un proceso de aproximadamente 18 horas incluyendo el alineamiento, los resultados son similares a los obtenidos mediante otros softwares, los virus de la familia coronavirus de distintas especies están apartados de las secuencias pertenecientes al SARS CoV2 de distintos países, la secuencia perteneciente a un virus que infecta otro animal más cercana es la de las pruebas realizadas en ratones; aunque tienen un valor muy bajo de seguridad, seguida del RaTG13 del murciélago, reconocido como el más probable en causar el brote de la actual pandemia.
DAMBE: Disponible en Windows, Mac OS y Linux, contiene MAFFT y MUSCLE, acepta formatos fasta y tiene una variedad moderada de métodos y herramientas para el análisis filogenético. El programa no acepto las secuencias puesto que estas diferían mucho en longitud.
PAUP 4: Disponible en Windows, Mac OS y Linux, acepta archivos en formato nexus, tiene una gran variedad de herramientas y métodos filogenéticos. La interfaz es a base de texto, pero el proceso resulta por lo general muy rápido. El análisis de las secuencias con los parámetros preestablecidos tardo 6 horas aproximadamente, los resultados indican una extrema cercanía entre las secuencias obtenidas de distintos países y en general se obtienen los mismos resultados que con MEGA X.
SBL: Standar Bioinformatics Library es un software libre disponible en Mac OS y Linux, mediante varias técnicas como el reconocimiento simulado (SA) resulta ser un software muy completo con varios métodos y herramientas filogenéticas. El programa puede compilarse a través de la terminal de Linux usando gcc/g++ y los resultados son presentados en la misma terminal o guardarse en un archivo txt que tratándose de muchas secuencias puede resultar difícil de interpretar. El análisis con los parámetros preestablecidos tardaría demasiado, por lo que se usaron configuraciones con iteraciones máximas de 1000, 10000 y 100000, un esfuerzo pequeño y un valor de alfa 0.8. El análisis tardo entre 1 hasta 12 horas aproximadamente, los resultados variaron un poco en cuanto a las ramificaciones entre las distintas secuencias de los países conforme a la configuración de iteraciones, pero en general el árbol obtenido tiene la misma estructura que los obtenidos mediante los otros softwares.
CONCLUSIONES
Los resultados del análisis de las secuencias comprueban la relación entre los distintos coronavirus, las secuencias tienen una tendencia a agruparse por continentes y la rama principal se encuentra en China, las secuencias provenientes de otros virus de la familia coronavirus nos indican que otros virus que afectan humanos están lejos de ser los más similares al SARS-CoV-2 por lo que se comprueba la idea de que este dio un salto entre especies, probablemente a partir del RaTG13 del murciélago.
Conforme a las comparaciones obtenidas se justifica el uso de distintos softwares bioinformáticos y configuraciones para la creación de árboles filogenéticos dependiendo del número de secuencias y la longitud de estas. En este caso el programa de alineación Clustal dentro de MEGAX resultó ser el método más rápido, en cuanto a la creación del árbol filogenético PAUP4 fue muy fácil de utilizar y obtuvo resultados bastante precisos en un periodo de tiempo corto.
Adame Teapa David, Universidad Autónoma de Guerrero
Asesor:Mg. Fernando Moreno Betancourt, Universidad del Valle
VOCACIóN AGRO-INDUSTRIAL DEL SUELO Y PLANIFICACIóN TERRITORIAL PARA EL DESARROLLO SOSTENIBLE: CASO MUNICIPIO DE ZARZAL, VALLE DE CAUCA, COLOMBIA.
VOCACIóN AGRO-INDUSTRIAL DEL SUELO Y PLANIFICACIóN TERRITORIAL PARA EL DESARROLLO SOSTENIBLE: CASO MUNICIPIO DE ZARZAL, VALLE DE CAUCA, COLOMBIA.
Adame Teapa David, Universidad Autónoma de Guerrero. Asesor: Mg. Fernando Moreno Betancourt, Universidad del Valle
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del problema
En Zarzal, Valle de Cauca, Colombia, una de las principales limitantes para un desarrollo sostenible en su suelo; es el monocultivo de la caña de azúcar, que este afecta principalmente a sus ecosistemas, dejando a sus cuerpos de agua cada vez más secos, afectado a sus tierras por los insecticidas, y no dejando a sus pequeños agricultores innovar en otro tipo de cultivo que el municipio demanda.
Otro de los factores es; la carencia de cultura de sus habitantes, a su vez también sus gobiernos plutocráticos que estos no apoyan de manera satisfactoria en apoyos económicos que el municipio requiere para emprender, ya que estos se basan en apoyar a grandes industrias del municipio y dejan a un lado el cuidado ambiental acabando así con sus reservas naturales.
La agricultura es un fenómeno social, cultural y económico que se relaciona con el movimiento de la economía a diferentes ciudades y países, teniendo así un balanceado desarrollo económico, por los motivos ya mencionados en el país y en departamento, estos no pueden desarrollarse de manera plena e innovar.
También se define que; en la comunidad existe deficiencia en el desarrollo técnico, para ello se necesita el aporte de las instituciones del lugar, para apoyar en conocimiento técnico, que les permita a los agricultores reforzar sus conocimientos e innovar satisfactoriamente no perjudicando a sus tierras y así cuidar los ecosistemas de lugar.
Los hallazgos que se pretender tener en la investigación son; conocer las trasformaciones de la vocación agro-industrial en su suelo, conocer sus planes de ordenamiento territorial del municipio y conocer por medio de sus expertos la visión presente y futura con respecto a sus organizaciones públicas, privadas, gremiales y actores cívicos de la comunidad desde la perspectiva de la eco-política.
METODOLOGÍA
Metodología
El estudio se realizó a partir de la revisión documental y artículos disponible con respecto a la producción agro-industrial en las bases de datos suministradas por la Universidad del Valle e instituciones públicas y privadas, así mismo se revisó mapas, material audio visual, también se exploró la opción para realizar mapas en la aplicación ArcMap.
Para identificar las opiniones y condiciones en las que se encuentra el municipio de Zarzal, Valle de Cauca, Colombia. Se procedió a realizar 13 encuestas a expertos del área, residentes del municipio, las cuales nos sirvieron para poder conocer las opiniones y las visiones a futuro.
CONCLUSIONES
Principales resultados por obtener:
Conocer las transformaciones en la vocación agro-industrial del suelo en Zarzal, Valle de Cauca (en proceso).
Indagar en el plan de ordenamiento territorial del municipio Zarzal su relación con la sostenibilidad (en proceso).
Identificar la visión presente y futura de los directivos de las organizaciones públicas, privadas, gremiales, y actores cívicos de la comunidad con respecto a la planificación territorial y la vocación agroindustrial desde la perspectiva del eco política (en proceso).
Conclusiones
A nivel general se debe actualizar el modelo de planificación y desarrollo territorial agro-industrial del municipio de Zarzal con el propósito de ser inclusivo y que permita un desarrollo: económico, social y ambiental, que contribuya a proteger los ecosistemas evitando en lo posible la degradación de las tierras y la perdida de bio- diversidad.
Por otro lado, se deben atender necesidades de sus habitantes y desarrollar programas gubernamentales para la ayuda del municipio donde principalmente se les ayude con inversiones que ellos puedan prolongar a corto, mediano y largo plazo según la demanda que estos impliquen.
Que las instituciones se involucren para estudio y ayuda técnica ya que los agricultores carecen de esta, y así ellos puedan trabajar de manera correcta y equilibrada que no dañe a su suelo o sus recursos naturales, también por medio de las instituciones y gobierno se implementen laboratorios en el municipio donde estos permitan el estudio de sus tierras y el daño que se les hace, por el motivo de que Zarzal no cuenta con ningún laboratorio adecuado.
Aguilar Gomez Pedro Nicolas, Instituto Politécnico Nacional
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
CAVIDAD DE FABRY-PéROT CON UN ESPEJO MóVIL PARA DETECCIóN DE CAMBIO DE POSICIóN.
CAVIDAD DE FABRY-PéROT CON UN ESPEJO MóVIL PARA DETECCIóN DE CAMBIO DE POSICIóN.
Aguilar Gomez Pedro Nicolas, Instituto Politécnico Nacional. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Los microscopios de fuerza atómica son instrumentos opto-mecánicos que se utilizan en diferentes ramas de la ciencia para el estudio muestras. Dichos microscopios tienen un cantiléver que es una aguja móvil y la forma en que se mide es mediante un haz de luz láser que rebota en el cantiléver. Con lo anterior en mente vamos a intentar proponer una forma de mejorar este sistema de detección utilizando una guía de fibra de vidrio y en conjunto con el cantiléver crear una cavidad de Fabry-Pérot. De esta forma se espera mejorar la sensibilidad de la respuesta dependiendo del material del cantiléver, del color de campo que va en la fibra, todo fundamentado en la teoría de la interferencia.
METODOLOGÍA
Iniciaremos con el estudio de la cavidad de Fabry-Pérot como resonador. Para esto es fundamental sentar las bases, lo primero que se realizó fue el desarrollo del comportamiento del haz de luz a través de las distintas interfases mediante la ley de Snell, posteriormente se determino el desfase que sufriría el haz de luz cuando se encontrara con las interfaces, finalmente, se indicaron los dos casos posibles que el campo puede tener con respecto al plano de incidencia, dichos casos son de forma perpendicular y paralela.
Con las relaciones anteriores se procedió a conocer la amplitud total reflejada a partir de las contribuciones parciales reflejadas. Encontrando las contribuciones se obtiene nuestra rfp, la cual nos permite obtener la reflectancia total obtenemos R = |rfp|2 . De forma análoga se puede obtener la transmitancia total mediante T=|tfp|2 , un punto importante de la transmitancia es que al atravesar diferentes medios se tendrá que aplicar un acoplamiento de impedancias. Con la reflectividad total se puede conocer el coeficiente de fineza y la fineza de las películas que forman el interferómetro. Además, se decidió trabajar con una onda de 630 nm.
Se decidió estudiar el interferómetro en su caso más sencillo donde se encuentra formado por los medios aire-vidrio-aire, una vez establecido se analizó el comportamiento de un haz de luz a través de distintos ángulos en los dos casos anteriormente mencionados, esto se realizó en ejemplos primero aire-vidrio y después vidrio-aire, ya que de esa forma se pudo recolectar información en los sistemas más simples para después acoplarlos en el interferómetro y observar su funcionamiento completo.
Al realizar el estudio de esa manera se logró identificar que se puede dar el caso que exista reflexión total interna, lo que no permite que todos los ángulos permitan la transmitancia entre los medios. Con los datos anteriores se estudió el interferómetro para continuar con el resonador.
El resonador se encuentra formado por vidrio-aire-material, el material siendo el cantiléver del microscopio de fuerza atómica, por lo que se decidió hacer una prueba con el material típico de lo que está hecho la aguja que es de silicio, pasando por níquel otro material común de lo que se encuentran fabricadas y se decidió finalmente probar con plata.
Cuando se utilizaron metales se tuvo que adaptar las impedancias en este caso en incidencia normal debido a que esto es más sencillo, el índice de refracción en metales se encuentra formado por un valor imaginario que representa la absorbancia. Se normalizó la distancia y la onda mediante una constante Alpha para simplificación del problema. Finalmente, no existió distinción entre la dirección perpendicular y paralela debido al uso de incidencia normal, ya que de esa forma ambas direcciones se comportan de la misma forma.
CONCLUSIONES
Con el análisis de los tres materiales propuestos podemos observar que el silicio al ser un material dieléctrico la reflectancia que se produce cuando con interactúa con un haz de luz es pequeña, lo que nos lleva a pensar que el uso de un dieléctrico no es el óptimo si se está utilizando una muestra que sea fotoreactiva.
Los metales utilizados fueron la plata y el níquel, se observar que la plata tiene una mayor reflectancia que el níquel en la longitud de onda trabajada, sin embargo, no hay que olvidar que los metales presentan un cambio en su índice de refracción dependiendo de la longitud de onda utilizada.
Podemos observar que las gráficas de reflectancia total presentan una región donde su comportamiento puede ser aproximado por una línea recta. Lo que nos permite ver como un crecimiento en Alpha se ve reflejado con un mayor valor en la reflectancia en dicha zona, agregando que el silicio aun siendo el que menor reflectancia tiene de los tres materiales, es el que por unidad recorrida crece en mayor valor con respecto a los otros dos.
En las secciones donde su comportamiento se encuentra regido por una función cuadrática es complicado definir en qué punto nos encontramos, ya que no podemos conocer la posición de manera efectiva, por lo que un método para conocer el gradiente es utilizar distintos tipos de ondas y poder caracterizar el comportamiento de crecimiento y decaimiento de la función.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional. Garcia Peralta Jacqueline, Instituto Politécnico Nacional. Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Prado Eustaquio Sayuri, Instituto Politécnico Nacional. Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este es un proyecto multidisciplinario donde colaboran alumnos del Programa DELFIN México (nodo C-51) y estudiantes de diferentes países y nodos de la REDPROPLAYAS (http://www.proplayas.org/), para lograr resultados más integradores.
A pesar de que hay gran cantidad de aplicaciones relacionadas con la playa en las plataformas móviles más comunes, al usuario le genera confusión saber cuáles de ellas realmente le serían útiles para su uso específico. A los investigadores, se les complica también saber cuáles de ellas pueden servir para la gestión de playas porque no están clasificadas.
Esto genera la siguiente incógnita:
¿Qué aplicaciones son las que existen en cada categoría relacionadas con la playa y cuáles de ellas son recomendadas para un uso práctico, que estén disponibles en plataformas móviles, y cómo pueden ser IOS y Android, y que estén relacionadas para
gestión de playas?
Por lo que este trabajo servirá para identificar una mayor cantidad de aplicaciones y hacer una clasificación de éstas y así facilitar tanto a los usuarios para su uso recreativo como a los investigadores como objeto de análisis para gestión de playas; además de ayudar a los desarrolladores de apps a identificar cuáles son los puntos fuertes y débiles generales de cada aplicación.
Por lo que los objetivos de la investigación son los siguientes:
Identificar la mayor cantidad de apps relacionadas con la playa y categorizarlas según su uso y/o contenido.
Probar cada aplicación para así obtener un análisis particular y general de todas las aplicaciones, que contenga principalmente; utilidad, calidad, disponibilidad, así como fortalezas y debilidades.
Analizar las funcionalidades de las apps registradas en un marco de gestión y certificación de playas.
METODOLOGÍA
Se muestra a detalle el proceso de obtención y análisis de datos, el tipo de investigación, instrumento de evaluación y la base del análisis de los datos.
Obtención de datos:
Se realizaron equipos de trabajo que se encargaron de buscar en las plataformas móviles todas las aplicaciones que estuvieran relacionadas con las playas, elaborando un listado de todas ellas y de igual manera se dividió equitativamente a cada uno de los participantes para su descarga y evaluación. Se adquiere la mayor cantidad de datos posible desde la plataforma en la que se encuentra la app, como: desarrollador, descripción, número de descargas, etc. Cuando el integrante haya completado la
obtención de datos cuantitativos procede a probar la app agregando datos cualitativos en la ficha de registro, como: interacción con el usuario, fortalezas y debilidades.
Tipo de investigación:
El enfoque de esta investigación es cuantitativo, ya que lo importante es generar resultados. Según Pita Fernández, S., Pértegas Díaz, S.(2002) La investigación cuantitativa trata de determinar la fuerza de asociación o correlación entre variables, la
generalización y objetivación de los resultados a través de una muestra para hacer inferencia a una población de la cual toda muestra procede. Tras el estudio de la asociación o correlación pretende, a su vez, hacer inferencia causal que explique por qué
las cosas suceden o no de una forma determinada.
Instrumento de evaluación:
La actividad en la cual se obtuvieron resultados se fundamentó en la elaboración de fichas técnicas donde se establecieron características o atributos que serían evaluados; como: la
fecha de creación, el país de origen, categoría, número de descargas, puntuación/calificación, plataforma, etc. Al integrar dichos datos se realizó una evaluación del uso de cada aplicación, valorando según sus fortalezas y deficiencias y al final proporcionar una retroalimentación mencionando sus puntos débiles en cada una de ellas, y propuestas para mejorarla.
Análisis de datos:
Una vez aplicado el instrumento de evaluación, se realizarán gráficos y se presentarán los resultados de cada nodo en un webinar a nivel internacional donde participarán estudiantes e investigadores de varios países.
Para realizarlo se elaborarán herramientas visuales para interpretar los datos que se presentarán como: mapas donde se colocarán la ubicación del país de origen de cada aplicación, crear una gráfica de barras u otras para hacer el conteo de la plataforma que maneja más apps relacionadas a la playa, el país que desarrolla más apps, un ranking de apps más descargadas y su calificación, el porcentaje de aplicaciones gratuitas, así como la cobertura que hay en distintos países. También identificar cuáles van dirigidas a mejorar/apoyar la gestión de playas.
CONCLUSIONES
Los resultados integrales que se esperan del nodo C-51 es un libro de Excel que contenga las fichas de todas las posibles apps identificadas, un análisis general de las categorías de las apps registradas y una presentación que posteriormente será expuesta
en un Webinar internacional ante toda la red de Proplayas para entregar resultados.
Los resultados parciales que lleva hasta el momento el nodo C-51 es un libro de Excel con alrededor de 40 apps registradas junto con una parte mayoritaria del análisis de las categorías de las aplicaciones mencionadas. Por ahora se está trabajando en la
conclusión del análisis y en la presentación para el Webinar.
Almazán Favela Anna Kristha, Universidad de Sonora
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
MODOS ELECTROMAGNéTICOS EN GUíAS DE ONDA ELíPTICAS DE GUIADO DéBIL CON PERFIL DE íNDICE DE REFRACCIóN SUAVE
MODOS ELECTROMAGNéTICOS EN GUíAS DE ONDA ELíPTICAS DE GUIADO DéBIL CON PERFIL DE íNDICE DE REFRACCIóN SUAVE
Almazán Favela Anna Kristha, Universidad de Sonora. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Nos interesa encontrar los modos normales del campo electromagnético en una fibra de guiado débil, es decir, el índice de refracción del núcleo guía es mayor, pero cercano al índice de refracción del revestimiento que lo rodea. En particular, queremos estudiar fibras con perfil elíptico. Para crear intuición sobre el sistema, comenzamos con un perfil de índice de pasos. De tal manera que diferenciamos las secciones del núcleo y del revestimiento, cada una hecha de un dieléctrico homogéneo, isotrópico y lineal sin cargas ni corrientes. Suponemos un guiado débil por su simplicidad, ya que los modos de campo estarán polarizados linealmente; es decir, el índice de refracción del núcleo es más grande, pero cercano al del revestimiento. Estos perfiles surgen en experimentos de escritura de guías de ondas utilizando ablación láser. Su estudio puede mejorar la predicción de los modos normales de guía y su fuerza de acoplamiento en circuitos fotónicos integrados.
METODOLOGÍA
Se comienza con el planteamiento de las ecuaciones de Maxwell para un dieléctrico homogéneo, isotrópico y lineal sin cargas ni corrientes y se obtiene la ecuación de onda. Posteriormente, recurriendo a la linealidad del problema, ya que se maneja el guiado débil, se obtiene la ecuación de Helmholtz escalar. Después, se vuelve a transformar la ecuación de Helmholtz escalar para adecuarla con otros detalles que plantea el guiado débil.Es indispensable revisar, de igual modo, las condiciones de frontera, con el fin de confirmar resultados y revisar otros detalles que el escenario planteaba.Como se maneja una situación con fibras de perfil elíptico, se presentan las coordenadas elípticas cilíndricas, ya que son las más adecuadas para este caso. Luego, se derivan los factores de escala y se desarrollael laplaciano en coordenadas elípticas cilíndricas. Finalmente, mediante un Ansatz, se logra obtener la ecuación diferencial de Mathieu y sus soluciones, las cuales se grafican y se analizan los resultados.
CONCLUSIONES
Se puede concluir que el guiado débil es un acercamiento recomendado para el escenario de manejar una guía elíptica. Adicionalmente, se lograron obtener las soluciones para la ecuación de Mathieu en coordenadas elípticas cilíndricas, las cuales son útiles para mejorar la predicción de los modos normales de guía, su fuerza de acoplamiento en circuitos fotónicos integrados y optimizar algunos recursos al utilizar láseres en ciertos escenarios.
Alvarez Viveros Vanessa, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO
SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO
Alvarez Viveros Vanessa, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los procesos de fabricación de la industria textil son una gran fuente de contaminación debido a los colorantes que utiliza. Estos le confieren al agua características nocivas para la salud humana, por lo que el tratamiento de las aguas residuales de la industria textil es de vital importancia.
El tratamiento de aguas por medio de la fotocatálisis heterogénea es una de las aplicaciones fotoquímicas que ha generado mucho interés, ya que, a diferencia de la mayoría de los procesos fotoquímicos, no es selectiva, puede emplearse para tratar mezclas complejas de contaminantes y permite la utilización de radiación solar como fuente de energía por lo que cuenta con un significativo valor medioambiental.
La fotocatálisis heterogénea es un proceso de oxidación avanzada, donde se utilizan fotocatalizadores, el más utilizado es el dióxido de titanio TiO2 debido a que presenta gran estabilidad, bajo costo e inocuidad. Sin embargo, presenta algunas desventajas tales como su amplio intervalo de banda prohibida y una alta tasa de recombinación de los portadores de carga que disminuyen la eficiencia de este.
Modificar el TiO2 se lleva a cabo al doparlo con metales de transición, permite reducir el ancho de banda prohibida, evitar el fenómeno de recombinación y excitarlo con luz visible. Al dopar con Au y Ag por el método de combustión modificado, las propiedades del TiO2 cambian y de esta forma la problemática de baja eficiencia del TiO2 se ve resuelta.
METODOLOGÍA
Se realizó una búsqueda bibliográfica de diversos temas de la investigación, se realizaron varias lecturas, se analizaron y discutieron diferentes materiales con el objetivo de comprender estos temas y como se desarrollan entre sí.
Al inicio de esta estancia se realizó un primer acercamiento al tema, con una búsqueda de literatura relacionada a la síntesis de TiO2 dopado con distintos iones metálicos empleados en la degradación de colorantes presentes en aguas residuales de la industria textil. Esto permitió tener un panorama general del uso del TiO2 como fotocatalizador, los iones metálicos con los que se han dopado y que avances científicos y tecnológicos existen sobre la degradación de colorantes empleando nanopartículas.
Posteriormente se realizó una introducción a los diferentes métodos de síntesis de TiO2 dopado, para ello se realizó una búsqueda exhaustiva de artículos científicos recientes, en ellos se presentaron los siguientes métodos:
Síntesis por el método Sol-Gel
Síntesis por el método hidrotérmal
Síntesis por el método electroquímico
Síntesis por el método de Combustión Modificada
Este preámbulo expuso los diferentes métodos, por lo cual se analizó con mayor profundidad el método de combustión, se buscó una definición de la síntesis por combustión, que permitiera comprender en que consiste y porque este método permite dopar al TiO2 con un bajo costo y rapidez.
La síntesis por combustión es un método de preparación en polvo, es un proceso químico muy rápido basado en el principio de descomposición explosiva de reactivos de nitrato y mezclas de combustibles, utilizando el calor instantáneo generado por la reacción química entre los nitratos metálicos deseados (el agente oxidante) y el combustible (agente reductor).
Asimismo, se buscó la importancia de la incorporación de dopantes en el TiO2 como fotocatalizador, incluyendo que la eficiencia de este se ve afectada por el fenómeno de recombinación y como el uso de metales de transición permite contrarrestar el fenómeno, finalmente se investigó el uso de Au y Ag como dopantes.
Posteriormente se realizó una investigación sobre las técnicas de caracterización; Difracción de rayos-X (XRD) y Microscopia electrónica de barrido (SEM). Una descripción breve de estas y en que son utilizadas para la caracterización de materiales.
La técnica de difracción de rayos-X (XRD) de polvos es la única con la capacidad de proporcionar información cualitativa y cuantitativa acerca de los compuestos presentes en una muestra sólida. Por lo cual este método es utilizado para la identificación de compuestos, la estructura molecular de los cristales y las diversas fases obtenidas.
La microscopía electrónica de barrido (SEM) proporciona información morfológica y topográfica sobre una gran diversidad de superficies de sólidos, proporciona imágenes de la morfología externa. Esta técnica es empleada para obtener información sobre la composición, textura superficial, distribución, tamaño y morfología de las partículas.
Después de ello, se realizó un análisis de la fotocatálisis heterogénea, el TiO2 como fotocatalizador y como la incorporación de los dopantes Au y Ag mejora notablemente la eficiencia de este.
Finalmente, la Espectroscopia UV-Vis es una técnica que permite la evaluación del grado de degradación de los colorantes. La relación de la absorbancia con la concentración permite el uso de esta técnica espectroscópica para determinar la eficiencia fotocatalítica del TiO2-Au y TiO2-Ag, ya que los espectros que se obtienen de esta técnica son analizados mediante una curva de calibración donde se relacionan absorbancia y concentración y así determinar la disminución de la concentración de colorantes debido a los fotocatalizadores y con ello obtener la eficiencia de estos.
CONCLUSIONES
Durante la estancia se lograron adquirir conocimientos básicamente teóricos sobre la síntesis y caracterización de TiO2 dopado con Au y Ag, al ser una estancia virtual no fue posible llevar a cabo las pruebas experimentales respectivas. No obstante, el análisis, selección y discusión de toda la información recopilada muestra la amplia investigación que existe sobre el TiO2 dopado con iones metálicos y las aplicaciones potenciales de este material en la degradación de distintos colorantes.
Ávila Lozano María Itzel, Instituto Politécnico Nacional
Asesor:Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
DISEñO DE UNA CASA ECOLóGICA AUTO SUSTENTABLE ( PREVENCIóN DE VIRUS EN LA VIVIENDA AUTO SUSTENTABLE/CASAS CONVENCIONALES).
DISEñO DE UNA CASA ECOLóGICA AUTO SUSTENTABLE ( PREVENCIóN DE VIRUS EN LA VIVIENDA AUTO SUSTENTABLE/CASAS CONVENCIONALES).
Ávila Lozano María Itzel, Instituto Politécnico Nacional. Asesor: Ing. Sergio Elam Cázares Sánchez, Tecnológico de Estudios Superiores de San Felipe del Progreso
PLANTEAMIENTO DEL PROBLEMA
En e munco actual no s estamos haciendo demaciadas pregúntas como, ¿Qué esta pasando?, el ¿Estariamos mejor si desde antes estuvieramos prevenidos?. A estas aturas esas preuntas invaden nuestra mente por lo que nos hemos planteado en inicio ¿Qué es un virus y cómo podemos evitar su propagación?, así como el ¿Qué podemos aportar nosotros para las generaciones futuras?.Por lo que investige esto:
Los virus son pequeños pedazo Ácido Ribonucleico) o ADN (Ácido desoxirribonucleico), muchos están en capsulados en una envoltura hecha a base de proteínas, otros protegen el material genético con la membrana o envoltura derivada a la célula a la que estas se infectan (Podría ser está el propósito de infección), algunos otros además rodean su cápside con una membrana celular.
METODOLOGÍA
La metodología empleada fue básicamente una metodología cualitativa, para ello se aplicaron entrevistas a profundidad capturadas en audio y video a informantes clave, se utilizó la búsqueda de documentación bibliográfica y de archivo, observación participante y trabajo etnográfico para posteriormente realizar la transcripción y análisis del contenido. También se hizo un repertorio de narraciones populares, tales como leyendas, corridos, poemas, cuentos, remembranzas y anécdotas, con el propósito de dar cuenta de la cultura, identidad y educación de
los narradores, principalmente guanajuatenses.
Según la OMS, se formaron muchas donaciones a sus colaboradores en su labor de rastrear y comprender la propagación del virus; asegurar que los pacientes reciban la atención que necesitan y que los trabajadores de primera línea obtengan material e información esenciales; y acelerar la investigación y el desarrollo de una vacuna y de tratamientos para todos aquellos que los necesiten.
Así como dieron los principales síntomas ante el Covid-19:
Los síntomas más habituales son los siguientes:
Fiebre
Tos seca
Cansancio
Así como las medidas d prevención ante estas situaciones:
Para evitar la propagación de la COVID-19:
Lávate las manos con frecuencia. Usa agua y jabón o un desinfectante de manos a base de alcohol.
Mantén una distancia de seguridad con personas que tosan o estornuden.
Utiliza mascarilla cuando no sea posible mantener el distanciamiento físico.
No te toques los ojos, la nariz ni la boca.
Cuando tosas o estornudes, cúbrete la nariz y la boca con el codo flexionado o con un pañuelo.
Si no te encuentras bien, quédate en casa.
En caso de que tengas fiebre, tos o dificultad para respirar, busca atención médica.
Llama por teléfono antes de acudir a cualquier proveedor de servicios sanitarios para que te dirijan al centro médico adecuado. De esta forma, te protegerás a ti y evitarás la propagación de virus y otras infecciones.
Mascarillas
Las mascarillas pueden ayudar a prevenir que las personas que las llevan propaguen el virus y lo contagien a otras personas. Sin embargo, no protegen frente a la COVID-19 por sí solas, sino que deben combinarse con el distanciamiento físico y la higiene de manos. Sigue las recomendaciones de los organismos de salud pública de tu zona.
Siempre es recomendable que cuentes con un botequín en tu casa con la mayoría de estos utensilios por lo que solo lo que tendríamos más a la mano son los que tomamos en cuenta para en diseño de la casa.
CONCLUSIONES
Aparatos o implementos en una casa autosustentable para la prevención de virus
LIMPIEZA: la remoción de todos los materiales que se expusieron al aire exterior, por lo cual este sería el primer paso, el lavarse las manos constantemente , o por lo menos después de tocar un material expuesto al aire libre para mejor prevención de virus e incluso bacterias.
DESINFECCIÓN: aquí se producirá la destrucción de agentes infecciosos o contaminantes presentes en objetos y ambientes. Se podría utilizar los antibacteriales y alcoholes, de igual forma los tapetes de desinfección. Luego de esto se utilizaría un medidor de temperatura, para así conocer si los niveles de temperaturas de las personas o persona que se encontraba en el exterior. Si al momento de tomar la temperatura y la persona presenta temperaturas superiores a las normales, se llamaría inmediatamente a las entidades de salud, la alejaría de los otros residentes para prevenir y evitar contagios.
APARATOS QUE PORTAN AUTOMÁTICAMENTE UN DESINFECTANTE: Evitar contacto corporal, al ser un mecanismo con pedal, Fácil Instalación y Operación, Capacidad de hasta 4 litros Fácil Traslado, NO requiere energía eléctrica,
RELOJES Y PULSERAS INTELIGENTES: Los relojes y las pulseras inteligentes son los dispositivos que mayor popularidad han alcanzado. Entre sus funciones, permiten monitorizar el ritmo cardíaco, los niveles de glucosa, los pasos que se dan durante el día, las horas de sueño durante la noche, las calorías que consume el usuario o monitoriza la presión arterial. Todos estos datos se almacenan y se registran en apps móviles, con las que el paciente puede compartir sus datos con el médico, mejorando el seguimiento y la adherencia al tratamiento.
TAPETES SANITIZANTES: El tapete sanitizante forma un contenedor o charca para contener una solución desinfectante o sanitizante. En el fondo los oblongos raspan las suelas mientras que una solución desinfectante sanitiza. Con él evita que la contaminación llegue a un área específica o evita la contaminación cruzada entre distintas área. Pr lo que sería buena idea incluirlo en la casa aparte de que no utiliza electricidad, así como nos ayudad a ser más limpios.
Como conclusión pretendemos que de la población tanto tenga la opción de casas auto sustentable así como al mismo tiempo la prevención de virus y enfermedades. Así cuidando el medio ambiente y pensar en las generaciones futuras.
Barajas Zepeda Alondra, Instituto Tecnológico Superior de Ciudad Hidalgo
Asesor:Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla
ANáLISIS CRISTALOGRáFICO DE NANOCOMPOSITOS DE HAP/TIO2
ANáLISIS CRISTALOGRáFICO DE NANOCOMPOSITOS DE HAP/TIO2
Barajas Zepeda Alondra, Instituto Tecnológico Superior de Ciudad Hidalgo. Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los biomateriales son materiales ideales para emplearlos en el cuerpo con diferentes finalidades como de recubrimiento en prótesis, así como auxiliar en reemplazo o modificación ósea y los daños que existen en el tejido óseo necesitan de un biomaterial como implante. Es uno de los principales problemas a los que se enfrenta el área de ingeniería en el diseño de tejido óseo, es por ello que el área de investigación enfocada en esta rama ha realizado estudios más detallados, por esta razón para diseñar un implante se recurrió al uso de compuestos que permiten la regeneración ósea, para ello se emplea materiales como la Hidroxiapatita que es un material biocerámico bioactivo debido a que es el segundo tejido más duro del cuerpo que constituye la mitad de los huesos; al ser un material abundante en nuestro cuerpo posee propiedades como la estabilidad, elasticidad, dureza, resistencia provocando así una aceptación en el cuerpo cuando aparece en compuestos que permiten que sea idónea como protector. Así mismo el Óxido de Titanio es un material que tiende a mejorar las propiedades mecánicas y anticorrosivas del nuevo material compuesto, denominado composito; que es la mezcla de la Hidroxiapatita y el Óxido de Titanio. Al combinarse estos materiales mediante química suave podrían ser utilizados como agentes para regenerar el tejido óseo utilizando estimulación eléctrica en la zona de regeneración de defectos óseos.
METODOLOGÍA
Lo primero que se realizo fue conocer previamente los conceptos relacionados en el área de cristalografía, entre los que destacan los sistemas cristalinos en los cuales se realizaron algunas actividades didácticas con la finalidad de conocer el sistema cristalino que presentaba el material a trabajar, posteriormente se hizo estudio del estado del arte para conocer las investigaciones previas que existen en el área. La Hidroxiapatita y el Óxido de Titanio son materiales que previamente ya se habían sometido a difracción de rayos X, por lo cual se tenían los datos experimentales y podían ser manipulados para su uso. Para la semana tres se hizo uso y manejo del programa de Origin con la finalidad de graficar los patrones de difracción con los datos previamente adquiridos, estos datos habían sido sometidos en un difractograma Panalitycal de manera experimental y en un Sincrotrón; los datos que se obtuvieron variaban resultando ser más precisos los arrojados por el Sincrotrón, al graficar estos datos en el programa se realizó la comparativa de patrones y para un análisis especifico de la Hidroxiapatita y el Óxido de Titanio que más adelante nos servirían para calcular el tamaño de cristalito, es por ello que resultaba esencial tener patrones de difracción que se asemejaran más a los mostrados por base de datos y así obtener resultados más precisos. Para la obtención del tamaño de cristalito se usó nuevamente el programa de Origin aunque en esta ocasión no se siguió la misma metodología que para graficar ya que ahora interesaba destacar los picos más característicos arrojados por la gráfica y serían los que nos dictarían el tamaño final para cada compuesto, siendo la HAp, TiO2 y el composito, éste último fue el más complejo a tratar porque al presentar fases cristalinas de ambos compuestos presentaba patrones de difracción menos simétricos que finalmente se obtuvieron, para este proceso nos auxiliamos de herramientas como Excel y empleando la ecuación de Scherrer, tanto la básica así como la modificada y la cual presenta mayor precisión en los resultados, para ello de manera individual se obtuvo el tamaño de cristalito del Oxido de Titanio al presentar patrones de difracción más simétricos. Finalmente se realizó el refinamiento mediante el método Rietveld el cual consiste en ir ajustando teóricamente los parámetros estructurales, así como experimentales al perfil completo del difractograma, para la determinación de los parámetros estructurales, el programa que se empleó para el refinamiento fue FullProf pero en él se analizaron muestras proporcionadas por el mismo software en el cual se activaron ciertos parámetros para obtener un mejor refinado y analizar de manera más detallada la estructura cristalina final arrojada por FullProf permitiendo así tener un análisis cualitativo y cuantitativo de fases para su estudio. Para la visualización de las estructuras se utilizó VESTA, donde se hizo uso de un archivo CIF (Crystal Information File) obtenido de la página de Crystallography Open Database.
CONCLUSIONES
En la estancia de verano se lograron los objetivos previos, los cuales eran analizar materiales cristalinos biocerámicos y semiconductores, así como adquirir conocimientos teóricos en el área de Nanotecnología, el análisis estructural de la Hidroxiapatita fue exitoso ya que se logró obtener los patrones de difracción que al compararlos con los datos teóricos, había coincidencia lo que demostraba que fue llevado a cabo de manera adecuada, así mismo se obtuvo el tamaño promedio del cristalito de manera muy asertiva, los valores fueron próximos a los obtenidos con anterioridad por el asesor. Para el composito formado por la Hidroxiapatita y el Oxido de Titanio implicó dificultad para obtener el tamaño final de cristalito tomando en consideración solo los picos más representativos del compuesto para obtener un valor más cercano al ya calculado. Para la etapa final del refinamiento de cualquier estructura cristalina se debe tener conocimiento en algún modelo estructural que se aproxime a la muestra que se analiza, estos parámetros a tomar en cuenta pueden ser como el grupo espacial. El programa es capaz de ajustar parámetros refinables hasta el punto de alcanzar un mínimo aunque esto dependerá primordialmente de que tan adecuado sea el modelo estructural tomado de base para refinar la muestra experimental. El uso y manejo de cada programa proporciona datos lo suficientemente específicos que permiten el análisis de datos, graficas, estructuras para estudiar y comprender las propiedades que poseen de manera conjunta los materiales.
Barrera Castillo Erick Abraham, Instituto Politécnico Nacional
Asesor:Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
EL MODELO INDIVIDUAL DE RIESGO A TRAVéS DEL SOFTWARE R
EL MODELO INDIVIDUAL DE RIESGO A TRAVéS DEL SOFTWARE R
Barrera Castillo Erick Abraham, Instituto Politécnico Nacional. Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El trabajo de investigación se enfocó al estudio de problemas referentes a la teoría de riesgo. Se observó en la literatura revisada que un tema de interés es el modelo individual de riesgos, sin embargo, no se ubicó un método numérico basado en simulación estocástica para estudiar los diferentes escenarios para analizar su comportamiento. De este modo se planteo estudiar los conceptos básicos de variables aleatorias y simulación en el software R, con la finalidad de implementar dichos procedimientos en el modelo individual de riesgos. El sistema propuesto permite la modelación de un número dado de pólizas y sus montos de reclamación respectivos.
METODOLOGÍA
En una primera etapa se abordaron los temas básicos de variables aleatorias, enfocando el estudio de variables discretas, como son Bernoulli, Binomial, Binomial negativa y Poisson. Posteriormente, se reviso el modelo individual de riesgos, el cual se encuentra descrito vía una variable de tipo Bernoulli para modelar las reclamaciones y una variable no negativa para modelar los montos de reclamación, el producto de dichas variables determina el monto de reclamación de cada póliza, de este modo el monto total de reclamaciones de una compañía aseguradora consiste en sumar cada uno de los montos de las pólizas individuales. Finalmente, dicho estudio se enfocó a llevar a cabo la simulación del agregado de reclamaciones en el software R.
CONCLUSIONES
Conclusiones
La aplicación de la teoría de probabilidades de los temas preliminares expuestos y explicados en este resumen nos sirven para formar el modelo individual del riesgo, con el cual podemos trabajar en el área de seguros en el agregado de reclamaciones, y así poder simular diferentes escenarios para obtener el monto de reclamación; esta aplicación se puede implementar en una compañía aseguradora, para determinar el monto de las relcamaciones totales de los asegurados, que fue la principal implementación utilizada en esta investigación, aunque por supuesto no es la única.
Por otro lado, todos estos temas vistos me serán muy útiles ya que mi propósito es estudiar la carrera de actuaría, y este tema del Modelo Individual se ve en esta carrera y es una parte importante, y al conocer todas las bases de este tema, que en este caso son los preliminares, me permitirá un buen desempeño en mis estudios.
El documento en extenso del trabajo desarrollado puede consultarse en el link siguiente: https://drive.google.com/file/d/1Wcr-gU-xW4uu4WhwFNQAUKfZAYszlyu2/view?usp=sharing
Referencias
Rincón, L. (2007). Curso intermedio de probabilidad. UNAM, Facultad de Ciencias.
Rincón, L. (2012). Introducción a la teoría del riesgo. México: Facultad de Ciencias, UNAM.
Bautista Parra Giovanni, Instituto Tecnológico de Chilpancingo
Asesor:Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
Bautista Parra Giovanni, Instituto Tecnológico de Chilpancingo. González Mondragón Cesia Samantha, Instituto Tecnológico de Matamoros. Ponciano Calvo Karen Denisse, Instituto Tecnológico de Chilpancingo. Riaño Martínez Jaime Daniel, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN
El estado de Guerrero se ubica en el sur de la república mexicana, colinda al norte con los estados de México, Morelos y Puebla al sur con el océano pacífico, al este con Oaxaca y al oeste con Michoacán.
Tiene una extensión territorial de 63794 km2 y los tipos de relieve que más se encuentran son las montañas, las sierras y profundas barrancas esparcidas en 7 regiones: Costa Chica, Costa Grande, Acapulco, La Montaña, Tierra Caliente y la región Centro, las cuales tienen importantes ecosistemas como el acuático, que lo componen las aguas dulces y aguas saladas, y el terrestre que son los arrecifes, selvas y bosques.
La región centro cuenta con 13 municipios y en este proyecto de investigación nos vamos a enfocar en la cabecera municipal del estado, Chilpancingo.
Según los datos recabados por la coordinación general de protección civil de Chilpancingo, la ciudad se encuentra en una situación de riesgo debido a las 54 barrancas de las cuales 13 son consideradas de alto riesgo, 22 de riesgo moderado y 19 de riesgo bajo.
La barranca de Las Calaveras se ubica entre el fraccionamiento cumbres 2 y nuevo horizonte con una longitud aproximada de 593 m. dando inicio aguas arriba en el mercado central Baltazar R. Leyva Mancilla, atravesándolo y desembocando en la zona de la central de autobuses.
En temporadas de lluvia, el principal problema que se presenta es el arrastre de gran cantidad de sedimentos, cascajo y principalmente basura que las mismas personas arrojan a las calles, mismos que generan azolves en el sistema de drenaje y alcantarillado atascándolo y generando inundaciones, caos vial, brote de aguas negras y socavones en las principales avenidas que atraviesa la barranca.
La mancha urbana se ha ido esparciendo sobre estas zonas provocando que las personas vivan en condiciones de alta vulnerabilidad; aproximadamente 800 familias son las que habitan en zonas de alto riesgo en la capital invadiendo el cauce natural de la barranca, afectando la flora y fauna de ese sitio y alterando el ciclo hidrológico.
También los habitantes se arriesgan a que sus casas puedan derrumbarse debido a un socavón o la inestabilidad de las laderas en cada temporada de lluvias. A pesar que los elementos de protección civil realizan operativos y visitas a esas zonas para concientizar a las personas, unos no hacen caso al llamado argumentando que es el único patrimonio que les queda, por otra parte, algunos ciudadanos han hecho caso al llamado y han sido reubicados en el fraccionamiento Nuevo Mirador de esta ciudad.
METODOLOGÍA
METODOLOGÍA
La obtención de información de este proyecto se enfoca principalmente en dos métodos de investigación que son:
Investigación documental: análisis de estructura y contenido de información consignada en los documentos oficiales de organismos relacionados con el tema, así como trabajos académicos.
Analogía de la estructura y contenido de los documentos.
Síntesis de la información.
Investigación de campo:
Cuantificaciones en campo en el momento en que sea posible.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la gestión del medio ambiente en la ciudad de Chilpancingo, mediante análisis y síntesis de información documental. A consecuencia de las condiciones de riesgo por la pandemia de COVID-19 no se desarrolló trabajo de campo.
El material azolvado producto del intemperismo de las rocas o suelos, son arrastrados por el proceso de erosión, el arrastre de este tipo de sedimentos puede llegar a afectar las obras civiles dentro de la barranca las calaveras por lo que es indispensable proponer algún mecanismo de control de azolves.
Esperamos que la información que recopilamos de los distintos autores, sea un fundamento que nos permita contribuir a la restauración de la barranca "Las Calaveras" con el fin de reducir los daños antrópicos producidos por los habitantes de Chilpancingo.
Betancourt Suárez Emmanuel Josué, Universidad de Guadalajara
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
INTERACCIóN FOTóN-áTOMO
INTERACCIóN FOTóN-áTOMO
Betancourt Suárez Emmanuel Josué, Universidad de Guadalajara. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
El procesamiento en la información mediante la computación ha sido clave para el desarrollo de nuestra civilización tecnológica. Nos ha permitido crear un sinfín de aplicaciones para resolver todo tipo de problemas en muchos sectores de nuestra sociedad. Debido a la complejidad de éstos, cada vez se ha requerido una mayor capacidad de cálculo que ha llevado a aumentar el número de transistores en los microprocesadores en espacios cada vez más pequeños.
Esta tendencia sigue la famosa Ley de Moore, enunciada por uno de los fundadores de Intel Gordon E. Moore en 1965, la cual dice que cada dos años aproximadamente, aumenta la precisión de las tecnologías de miniaturización de manera que se duplica el número de transistores que hay en un microprocesador. Esta ley se ha cumplido desde la creación del transistor 4004 en 1971 hasta la actualidad.
Sin embargo, la Ley de Moore presenta un inconveniente, dado que se duplica cada dos años el número de transistores, su tamaño se reduce a la mitad, lo que implica que llegaremos eventualmente a escalas cuánticas, donde a una computadora convencional le resultaría imposible controlar los efectos cuánticos. Por lo que, durante el verano de investigación, se estudia el qubit en interacción con un campo bosónico por medio del modelo de Jaynes-Cummings como una solución a dicho problema.
METODOLOGÍA
Se dio un repaso a los conceptos introductorios al modelo de Jaynes-Cummings, tal como el oscilador armónico, el sistema de dos niveles y la interacción entre un campo electromagnético y un átomo.
Modelo de Jaynes-Cummings
En este apartado obtuvimos la solución del modelo de Jaynes-Cummings a partir del operador llamado número total de excitaciones. Vimos que dicho operador conmutaba con el Hamiltoniano por lo que establecimos el conjunto de subespacios para obtener el Hamiltoniano en término de los subespacios donde nos tomamos la libertad de definir los estados del sistema y así obtener las energías y los estados propios donde se le asignó un "detuning" o sintonía entre las frecuencias de la cavidad (campo bosónico) y de la transición atómica. También se calculó la evolución temporal en su representación matricial.
Simplificamos con la aproximación de onda rotante al Hamiltoniano para obtener el Hamiltoniano efectivo en su forma matricial y lo introdujimos al operador de evolución en su serie de potencias para aplicarlo al operador de inversión junto con un estado inicial en resonancia y así obtener el grado de excitación del sistema de dos niveles donde definimos las frecuencias de oscilación Rabi, la cual nos dio información para predecir cuando el sistema estará nuevamente en el estado inicial en un intervalo de tiempo.
Para el caso de los estados coherentes tomamos su evolución temporal y definiendo un estado inicial con resonancia pudimos obtener el grado de excitación o inversión atómica para estados coherentes donde pudimos observar los característicos "collapses and revivals" del modelo de Jaynes Cummings, el cuál vimos que colapsa en un cierto tiempo y revive espontáneamente desde un valor casi nulo hasta un valor menor a su estado inicial, para ya no decaer nuevamente y pasar a comportarse como un sistema no ergódico. También observamos que su frecuencia de Rabi son, en su mayoría, no conmensurables entre sí. Como consecuencia no habrá oscilaciones periódicas u oscilaciones coherentes, ya que es muy poco probable que regrese a su estado original en tiempo finito.
Modelo de Jaynes-Cummings en interacción con dos fotones
Se estudió el caso del modelo en interacción con dos fotones por sus características tan peculiares. Realizando procedimientos similares al modelo anterior, obtuvimos el conjunto de subespacios, el hamiltoniano en dichos subespacios, los estados del sistema, las energías y los estados propios. También obtuvimos la evolución temporal, las frecuencias Rabi, y al aplicarlo a un estado inicial con resonancia, obtuvimos el grado de excitación del sistema.
Para un sistema coherente obtuvimos el grado de excitación del sistema y al graficarlo observamos los "collapses and revivals" donde vimos oscilaciones periódicas y llegamos a la conclusión que esto se debe a que la frecuencia de Rabi son, en su mayoría, conmensurables entre sí. Como consecuencia si habrá oscilaciones periódicas u oscilaciones coherentes en un tiempo finito.
Modelo de Jaynes-Cummings acoplados entre dos sistemas en interacción con dos fotones
Este modelo es aún experimental y aún se encuentra en desarrollo por lo que dimos los rasgos más generales de este sistema acoplado. Partimos por el hamiltoniano del sistema y realizando un procedimiento similar que en los dos modelos anteriores, Calculamos de manera numérica en Wolfram Mathematica, el operador de evolución y la aplicamos para obtener el grado de excitación del sistema y así obtener la gráfica donde observamos como están acoplados los dos sistemas. Mientras uno se encuentra en el estado excitado, el otro está en el estado base y viceversa.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la interacción fotón-átomo para resolver problemas de cómputo cuántico a través del modelo de Jaynes-Cummings. Se desarrollaron todos los modelos básicos, tales como el oscilador armónico cuántico, el sistema de dos niveles, la interacción de un campo electromagnético con un átomo, el modelo de Jaynes-Cummings en interacción con un fotón, dos fotones y se empezó a explorar un modelo completamente nuevo. Sin embargo, al ser un extenso trabajo, aún se encuentra en fase de desarrollo, por lo que en el último modelo (Modelo de Jaynes-Cummings acoplados entre dos sistemas en interacción con dos fotones) se dio un vistazo general y se mostró la simulación por medio del método numérico. Se espera que los subsecuentes modelos sigan siendo desarrollados para explorar el potencial de éstos en soluciones relacionados a la computación cuántica.
Bojórquez Vega Leslie Maribel, Universidad de Sonora
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
Bojórquez Vega Leslie Maribel, Universidad de Sonora. Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla. Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Una de las más grandes interrogantes de la humanidad es el origen del universo. De los primeros en dar una respuesta a ello fue Demócrito (siglo V a.C.), él expresó la idea de que toda la materia estaba formada por muchas partículas pequeñas e indivisibles. En su teoría, el universo estaba conformado por átomos y vacío. Al paso del tiempo, en 1804, Dalton interpreta que los átomos son indivisibles, pero distintos para cada elemento químico. A partir de entonces se empezó a poner más atención a la composición del universo, llegando con el tiempo la creación de la tabla periódica, rayos x y muchos experimentos que fueron remodelando la idea que tenía demócrito, descubriéndose así partículas más elementales y llegar al Modelo Estándar de Partículas, este describe a las partículas subatómicas, sus propiedades, y sus interacciones. El Modelo Estándar es en la actualidad la referencia en física de altas energías para la observación y medición de nuevas partículas, sin embargo se considera posible la existencia de partículas más allá de este modelo, las cuales pueden dar respuesta a predicciones teóricas no observadas y fenómenos no explicados por el Modelo Estándar, cuyo entendimiento y estudio yace en nuevas teorías. Un ejemplo de estos fenómenos no explicados son: La gravedad cuántica, la materia y energía oscura, la masa del neutrino, la simetría materia-antimateria entre otros. Algunas de estas teorías Más Allá del Modelo Estándar son los modelos de supersimetría, teoría de la Gran Unificación, Gravedad Cuántica de Bucles, Teoría M y modelos de cuerdas. Para comprobar estas teorías, se necesitan construir nuevos laboratorios como el Futuro Colisionador Circular (FCC). Sin embargo, los costos de construcción de nuevos laboratorios son muy grandes y el tiempo de desarrollo de estos es largo, es por eso que se hace uso de herramientas de simulación para determinar con exactitud la arquitectura y diseño de nuevos detectores capaces de medir observables y así confirmar la existencia de nueva física. En las primeras semanas de la estancia, nos centramos en la parte teórica de la física de partículas y altas energías adentrándonos en temas como: Antecedentes históricos, introducción a física de partículas y altas energías, aceleradores y detectores de partículas, obtención y procesamiento de datos obtenidos. También se realizó una introducción a temas en el área de la física de partículas y altas energías de particular interés en años posteriores; nuevos colisionadores, necesidades de desarrollo tecnológico etc. Una vez que se comenzó a aterrizar en estos temas, se formaron equipos que empezaron a trabajar en simuladores de aceleradores, detectores, observables, etc.
METODOLOGÍA
Nuestro equipo participa en la simulación de detectores de partículas para lo cual se usaron recursos virtuales como el sistema operativo Ubuntu. Se instalaron programas como Geant, Root, Fairsoft y Fairroot. Previo a su instalación, se descargaron e instalaron todas las dependencias y librerías necesarias, se otorgaron permisos, se aplicaron parches y se definieron variables de entorno. El asesor brindó ayuda técnica durante el proceso y se hizo uso de plataformas de asesoría en foros del CERN, documentación sobre ROOT, y páginas oficiales del software para resolver problemas de instalación. Después, se procedió a correr ROOT y ejecutar el Tutorial 1, consistente en implementar un detector simple de partículas usando una interfaz ASCII y generar 10 eventos de piones usando Geant3. Usando el navegador implementado en ROOT, se estudió la estructura de los archivos .root. Estos archivos preservan no solo la información de la simulación, sino también la semilla con la que se genera la simulación por métodos Monte Carlo, la geometría del detector, las observables físicas de las partículas como lo son masa, energía, número de eventos, momento en los distintos ejes coordenados, los encabezados de la simulación, y más importante aún, se preserva la estructura del archivo en forma de árbol, para así poder estudiar la información sin necesidad de implementar o establecer de nuevo los programas, así como de acceder a la información de manera eficiente. Se procede a modificar el tutorial 1, cambiando el número de eventos, esta vez usando Geant4. Se analizan los distintos cambios entre las dos versiones de Geant y se crea un macro para leer la información. El tutorial 2 consiste en la simulación de un detector simple, leer los datos de la simulación, parámetros de digitalización y crear los datos digitalizados. Posteriormente se estudian estos datos, y se modifica el tutorial aumentando el número de eventos, y se usa Geant4. Finalmente, el tutorial 4 usa la geometría de ROOT como entrada de datos para un detector, esta se guarda en un .root desde un macro y es leído por las clases del detector desde el simulador.
CONCLUSIONES
ROOT es una versátil herramienta para simulaciones, así como preservar la estructura de experimentos en forma de árbol, visualizarla y modificarla fácilmente a través de su interfaz, o crear macros para leer información de nuestro experimento. Sin embargo, para manipular este y otros software se debe tener experiencia en lenguajes de programación como C y C++, así como de la estructura de los archivos .root y su sintaxis; y también sobre manejo de linux para la interpretación de problemas y errores que se presentan en la descarga e instalación de programas. Se seguirá trabajando en el desarrollo del plástico centellador capaz de detectar partículas, pues se necesitan buenos conocimientos en los lenguajes de programación mencionados anteriormente. La versatilidad de esta herramienta es útil para el diseño de nuevos detectores, así como mejoras y optimizaciones en los modelos de partículas existentes. Esto es de utilidad para predecir teóricamente la existencia de nueva física de partículas, que puede ser corroborada en un futuro por los nuevos laboratorios en construcción.
Bravo Cassab Pamela, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
NOISE ROUTING
NOISE ROUTING
Bravo Cassab Pamela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Sistemas como routers en los que se transmite señales son muy relevantes hoy en día en áreas como comunicación, donde cada vez hay una mayor demanda de banda ancha y donde las limitaciones que el sistema actual usado en internet, un sistema mono-modal, presenta ha llevado al estudio de formas de aumentar la capacidad de la red. Las fibras multi-núcleo son entonces dispositivos de suma importancia, pues pueden precisamente incrementar la banda ancha de transmisión usando multiplexación por división en el espacio (SDM).
Por lo que en el verano de investigación se estudian el propagamiento en una fibra óptica multi-núcleo con n núcleos idénticos (targets) distribuidos alrededor de un núcleo central diferente (fuente), usado un modelo de modos acoplados con simetría de rotación discreta para hallar la amplitud analítica y la frecuencia numérica de una señal de ruido que mejor optimice el sistema.
METODOLOGÍA
Usando la teoría de modos acoplados se puede aproximar el campo electromagnético de propagación como una combinación lineal de los modos individuales de los núcleos, esto a través de la matriz de modos acoplados que contiene la información sobre las constantes efectivas de propagación de cada modo de cada uno de los núcleos en su diagonal, es decir, los eigenvectores para cada modo, y fuera de la diagonal contiene las constantes de acoplamientos entre estos modos.
Para hallar los modos normales de la fibra óptica multi-núcleo de nuestro problema se debe hallar los eigenvectores y eigenvalores de la matriz de modos acoplados.
La primera parte consistió en hallar los modos normales para los núcleos externos usando la matriz de Fourier discreta para diagonalizar la matriz de modos acoplados de NxN y entonces con una base ortonomal estándar pudieron hallar los eigenvalores y eigenvectores. Los cuales se escriben tomando en consideración si N es par o es impar.
En la segunda parte se agregó el núcleo central y para ello se definió una nueva matriz, ahora de dimensiones (N+1)x(N+1), en la cual además el último elemento de su diagonal es una constante de propagación distinta a la usada en la matriz de la primera parte, así como también los demás elementos de la columna y fila (N+1) son constantes de acoplamiento diferentes a las usadas previamente. Sin embargo, se llevó a cabo un procedimiento análogo al de la primera parte.
Para la tercera parte, diagonalizó una matriz de 2x2 ya que al terminar los pasos anteriores quedaban dos términos adyacentes al elemento de la diagonal en la última columna y fila. Se usó algebra abstracta para hallar los dos eigenvalores y nuevamente con el uso de una base ortonormal estándar se hallaron también los dos eigenvectores.
En la cuarta parte introdujimos ruido al sistema como una matriz diagonal de perturbación que se suma a la matriz de modos acoplados completa. Para poder conocer los modos normales se requería del uso de teoría de perturbación para sistemas degenerados, la cual no había estudiado y por tanto tuve que aprender. La teoría consiste en identificar el par o pares de eigenvectores degenerados, es decir, aquellos que tienen el mismo eigenvalor y completar la matriz de proyección usando la matriz de perturbación, esto para cada par degenerado y entonces se resuelve esta matriz de proyección para hallar así los eigenvalores y eigenvectores de esta. Con esto ya tenemos todos los eigenvalores y eigenvectores de nuestro sistema y nuevamente usando una base estándar ortonormal obtenemos un sistema de ecuaciones en términos de los elementos de la matriz de perturbación.
Por tanto, la quinta parte fue resolver ese sistema de ecuaciones para así hallar la amplitud más efectiva de la señal de ruido y posteriormente realizar simulaciones numéricas para hallar la frecuencia más efectiva también.
Nosotros nos centramos en un caso cuando N=3 para poder visualizar de manera más sencilla la aplicación de este protocolo. Por ello, se llevaron a cabo cada uno de los pasos que a lo largo del verano se desarrollaron para un caso general ahora aplicados a una caso específico, para luego hacer las correspondientes simulaciones numéricas y observar los casos en cuando la propagación se da en ausencia de ruido, cuando el ruido es similar en las tres guías externas y cuando hay ruido similar en dos de las tres guías externas.
CONCLUSIONES
Se mostró que es posible encontrar de manera analítica la amplitud más efectiva y de manera numérica la frecuencia de ruido que optimizan el control de ruteo en el sistema siguiendo el protocolo propuesto donde mayoritariamente solo se necesita conocer los modos normales.
Cabrera Reyes Diego Emmanuel, Instituto Tecnológico de Acapulco
Asesor:Dr. Victor Ulises Lev Contreras Loera, Universidad Nacional Autónoma de México
CONSTRUCCIóN DE UN ESPECTRóMETRO DE BAJO COSTO
CONSTRUCCIóN DE UN ESPECTRóMETRO DE BAJO COSTO
Cabrera Reyes Diego Emmanuel, Instituto Tecnológico de Acapulco. Asesor: Dr. Victor Ulises Lev Contreras Loera, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La espectrometría es la técnica para la medición de los espectros de luz. En el caso de la espectrometría de emisión, la idea es simple: descomponer la luz que entra a un espectrómetro y posteriormente hacerla llegar a un sensor o placa fotográfica para estudiar la naturaleza de dicho espectro.
La importancia histórica de la espectrometría se puede ver reflejada en el descubrimiento que la emisión generada por la excitación de gases no genera todas las longitudes de onda correspondientes al espectro visible por Thomas Melvill en 1752.
En la actualidad esto se vuelve útil para analizar las emisiones de diferentes fuentes de luz, de esta manera pueden ser caracterizadas para diferentes propósitos, mediante un espectrómetro.
El espectrómetro es un instrumento (también conocido como espectrógrafo) cuya principal función es analizar las longitudes de onda que componen una luz. Generalmente usa como variable de medición la intensidad de la luz; por lo tanto, debe ser una caja negra y cerrada para evitar la luz espuria del ambiente u otra fuente de contaminación lumínica. El espectrómetro se compone ciertos elementos básicos para su funcionamiento, tales como:
Fuente luz
Abertura o iris
Rendija de difracción
Detector
No todas las instituciones de educación superior disponen de este tipo de equipos, y en circunstancias, donde la educación se debe efectuar desde casa, lejos de las instalaciones de las escuelas de educación superior, la adquisición de estos equipos por parte de los estudiantes se vuelve muy complicado.
METODOLOGÍA
Se realizó una investigación documental de dos semanas sobre la luz, los procesos de emisión, la espectrometría y los instrumentos de espectrometría.
Se realizó el montaje de un prototipo de espectrómetro simple y de bajo costo mediante una caja con 5 piezas de cartón ensambladas en forma de prisma rectangular. La caja fue cerrada para evitar contaminación lumínica y forrada de negro en su interior para evitar posibles reflexiones no deseadas, se utilizó un trozo de DVD como rendija de difracción
Se utilizó el software de análisis espectral de licencia libre: Theremino, y para conectar una cámara de celular a la laptop se usó el software DroidCam app, también de licencia libre, el cual se instaló también en el celular.
El proceso para utilizar el espectrómetro construido con fuentes de luz comerciales, es el siguiente:
Conectar la cámara del celular a la computadora.
Colocar sobre una base firme y plana el espectrómetro prototipo.
Posicionar en la parte superior cerca de la abertura de salida la cámara del celular, dejándolo firme.
Insertar la rejilla de ¼ de milímetro en la parte frontal de espectrómetro.
Ubicar la fuente de luz enfrente del espectrómetro a modo que la luz pueda ingresar por la rejilla de entrada.
Abrir el software Thermeino en la computadora.
Calibrar mediante una línea de 546 nm de una lampara fluorescente.
Encender la fuente de luz.
Ajustar el orden de difracción que se analizará en la imagen de la cámara
Capturar el espectro obtenido de la muestra.
Repetir el espectro de dicha muestra y compara si no existen variaciones con la medición anterior
Compararlo con valores reportados en la literatura.
Se usaron las siguientes fuentes de luz comerciales:
Foco fluorescente de 20 W, luz de día (luz fría) de 6500 K, marca OSRAM
Foco fluorescente de 26 W, luz cálida de 2700 K, marca Precissimo
Luz led azul, marca VOLTECK
Láser verde de 532 nm
Foco led luz fría de 3 W. (no atrae moscos)
Estas muestras sirvieron para la caracterización del prototipo, el cual cuenta con una resolución espectral de 6 nm, el cual se calculó mediante la diferencia entre dos líneas cercanas para un espectro de emisión de luz fría de 6500 K marca OSRAM.
El rango espectral de operación del prototipo es de 400 a 700 nm y cuenta con una longitud del área de análisis de 240 píxeles, entre los cuales se distribuyen los colores del espectro visible en disposición horizontal.
CONCLUSIONES
Durante la estancia de investigación del verano 2020 se trabajó en el diseño, armado y caracterización de un espectrómetro portátil y de bajo costo. Esto permitió el desarrollo de conocimiento teórico y práctico de los procesos de espectrometría de emisión.
El espectrómetro fabricado es funcional en el rango espectral de operación de 400 a 700 nm, lo cual permite utilizarlo en el análisis de fuentes de luz visibles; es práctico y fácil de utilizar.
Confiere facilidades a estudiantes y docentes, dentro y fuera del aula de clases ofrece una opción viable en ciencias químicas, biológicas y físicas, incluyendo las ciencias y ramas relacionadas con estas tres al no recurrir a grandes inversiones para su fabricación.
El espectrómetro puede ser usado en instituciones que no tengan acceso equipos de esta índole por diversos motivos, como complemento didáctico en temas de física, química y óptica.
Casares Hernández Humberto, Universidad Autónoma de Guerrero
Asesor:Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
SIMULACIóN DE UN SISTEMA LOCALIZADOR PARA INTERIORES VíA WIFI CON UNITY
SIMULACIóN DE UN SISTEMA LOCALIZADOR PARA INTERIORES VíA WIFI CON UNITY
Casares Hernández Humberto, Universidad Autónoma de Guerrero. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
La tecnología de los sistemas de navegación GPS se basa en posicionamiento global. El posicionamiento consiste en una comunicación de emisión y recepción entre el dispositivo receptor que capta las señales de posicionamiento de los satélites. Posteriormente estas señales calculan las coordenadas del receptor, creando una posición de ubicación. Sin embargo, los GPS no tienen la mejor fuerza de penetración y las señales a menudo tienen dificultades para viajar a través de las paredes e interior de los edificios.
Ante esta limitación para localización en interiores, se han estado desarrollando trabajos de este tipo en años recientes. Estas tecnologías son basadas en señales inalámbricas. Por ello se plantea diseñar y crear la simulación de un sistema en Unity para localización en interiores con señales inalámbricas wifi. Para el procesamiento de las señales se puede optar por las redes neuronales artificiales que son un método de resolver problemas, de forma individual o combinadas con otros métodos, para aquellas tareas de clasificación, identificación, optimización o predicción en las que el balance se inclina hacia los datos.
METODOLOGÍA
La localización de interiores mediante señales inalámbricas wifi es un tema estudiado en diversas partes del mundo y a continuación se explicará tres formas para realizarlo. La primera se basa en RSSI que indica la fuerza de la señal que llega de múltiples puntos de acceso. La segunda se enfoca en las llamadas huellas dactilares de la intensidad de señal emitida en distintos puntos para que después se pueda localizar localmente, una gran desventaja es que algún cambio en el entorno causa inconsistencias al sistema. La tercera se basa en AoA o ángulo de llegada, la idea básica de estos sistemas es calcular los AoAs de las señales multi trayecto recibidas en cada punto de acceso, encontrar el ángulo de la ruta directa al objetivo y luego aplicar la triangulación para localizar.
En este proyecto se utilizará la segunda forma para la localización en interiores que consiste en guardar las intensidades de señal recibidas en muchos puntos. Estos puntos se guardan en un dataset que servirá para entrenar un modelo de red neuronal artificial desde Python. Se utilizará un clasificador para los pisos porque es fácil clasificar cada piso con un valor entero. Para la posición específica del piso se hará uso de la regresión lineal, un regresor para X y otro para Y.
El sistema para la simulación será desarrollado en el motor de Unity, que es uno de los motores de juego más conocidos, por ello existe información útil para el desarrollo. Antes de comenzar con el desarrollo del sistema, se analizaron diversas opciones para el modelado 3D y el procesamiento de las señales. Se decidió modelar un edificio de tres niveles con dos habitaciones por nivel en Unity. Cada nivel tiene un router para el procesamiento simulado de las señales. El avatar fue descargado de mixamo.com y programado con animaciones para moverse a través del edificio con las teclas w, a, s, d y el mouse para la orientación de la rotación. Cada router está vinculado al avatar que determina una distancia que asemeja la intensidad de señal wifi en la vida real. Para la simulación de la localización en el edificio se usaron las coordenadas del objeto jugador. La altura se utilizó para los pisos en donde a menos de un metro es el primero piso, mayor a 3 metros es el segundo y 7 metros para el tercero. Se halló un patrón entre los puntos del plano por cada habitación para determinar si se encuentra en el primero, segundo o el pasillo.
En este modelo de aprendizaje automático se utilizó el aprendizaje supervisado que consiste en datos reales capturados en un dataset, con los que entrenará la red neuronal artificial. Se capturaron puntos en excel por cada piso tomando en cuenta cada piso como un plano con puntos en x, y. En cada punto se guardaban las distancias con los tres puntos de acceso, el piso, punto en x y también el punto en y.
Se programó el modelo para la red neuronal con Google Colab que es un entorno de desarrollo libre de Jupyter en línea donde no se requiere instalar librerías externas. Se creó un clasificador para ubicar el piso del edificio, ya que es lo más óptimo porque se puede dividir fácilmente entre clases.
CONCLUSIONES
Simular el sistema en Unity implicó estar guardando las coordenadas del avatar a través del edificio. Saber la ubicación del piso fue la parte más sencilla porque el eje y no es variable. Se buscaron los valores que se tenían en el eje x y z dentro de las dos habitaciones y el pasillo para dar la ubicación más precisa. Durante la simulación al presionar la tecla espacio se aparece un dispositivo móvil con la ubicación en ese punto.
El programa para la red neuronal artificial fue probado con valores conocidos que son los del set de datos, y también desconocidos que fueron pruebas que hice durante la simulación tomando las distancias de los tres puntos de acceso. La inferencia del modelo en Python se pudo observar que efectivamente está en el piso 1 y el algoritmo cuenta con un accuracy o eficiencia de 99%.
En esta propuesta se demostró que es posible simular un sistema para localización de dispositivos en interiores de edificios, esto a través de la red a la cual está conectada. Cosa que anteriormente se hacía con GPS para exteriores y ahora se comienza a implementar con señales inalámbricas en interiores. Es un proyecto que en un periodo no muy tardío se pondrá en práctica por las grandes empresas que se encargan de realizar aplicaciones de mapas en la web, como lo es Google Maps.
Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)
SIMULACIóN PARALELIZADA MPI DE DINáMICA MOLECULAR EN SISTEMAS DE MATERIA BLANDA.
SIMULACIóN PARALELIZADA MPI DE DINáMICA MOLECULAR EN SISTEMAS DE MATERIA BLANDA.
Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La dinámica molecular (MD), es un método de simulación por computadora para analizar los movimientos físicos de átomos y moléculas. Se permite que los átomos y las moléculas interactúen durante un período fijo de tiempo, dando una visión de la "evolución" dinámica del sistema. En la versión más común, las trayectorias de los átomos o moléculas se determinan resolviendo numéricamente las ecuaciones de movimiento de Newton, las cuales son previamente planteadas para un sistema de partículas que interactúan mediante campos de fuerza adecuados al modelo físico que se busca simular .
Las simulaciones en MD se han vuelto populares en ciencia de materiales, bioquímica, biofísica y varios otros campos. Las mejoras en los recursos computacionales, en la calidad de los parámetros y algoritmos del campo de fuerza han producido mejoras significativas en el rendimiento y la confiabilidad.
En este trabajo, analizamos como generar un código propio de dinaḿica molecular en los ensambles NVE, NVT y NPT. Nuestro código permite variar distintos parámetros, tales como el número de dimensiones, número de partículas, pasos en el tiempo, longitud de tiempo, el ancho de la celda de simulación y el diámetro de las partículas. Este código permite generar una trayectoria de las partículas, las cuales son utilizadas posteriormente para determinar observables tales como la temperatura o la presión del sistema.
En particular, esperamos que el planteamiento de este código favorezca en el desarrollo o implementación en sistemas más complejos, tales como sistemas compuestos de partículas anisótropas (cristales líquidos, por ejemplo). Así mismo, buscamos comprender cómo funciona el cómputo paralelizado en sistemas de memoria distribuida utilizando MPI, lo cual nos permitirá abordar más adelante el estudio de sistemas dinámicos dentro de nuestra trayectoria académica o profesional.
METODOLOGÍA
Se comenzó por familiarizarse con el método de dinámica molecular para sistemas de materia blanda simples en alguna fuentes de información proporcionadas por el asesor, posteriormente, se profundizó en el conocimiento adquirido en la primera semana, revisando otros ensambles tales como NVT y NPT, en particular se revisaron distintos tipos de termostatos cuya implementación en código sea sencilla, tales como el reescalamiento de velocidades y el termostato de Berendsen y se inició con la escritura de un código propio de dinámica molecular en C++.
Por otra parte, se realizó una revisión bibliográfica sobre los tipos de termostatos que son posibles de implementar de forma sencilla en un código de dinámica molecular y se continuó con la escritura del código de dinámica molecular implementando termostatos y barostatos para las simulaciones de sistemas de materia blanda simples, específicamente en el caso del barostato se considerará el barostato de Berendsen para ser adaptado al código.
CONCLUSIONES
Se logró generar un código de dinaḿica molecular eficiente que genera un archivo comprimido xtc, lo cual permite guardar trayectorias de simulaciones más largas sin que se penalice tanto el uso del espacio en memoria. Por otra parte, se comprendió el funcionamiento de LAMMPS para sistemas de Lennard Jones y del programa VMD, para observar la dinámica del sistema. Esto nos permitió comparar nuestros resultados contra resultados obtenidos con motores de dinámica ampliamente comprobados. Así mismo, se logró implementar en el código el barostato y termostato de Berendsen, ya que brinda un enfoque de equilibrio de primer orden rápido y suave.
Se continuará en la escritura del código propio y en la programación paralela en MPI del mismo.
Castellanos Herrera Pedro Obed, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANáLISIS DE LAS VARIABLES METEOROLóGICAS EN LA COBERTURA DE LA REGIóN DE OTHóN P. BLANCO, QUINTANA ROO, MéXICO.
ANáLISIS DE LAS VARIABLES METEOROLóGICAS EN LA COBERTURA DE LA REGIóN DE OTHóN P. BLANCO, QUINTANA ROO, MéXICO.
Castellanos Herrera Pedro Obed, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Meteorológicamente en la República Mexicana están presentes sistemas atmosféricos, tanto de latitudes medias como tropicales, la combinación de estos generan una gran variedad de estados de tiempo, algunos de ellos se convierten en eventos peligrosos.
En México, más específicamente en el estado de Quintana Roo se ha observado un periodo donde se es propenso el impacto de algún huracán, llamada Temporada de Huracanes (1 de junio a 30 de noviembre), así como periodo de sequias donde es más propenso un incendio forestal.
Por ello es necesario ahondar más en estas temáticas para esclarecer los procesos que permitan inferir en las decisiones de los expertos en asuntos preventivos.
METODOLOGÍA
Los datos de temperatura y precipitación se obtuvieron de 8 estaciones meteorológicas automáticas de la página del CICESE (http://clicom-mex.cicese.mx/):
CHETUMAL (DGE), QROO.
TECNOLOGICO DE CHETUMAL (OBS), QROO.
HOSPITAL MORELOS DE CHETUMAL, QROO.
XCALAK, QROO.
JUAN SARABIA, QROO.
AGUA BLANCA, QROO.
LA UNION II, QROO.
LAGUNA GUERRERO, QROO.
Todas las series fueron graficadas para remover la información errónea y detectar posibles discontinuidades para caracterizar su comportamiento de acuerdo a la metodología de Ferreiro y Bosque (2008) con Sistemas de Información Geográfica (SIG).
CONCLUSIONES
Se muestran los mapas mensuales de la temperatura media del año 2019, como podemos observar en las tablas, la variación de la temperatura es mínima, siendo más menos 2 por cada mes.
Se puede observar una estrecha relación de estas variables con el relieve, en donde se aprecian áreas más calientes en las llanuras bajas aledañas a la costa y ambiente templado para las zonas con mayor altura.
Castillo Santillán Adrián, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
CONSTANTE DE ESTRUCTURA FINA Y MONOPOLIOS MAGNéTICOS
CONSTANTE DE ESTRUCTURA FINA Y MONOPOLIOS MAGNéTICOS
Castillo Santillán Adrián, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Con el presente reporte se pretende analizar el origen de la constante de estructura fina a partir del tratamiento semiclásico que Bohr le dio al átomo de hidrógeno como consecuencia de las observaciones de líneas discretas de emisión por parte de este elemento y de igual forma cómo está ligada esta constante a la carga magnética de un monopolo como consecuencia de la cuantización de carga eléctrica y magnética propuesta por Dirac.
METODOLOGÍA
En 1948 Paul Dirac había propuesto una simetría en la ley de Gauss para el campo eléctrico y para el campo magnético asumiendo la existencia de monopolos, por lo que las ecuaciones de Maxwell en c.g.s serían
partial^{ nu}F_{mu u}=-4pi j_{mu} (12)
partial^{ nu}Tilde{F}_{mu u}=-4pi k_{mu} (13)
Donde $F_{mu u}$ es el tensor de campo electromagnético, $ ilde{F}_{mu u}$ el tensor dual, $j_{mu}$ es la densidad de corriente eléctrica y $k_{mu}$ sería la densidad de corriente magnética producida por los monopolos.
Dirac intenta encontrar la intensidad de un solo polo magnético a partir de la mecánica ondulatoria desarrollada por Schrödinger algunos años atrás. Considera una partícula cuyo movimiento es representado por $Psi(Vec{r},t)=Ae^{iphi}$, donde $phi$ es la fase de la función de onda, con $A$ la amplitud, de tal manera que $Psi$ esté normalizada. La fase $phi$ no tiene un significado físico real, e inclusive se podría agregar alguna constante de tal manera que la normalización de $Psi$ permaneciera invariante, por lo que lo importante no es el valor de $phi$ en un punto, sino la diferencia de fase entre dos puntos cualquiera. Debido a esto se propone que
Psi(Vec{r},t)=psi_{1}e^{iBeta} (14)
Donde $psi_{1}$ es una función de onda cuya fase sí está definida en cada punto del espacio, mientras que $Beta$ no es una función de $Vec{r}$ y $t$, definida en cada punto, pero el cambio de fase ahora será dependiente de la curva que une a los puntos, es decir
Vec{kappa}=frac{partial beta}{partialVec{r}} y kappa_{0}=frac{partial beta}{partial t} (15)
Donde en términos generales
frac{partial beta}{partial xpartial y} eqfrac{partial beta}{partial ypartial x}
Así el cambio de fase en una curva cerrada dado por el teorema de Stokes es
oint kappa_{mu}dx^{mu}=int (nabla imesVec{kappa})cdot dVec{S} (16)
En el cual $dx^{mu}$ es el elemento de línea de mundo de la curva cerrada y $dVec{S}$ el elemento de área encerrado por la curva.
De la ecuación (14) obtenemos que
-ihbarfrac{partial}{partial x}Psi=e^{ibeta}(ihbarfrac{partial}{partial x}+hbar kappa_{x})psi_{1} (17)
Análogamente se encuentran relaciones similares con $y$, $z$ y $t$. Debido a que el operador momento en un campo electromagnético es $hat{p}=-ihbar (nabla,-frac{1}{c}frac{partial}{partial t})+q/c(Vec{A},A_{0})$, entonces si $Psi$ satisface la ecuación de onda para una partícula libre, $psi_{1}$ satisface la ecuación de una partícula con carga $e$ en un campo electromagnético tal que
Vec{A}=frac{hbar c}{e}Vec{kappa} y A_{0}=-frac{hbar}{e}kappa_{0} (18)
De aquí obtenemos que
nabla timeskappa=frac{e}{hbar c}Vec{H} (19)
Como el cambio de fase debe ser el mismo en múltiplos de $2pi$ y el cambio de fase en una curva cerrada debe ser 0, entonces a partir de las ecuaciones (16) y (19)
2pi n=frac{e}{hc}int Vec{H}cdot dVec{S}=4pi ho_{mu}(20)
Donde $ rho_{mu}$ es la densidad de carga magnética, por lo que para una curva cerrada que tienda a encerrar una singularidad se tiene que
eg=frac{1}{2}nhbar c (21)
donde g es la carga magnética de un solo monopolo. Por lo que las cargas mínimas magnéticas y eléctricas deben cumplir
e_{0}g_{0}=frac{1}{2}hbar c (22)
y con esto se deduce la cuantización de la carga eléctrica, la constante de estructura fina propuesta por Sommerfeld (ecuación (10)) en unidades c.g.s es
frac{e^{2}}{hbar c}approxfrac{1}{137}=alpha (23)
Por lo que se puede deducir junto con la ecuación (22) que
g_{0}^{2}approxfrac{137}{4}hbar c (24)
lo cual sería la carga mínima de un monopolo magnético. De esta manera la proporción entre la atracción de dos cargas mínimas de un monopolo con signo contrario y la de atracción de dos cargas mínimas eléctricas sería aproximadamente de $(137/2)^{2}$, por lo que se requeriría una energía mayor para separar dos polos magnéticos con signo opuesto que dos cargas eléctricas. Si se supone la masa de un polo magnético como la mitad de la masa de un protón la energía aproximada para separarlos es de $5 times 10^{8} eV$.
CONCLUSIONES
La constante de estructura fina es parte fundamental del electromagnetismo porque indica con qué intensidad interactúan partículas cargadas e igualmente derivado de la teoría de Dirac también estaría ligado a como interactúan dos polos magnéticos y se puede ver a partir de lo propuesto en esta teoría que es más intensa la atracción entre dos polos que entre dos cargas. La energía mencionada por Dirac en su artículo toma como suposiciones una masa de la mitad del protón y la formulación relativista del átomo de hidrógeno de Sommerfeld, esta energía es del orden de $10^{8} eV$ un rango con el que el que los mejores aceleradores de partículas ya han alcanzado y aún no se han detectado monopolos libres, por lo que de existir, algunas de las suposiciones de Dirac debería ser corregida.
Ceceña Avendaño Enrique Fernando, Universidad de Sonora
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTIMACIóN DE CAMPOS MAGNéTICOS EN COLISIONES DE IONES PESADOS A BAJAS Y ALTAS ENERGíAS.
ESTIMACIóN DE CAMPOS MAGNéTICOS EN COLISIONES DE IONES PESADOS A BAJAS Y ALTAS ENERGíAS.
Ceceña Avendaño Enrique Fernando, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Usualmente si nos imaginamos un núcleo atómico, lo veremos como una especie de esfera, con bolitas que representan a los nucleones dentro de esta. Sin embargo al viajar a altas velocidades esta esfera sufre una deformación, convirtiéndose en un disco. En las colisiones de Iones Pesados realizadas en el LHC, RHIC y otros colisionadores, dos de estos discos chocan entre sí generando millones de partículas y pasando por distintos estados.
Desde el momento de la colisión hasta que las partículas son detectadas, se presentan las etapas del Plasma de Quarks y Gluones, Fase Hadrónica y Libre Generación, cada una de estas con sus particularidades en específico. Sin embargo no podemos medir directamente estas etapas, necesitamos realizar mediciones indirectas, para ello se estudian a los fotones generados en cada sección, para estos, es posible escapar del medio y con ello transportar información.
Para capturar esta información es necesario que la geometría de la colisión sea de forma elíptica, ello implica que los discos no estén centrados entre sí. No obstante, al realizar este ajuste, también sucede otro fenómeno físico, que es la generación de campos magnéticos intensos estos dan pie al efecto magnético chiral o de confinamiento de partículas, inclusive llega a afectar las trayectorias de algunas partículas.
En este trabajo se estiman los campos magnéticos generados en colisiones de Iones Pesados en términos de la energía y del parámetro de impacto.
METODOLOGÍA
En una colisión, los núcleos atómicos pueden encontrarse un poco desfasados el uno del otro; a la cantidad de desfase entre los centros de estos discos se le conoce como parámetro de impacto, y a mayor parámetro de impacto, más periférica será la colisión y a menor parámetro de impacto será más central.
Este desfase da lugar a que las partículas de los núcleos se clasifiquen de dos maneras: en participantes y en espectadoras. Las partículas participantes son aquellas que interactúan directamente con las del otro núcleo; mientras que las partículas espectadoras no interactúan en la colisión y siguen su camino.
Una partícula cargada al moverse a través del espacio genera un campo magnético, el cual puede medirse en algún punto del espacio. Las partículas espectadoras, al igual que las participantes, generan estos campos al moverse, pero al momento de colisionar las participantes reducen drásticamente su velocidad esto ocasiona que la contribución a la generación de un campo magnético, respecto a las espectadoras sea mucho menor. Por esta razón el campo magnético se calculará únicamente para las partículas no participantes en la colisión.
Para obtener el campo magnético, se desarrollo la Ley de Biot-Savart para este caso en especifico con un ajuste relativista, derivado de las altas velocidades que vamos a estar manejando. Además se escogió como punto fijo el centro de masas de la colisión. Posteriormente, se aplicó esto al sistema en cuestión.
Al ser desconocidas las características completas del sistema, se optó por realizar una simulación de la colisión mediante un programa escrito en Python, en el que dada una cierta cantidad de partículas cargadas dentro de un núcleo, estas son distribuidas aleatoriamente dentro de un disco, cuidando que la mayoría se concentre en el centro. Además de realizar esto, se genera un segundo disco el cual es desfasado del primero, de acuerdo a la especificación del parámetro de impacto.
Debido a que el cálculo solamente se realizará para las partículas espectadoras, es necesario poder identificarlas en la colisión. A fin de diferenciarlas, se siguió el siguiente algoritmo: Se escoge una partícula de un núcleo, si la distancia de ésta al centro del núcleo contrario es mayor al radio de este último núcleo, entonces se le clasifica como espectadora, de lo contrario como participante; realizamos esto para todas las partículas de ambos núcleos.
Al haber identificado a las espectadoras, se calcula el campo magnético tomando en cuenta que cada partícula tiene una velocidad en específico (asociada al núcleo al que pertenecen).
Se realizaron dos simulaciones de colisiones: una colisión de Au-Au y otra de Pb-Pb. Ambas con los parámetros de impacto de 5 y 10 fm, y energías de colisión 50 GeV y 1 TeV.
CONCLUSIONES
A continuación se muestran los resultados de las distintas colisiones.
Para la colisión Au-Au:
Con b=5 fm y EK=50 GeV: La magnitud del campo llegó a 8E15 Teslas.
Con b=5 fm y EK=1 TeV: El máximo valor que alcanzó el campo magnético fue de 1.2E14 Teslas.
Con b=10 fm y EK=50 GeV: La magnitud del campo alcanzó a ser de 2E16 Teslas.
Con b=10 fm y EK=1 TeV: La magnitud del campo magnético fue de alrededor de 2.5E14 Teslas.
Para la colisión de Pb-Pb se encontraron resultados muy similares en cuestión de las magnitudes del campo, con ligeras variaciones.
Observando los resultados obtenidos, se puede comprobar cómo estos se acercan bastante a los resultados experimentales, que sitúan a estos campos magnéticos alrededor de B~1E16 Teslas. Además es posible notar cómo a mayor parámetro de impacto la magnitud del campo magnético aumenta; sin embargo, al aumentar la energía de la colisión la intensidad decrece con respecto a aquellas que fueron a bajas energías, se sugiere que esto sea provocado por el factor gamma al momento de calcular el campo magnético.
A lo largo de la estancia de verano virtual, se adquirieron una gran variedad de conocimientos teóricos en relación a las colisiones de Iones Pesados en los aceleradores de partículas, parte de estos se lograron aplicar en la simulación de una colisión de Iones Pesados de Au-Au y de Pb-Pb para así medir la magnitud del campo magnético generado en estas colisiones en altas y bajas energías.
Chavez Valles Cesiah Keren, Universidad Autónoma de Tamaulipas
Asesor:M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas
ASESORíAS DE MATEMáTICAS EN EL COBAT PLANTEL 05 VICTORIA BASADAS EN LA TEORíA SOCIOEPISTEMOLóGICA DE LA MATEMáTICA EDUCATIVA.
ASESORíAS DE MATEMáTICAS EN EL COBAT PLANTEL 05 VICTORIA BASADAS EN LA TEORíA SOCIOEPISTEMOLóGICA DE LA MATEMáTICA EDUCATIVA.
Chavez Valles Cesiah Keren, Universidad Autónoma de Tamaulipas. Asesor: M.C. Moisés Ricardo Miguel Aguilar, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
El Programa para la Evaluación Internacional de Alumnos de la OCDE (PISA) demuestra en la publicación de los resultados del 2018 México están por debajo del promedio estandarizado, lo cual es una problemática en la educación en el país, debido a que los alumnos de 15 años no cuentan con los conocimientos de las áreas de lectura, matemáticas y ciencias.
Según los resultaos de la prueba PISA 2018, los estudiantes mexicanos obtuvieron un puntaje bajo el promedio OCDE en lectura, matemáticas y ciencias. En México, solo el 1% de los estudiantes obtuvo un desempeño en los niveles de competencia más altos (nivel 5 o 6) en al menos un área (Promedio OCDE: 16%), y el 35% de los estudiantes no obtuvo un nivel mínimo de competencia (Nivel 2) en las 3 áreas (promedio OCDE:13%).
El desempeño promedio se ha mantenido estable en lectura, matemáticas y ciencias, a lo largo de la mayor parte de la participación de México en PISA. Solo el desempeño en PISA 2003 (en lectura y matemática) fue significativamente inferior al desempeño de PISA 2018, y solo en PISA 2009 (en matemáticas) fue significativamente superior al desempeño en PISA 2018. En todos los otros años y todas las otras áreas el desempeño promedio de México no fue distinto al observado en PISA 2018.
La mayor problemática es que en estas pruebas son estandarizadas, en el caso de la matemática educativa no se busca que los alumnos logren resolver un problema a lápiz y a papel sino mas bien que logren usar las matemáticas como herramienta en uso para la vida cotidiana.
METODOLOGÍA
Este trabajo utiliza métodos de investigación cualitativa-descriptiva con base en la experiencia y herramientas de investigación bibliográfica.
En primer lugar, con base en la investigación bibliográfica, identificar y delimitar la problemática del aprendizaje de las matemáticas a nivel internacional para centrarla en una población específica, Estudiantes de 6 semestre del Colegio de Bachilleres del Estado de Tamaulipas Plantel 05 (CBTis 05) Victoria en Ciudad Victoria, Tamaulipas.
Se aplicó una Situación de Aprendizaje El crecimiento de Leo, en su primer año de vida, una situación que se diseño a lo largo del semestre en la carrera de Ciencias de la Educación en la Universidad Autónoma de Tamaulipas dentro del programa de Asesorías impartidas en el CBTiS 05 los sábados en un horario de 07:50 a.m. a 01:30 p.m. Esta situación de aprendizaje busca la incorporación de la herramienta tecnológica, calculadoras Casio Classwiz fx-991ex en el aprendizaje de las matemáticas, pero más específicamente, en la construcción social del conocimiento matemático como una herramienta de uso.
En el análisis de los datos anteriores, identificó las formas de involucrarse de los estudiantes con el fenómeno a estudia, el establecimiento de las variables a cuantificar y estudiar del crecimiento de Leo, el uso de la calculadora para generar un modelo lineal que de información del fenómeno de crecimiento a partir de los significados de los términos numéricos del modelo lineal con relación a sus distintas representaciones (tabular, gráfica, algebraica, textual y verbal).
Se utilizaron métodos de análisis cualitativo de las producciones de los estudiantes para dar evidencia de aprendizaje, o en palabras de la teoría, de la resignificación de conceptos matemáticas a partir del uso del conocimiento matemático escolar.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos-prácticos de la aplicación de la situación de aprendizaje con un enfoque basado en la Teoría Socioepistemológica de la Matemática Educativa con el fin de que los alumnos que se les brindaron las Asesorías lograran la construcción de significados matemáticos
El analizar las producciones de los estudiantes en el estudio del crecimiento de Leo a partir del modelo lineal construido por la herramienta tecnológica nos evidencia una forma efectiva de incorporación en el aprendizaje de las matemáticas poniendo en el centro de la labor docente al conocimiento como una herramienta de uso.
Cid Martinez Karla Iveth, Instituto Politécnico Nacional
Asesor:Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla
BIOSENSOR E. COLI PORTABLE BASADO EN ZNO BIOTFTS
BIOSENSOR E. COLI PORTABLE BASADO EN ZNO BIOTFTS
Cid Martinez Karla Iveth, Instituto Politécnico Nacional. Asesor: Dr. Miguel Angel Dominguez Jimenez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las enfermedades diarreicas agudas que se presentan en tres tipos de cuadros clínicos:
la diarrea acuosa aguda, que dura varias horas o días, y comprende el cólera.
la diarrea con sangre aguda, también llamada diarrea disentérica o disentería.
la diarrea persistente, que dura 14 días o más.
Las enfermedades diarreicas agudas en México causan la muerte de 534 niños menores de 5 años cada año, principalmente por no ser atendidos por un servicio médico en zonas marginadas, una de las bacterias que producen EDA es Escherichia coli estando presente en los alimentos y agua que consumimos diariamente.
El principal problema es que existen zonas marginadas que no cuentan con los adecuados hábitos de higiene por lo cual en estas zonas son mas propensas a contraer alguna enfermedad de este tipo, al igual que no cuentan con un servicio médico adecuado.
METODOLOGÍA
A lo largo de estas siete semanas se introdujo a base de los fundamentos de la investigación, un simulador de un biosensor E. Coli portable basado en ZnO BioTFTs, el cual nos permitirá hacer tres pruebas a cinco BioTFT a las muestras para comprobar la presencia de E. coli.
En este caso nuestro receptor biológico será la tarjeta sensora y nuestro transductor será el TFT el cual requiere de un interpretador para nuestro caso es el microcontrolador de donde obtendremos la señal cuantificadora.
Para el uso del microcontrolador necesitamos de un lenguaje de programación para el proyecto usamos lenguaje ensamblador ya que es un lenguaje diseñado específicamente para circuitos programables, para llevar acabo la programación, compilación y simulación de el biosensor requerimos de un software de programación después de analizar opciones como Keil u visión, el software que nos permitiría realizar todo en conjunto es Proteus el cual nos permite poder crear circuitos de manera profesional, además de que podemos hacer uso de cualquier microcontrolador, para este caso el microcontrolador que usamos es el PIC16F84A ya que cubría las necesidades de nuestro proyecto, además de que es un PIC de baja gama que nos facilitaría el trabajo a lo hora de programar.
Como todo proyecto tiene que seguir ciertas normas en este caso son las normas de programación a las cuales se tendría que ajustar el programa que se le cargaría al microcontrolador, seguir esas normas nos permite que a futuro se le pueda dar mantenimiento y actualización al biosensor.
Las etapas del biosensor van desde una tarjeta sensora a una señal de acoplamiento de entrada esto para que en caso de haber un corto no perjudique nuestro microcontrolador y solo se quede en este búfer, después va a la señal del microcontrolador el cual tendrá cargado el programa el cual interpretara la señal de entrada mandando una señal de salida pasando otra vez por un búfer, en la señal de salida se mostrara a través de LEDS en este caso usamos 5 LEDS dos azules uno para encendido y el otro par proceso de medición, un rojo para mostrar que el resultado es positivo, un verde para negativo y un amarillo para mostrar que hubo un error y se tiene que retirar la tarjeta sensora e introducir una nueva.
El biosensor al ser portable tendrá que hacer uso de una batería y para que el consumo esta disminuya se implementara el modo sleep el cual mantendrá dormido al microcontrolador hasta que se inserte la tarjeta sensora.
CONCLUSIONES
A lo largo de este tiempo que se le dedico al proyecto adquirí conocimiento básico de los microcontroladores, así como se implementaron avances como fueron implementar los recursos que se usarían para la elaboración del proyecto, diseñar la circuitería del biosensor, diseñar la lógica que tenía que seguir el programa para que se hicieran las mediciones, así como empezar a iniciar con la programación del biosensor, al ser un proyecto amplio se avanzo con diversas etapas dejando las bases para seguir con las siguientes etapas del proyecto a futuro.
Cons Calderon Julio Cesar, Universidad de Sonora
Asesor:Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León
DESARROLLO DE COMPONENTES VISUALES PARA EMPLEAR CONJUNTOS APROXIMADOS (ROUGH SETS) EN FLUJOS DE TRABAJO (WORKFLOWS) EN R ANALYTICFLOW. APLICACIóN A CRM: CLASIFICACIóN DE CLIENTES.
DESARROLLO DE COMPONENTES VISUALES PARA EMPLEAR CONJUNTOS APROXIMADOS (ROUGH SETS) EN FLUJOS DE TRABAJO (WORKFLOWS) EN R ANALYTICFLOW. APLICACIóN A CRM: CLASIFICACIóN DE CLIENTES.
Cons Calderon Julio Cesar, Universidad de Sonora. Treviño Gómez Valeria, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Actualmente cualquier empresa que maneje grandes cantidades de datos, puede obtener información valiosa de ellos y extraer conclusiones que faciliten la solución de determinados problemas. Frecuentemente estos datos pueden aportar información respecto a los clientes y así conocer los gustos o preferencias de cada uno de ellos. Una estrategia muy útil para optimizar el rendimiento de un negocio o empresa, es la segmentación de clientes (subproceso estratégico de CRM), pues permite determinar cuál es el mercado objetivo y establecer estrategias de comercialización personalizadas para cada cliente o segmento de clientes. Sin embargo, cuando el volumen de información es tan elevado, la clasificación de datos se vuelve más compleja, por lo tanto, para poder realizar una segmentación correcta de los clientes es necesario recurrir a herramientas que faciliten estas operaciones. Se necesitan herramientas que puedan utilizarse para ayudar a estructurar la toma de decisiones en las relaciones claves que surgen con los proveedores y con los clientesTrabajar con estos datos puede representar un reto, ya que la información que se tiene de los clientes puede tener algún grado de imprecisión, por lo tanto el empleo de Conjuntos Aproximados (Rough SETS) facilitará el análisis.
METODOLOGÍA
1. Primero, se importan los datos de un fichero de texto (en formato .csv), que contiene ciertos criterios para clasificar a los clientes. Estos criterios se basan en dos tipos de clases: Enfoque de cartera de clientes desde el marketing (CPM) y Segmentación de clientes Tradicional (negocios vs consumidor). CPM considera a los clientes como activos. Generalmente basados en CLV (Customer Lifetime Value), y valoran la importancia de la relación con el cliente. Mientras que la segmentación tradicional clasifica a los clientes desde un enfoque operativo, basado en el comportamiento de los datos, por lo general se emplea el modelo tradicional, RFM. Los criterios propuestos fueron:
● CLV
● Acceso al conocimiento del mercado(ACC)
● Percepción del riesgo asociado a cada cliente (riesgo)
● Frecuencia de compra (frecuencia).
2. Como paso siguiente se realiza el pre-procesamiento de los datos. Usaremos el lenguaje de programación R. En particular usamos el IDE R ANALYTIC FLOW, que es un IDE que desarrolla componentes visuales de flujo de trabajo para trabajar más cómodamente con muchos componentes. También trabajar con la librería ROUGH SETS, que contiene todos los elementos necesarios para procesar los datos que tenemos.
3. A continuación se genera una tabla de decisión empleando el componente creado Sf.Decisiontable. Una tabla de decisiones es un conjunto de reglas con el mismo conjunto de condiciones. La ventaja de tener la tabla de datos en este formato es que los demás componentes visuales trabajan con este tipo de sistema de información. Ya que tenemos esta tabla de decisión creada, obtuvimos la relación de indiscernibilidad de cada atributo (CLV,ACC,RIESGO,FRECUENCIA), usamos el componente visual BC.IND.relation.RST, los parámetros de este comando son la tabla de decisión que usamos y cual va a ser el atributo que queremos relacionar.
Como ya lo habíamos comentado, este tipo de sistema de información contiene mucha imprecisión, porque no tenemos información suficiente, por lo que tendremos que tener aproximaciones. La aproximación por defecto es un conjunto de todos los elementos de la tabla de decisión que pueden ser clasificados con certeza en el atributo seleccionado. Aproximación por exceso es conjunto de todos aquellos elementos que pueden ser clasificados como posibles elementos de un atributo seleccionado. Para tener estas aproximaciones usamos el componente BC.LU.approximation.RST, donde los parámetros serán la tabla decisión y la relación de indiscernibilidad del atributo que seleccionamos. Usamos 4 aproximaciones y las conectaremos con cada relación de indiscernibilidad.
También obtuvimos la región positiva de los 4 atributos, esto sirve para saber la calidad de la aproximación que estamos obteniendo. La región positiva se define como todos la unión de todos los elementos que pertenecen a la aproximación por defecto. El comando usado para obtener la región positiva fue BC.positive.reg.RST. Este comando también nos proporciona la calidad de la aproximación que se define como razón de la cardinalidad de la región positiva y la cardinalidad de la aproximación por exceso. Por último, obtendremos la matriz de discernibilidad para todos los atributos. Esto para establecer los reductos y obtener las reglas LEMS que nos dirán las reglas de clasificación de clientes en cuatro tipos: Bronce, Plata, Oro y Platino.
CONCLUSIONES
El grado de dependencia del atributo CLV con el atributo de Categoría es: 0.5
El grado de dependencia del atributo Frecuencia con el atributo de Categoría es: 0.12
El grado de dependencia del atributo ACC con el atributo de Categoría es:0
El grado de dependencia del atributo Riesgo con el atributo de Categoría es. 0.016
También se obtuvo un conjunto de 8 reglas para la clasificación de los clientes. Se describen a continuación:
1. Si CLV =2 y Frecuencia = 4 entonces la clasificación del cliente es Oro
El nivel de fiabilidad de esta regla es de 0.9375
2. Si CLV= 1 entonces la clasificación es Bronce
Nivel de fiabilidad=0.9538
3. Si CLV= 0 entonces la clasificación es Bronce
Nivel de fiabilidad=0.8929
4. Si riesgo.evaluado =3 y ACC=4 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9286
5. Si Frecuencia = 4 y CLV =3 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9508
6. Si CLV= 4 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9538
7. Si Frecuencia = 1 y CLV= 2 entonces la clasificación es Plata
Nivel de fiabilidad=0.8421
8. Si CLV = 3 y Frecuencia = 1 entonces la clasificación es Plata
Nivel de fiabilidad=0.625
Bibliografía
[1] Murat Köksalan & Jyrki Wallenius & Stanley Zionts, 2011. "Multiple Criteria Decision Making:From Early History to the 21st Century," World Scientific Books, World Scientific Publishing Co. Pte. Ltd.
[2] Fernando López, "Teoria de Rough Sets"
Corona Mindiola Omar Esteban, Universidad de Guadalajara
Asesor:Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PREDICCIóN DE HOMICIDIOS CON ARMA DE FUEGO UTILIZANDO REDES NEURONALES.
PREDICCIóN DE HOMICIDIOS CON ARMA DE FUEGO UTILIZANDO REDES NEURONALES.
Corona Mindiola Omar Esteban, Universidad de Guadalajara. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se utiliza una red neuronal para predecir los homicidios por arma de fuego en los 50 municipios más violentos de México, usando 17 delitos de la base de datos del Secretariado Ejecutivo como predictores, encontrados mediante la correlación que tienen con el delito principal (homicidios). Se logró estimar el número de homicidios en los últimos 4 meses disponibles con un error máximo de 0.25.
METODOLOGÍA
Se utilizaron los datos brindados por el gobierno, de parte del Secretariado Ejecutivo del Sistema Nacional de Seguridad Pública correspondientes a los datos abiertos de incidencia delictiva en el periodo de 2015-actualidad (https://www.gob.mx/sesnsp/acciones-y-programas/datos-abiertos-de-incidencia-delictiva?state=published).
Para la primera etapa, se utilizaron los años 2018 y 2019, uno como predictor y el otro para observar la relación que podría existir entre ambos. La forma en que se compararon fue: usando todo el año 2019 y a partir de él, usar un periodo de 12 meses diferido por 1 mes.
El primer filtro para escoger los posibles predictores fue calcular la correlación entre los homicidios cometidos con arma de fuego y los 98 delitos reportados, con un mes de desfase. Seleccionamos solo los que cumplen una correlación mayor o igual a ±0.5, para esto se usó la función cor.test mediante los métodos "pearson y kendall", todo esto aplicado a datos normalizados dividiendo entre el valor máximo de cada delito en el rango de tiempo considerado, así todos los valores estarán en el rango de [0,1].
Luego de observar que varios delitos cumplían con la condición impuesta se procedió a comparar todos los municipios y agruparlos por estados para ver las semejanzas entre estos. Para esto se hizo un histograma de frecuencias que tomaba el número de veces que un delito se correlacionaba con los homicidios en los diferentes municipios del estado.
Usando clustering del tipo K-means se procedió a organizar los delitos en 5 grupos de posibles predictores. Los valores de entrada a la función k-means corresponden al data.frame que contiene las densidades de delitos en cada estado, de esta manera el algoritmo trata de buscar las semejanzas que existen entre los 98 delitos y regresarnos de esta manera 5 subconjuntos de delitos.
De estos grupos, se escogió el clúster que contuviera el delito número 1, es decir, los homicidios dolosos con arma de fuego.
Teniendo seleccionados el conjunto de delitos que se usaran como predictores,lo siguiente fue crear un data.frame que nos serviría para entrenar una red neuronal y a la vez para ponerla a prueba. El contenido de ese data.frame fueron los 54 meses que tenemos disponibles hasta la actualidad, diferidos respecto a un mes los delitos y los homicidios cometidos con arma de fuego. Se usaron los primeros 50 meses como datos de entrenamiento y los 4 restantes como prueba de nuestra red. La red neuronal fue creada con la función neuralnet, que utiliza el método de retropropagación para calcular las salidas de la red.
Dado este punto, es importante mencionar el número de neuronas que se incluyeron en esta red. Para esto, se hicieron 4 pruebas, una red con 4 capas de neuronas y otra con 5, que a su vez se aplicaron a una red con una columna temporal y otro sin esta.
El agregado de esta columna es porque como la red realiza predicciones solo con valores de un mes anterior, se pierde información relacionada a tendencias a través del tiempo que podría ser relevante. Dicha columna corresponde a la enumeración de los meses usados.
Utilizando gráficas de tipo violín para los errores de estas redes, se determinó la configuración de la red que tuviera un menor error.
En todas las gráficas se trabajó con el error absoluto medio, aplicado a los resultados normalizados.
La configuración con una columna temporal y 5 capas de neuronas da mejores resultados, pues la masa de densidad en los errores es más común en valores cercanos a 0.
La manera que devolvió mejores resultados al escoger los números de neuronas en cada capa escapa de momento a este proyecto por lo que se decidió hacerlo de tal forma que fuera como el vector siguiente (34,17,9,5,1),que corresponde al doble del número de delitos utilizados y luego disminuyendo por la mitad hasta llegar a 1.
En la primera propuesta se tomo en consideración los delitos y su correlación temporal, sin embargo estos fenómenos de crimen y violencia tienen una dimensión territorial importante, para considerarla integramos como predictores datos de municipios vecinos que pudieran compartir alguna relación. Para escoger dichos vecinos lo que se hizo fue comparar entre los 50 municipios principales y sus municipios adyacentes, la correlación entre los 17 delitos que ocurren en el municipio principal y los adyacentes, seleccionando aquellos en los que se encontraba una correlación más alta, siempre mayor a 0.7.
Teniendo las adyacencias, lo único que se hizo fue agregar los delitos de los municipios vecinos a nuestros datos de entrenamiento en una nueva red y comparar mediante gráficas de tipo violín, si las predicciones eran mejores o no. Por ello algunos resultados de varios municipios fueron tomados de sus datos individuales.
Se selecciona la red que entrega el mejor resultado después de haberla entrenado 10 veces, esto porque decidimos trabajar con pesos iniciales generados aleatoriamente.
CONCLUSIONES
La red neuronal que contiene una columna temporal funciona mejor al momento de realizar predicciones. De igual forma, agregar datos de municipios vecinos, disminuyó (en su mayoría) el error absoluto medio de los resultados.
Se encontraron 17 delitos que sirven muy bien en algunos de estos municipios para predecir los homicidios con arma de fuego. Dichos delitos pueden servir como una alarma para las autoridades y reducir de esta forma la violencia en estos municipios.
Siendo esta la primera aproximación que se realiza por nuestra parte para intentar predecir homicidios en el país, encontramos resultados bastante satisfactorios. Sin embargo, estamos conscientes de que la metodología utilizada se puede mejorar, por ello, se tiene pensado en un futuro trabajo, donde se cambie la manera en que se seleccionen los posibles predictores, usando métodos más especializados y consistentes que las pruebas de correlación.
https://github.com/iOmaR-Corona/Verano_Delfin (Incluye pdf con imágenes y resultados)
Couoh Gomez Maria Alondra, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
EVALUACIóN DEL CAUDAL DE PLAYA ESMERALDA UBICADA AL NORTE DEL MUNICIPIO DE SOLIDARIDAD, QUINTANA ROO
EVALUACIóN DEL CAUDAL DE PLAYA ESMERALDA UBICADA AL NORTE DEL MUNICIPIO DE SOLIDARIDAD, QUINTANA ROO
Couoh Gomez Maria Alondra, Consejo Quintanarroense de Ciencia y Tecnología. Rivero Díaz Diana Marlene, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En muchos de los casos cuando se realiza un proyecto se evalúa la zona de estudio, sin embargo no en todas las situaciones se hace una investigación exhaustiva que examine hasta qué punto se puede confiar en que una fuente sea utilizable durante un período de varios años. Por ello la falta de información hidrológica que deriva del desinterés y dado que playa del carmen se encuentra entre las zonas turísticas más importantes del país, es de fundamental importancia realizar una caracterización del sitio de la playa punta esmeralda por posible afectación del medio proveniente de actividades antropogénicas.
METODOLOGÍA
Material y equipo
Correntómetro
Varillas de madera
cronómetro
Multiparamétrico
CTD
Procedimiento
Identificación y delimitación del área de estudio
Se realizó visita del lugar para delimitar la zona de estudio e identificar las nacientes con mayor flujo a lo largo de la extensión del canal, ya que esta tiene una salida al mar , misma en la que se puede apreciar la pluma de descarga entre la mezcla de agua dulce proveniente del cenote y el agua de mar con altos niveles de salinidad.
La zona de estudio cuenta con 2,351 m2 y el largo del canal mide 72m2
Ubicación de los transectos
Durante el periodo de un mes se dividió el canal en dos transectos a lo largo del canal y estos a su vez en segmentos de 50 centímetros , de tal manera que permitiera la medición del caudal.
El transecto denominado Entrada B se ubicaba a 30 m de la salida al mar.
El transecto denominado Azul marino se encontraba a 15 metros aproximadamente de la salida al mar dado que se consideró con mayor velocidad por lo angosto del área transversal.
Mediciones del caudal
Se colocó el correntómetro en las secciones de 50 centímetros posicionado en contra del flujo para poder tener una lectura lo más certera posible.
Se tomó nota de las vueltas que realizaba el correntómetro en un periodo de 40 segundos. Lo anterior se repitió en cada segmento a lo largo de cada transecto.
Mediciones de CTD
Las mediciones que se realizaron con el CTD fueron para obtener especialmente datos de salinidad con respecto a la profundidad , por lo que estos datos se tomaron aproximadamente en el mismo horario que se hacían las mediciones del caudal para saber cómo variaba con respecto al flujo volumétrico.
Se tomaron mediciones de salinidad en el cenote, en las nacientes con mayor flujo, a lo largo del canal y en el mar a un radio de 15 metros.
Mediciones de pH
Por otro lado, las mediciones de pH de igual manera se realizaron a lo largo del canal, en el cenote principal , en las nacientes y en el mar con un radio de 15 metros , se realizó una toma.
Los resultados en cuestión de la salinidad a pesar de que resultaron ser los datos que se esperaban por la combinación entre el agua salada y el agua dulce, se reafirmó que conforme la distancia era mayor y más cercana al mar los valores de salinidad aumentaban, sin embargo dentro del mar se identificaron ojos de agua que tienen conexión con los cenotes del área , por lo tanto al introducir el CTD se observó cómo descendían estos valores notablemente con la profundidad.
CONCLUSIONES
A lo largo del verano en la modalidad estancia virtual se logró adquirir conocimientos teóricos - prácticos por lo que se llevaron a cabo estudios de caracterización en Playa Esmeralda ubicada al norte de la ciudad de Playa del Carmen como la del caudal, pH, batimetría, por lo que en este sitio no se habían realizados estudios previos. No obstante, la actividad antropogénica tales como las actividades de recreación por la alta afluencia turística afectan considerablemente en los datos del caudal, ya que la velocidad es una de los principales parámetros físicas que presenta mayor variabilidad. Sin embargo, los estudios se realizaron en Julio y Agosto por ello al ser un proyecto extenso se requiere como mínimo 6 meses para poder demostrar el comportamiento del canal a lo largo de las estaciones del año.
Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
Bojórquez Vega Leslie Maribel, Universidad de Sonora. Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla. Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Una de las más grandes interrogantes de la humanidad es el origen del universo. De los primeros en dar una respuesta a ello fue Demócrito (siglo V a.C.), él expresó la idea de que toda la materia estaba formada por muchas partículas pequeñas e indivisibles. En su teoría, el universo estaba conformado por átomos y vacío. Al paso del tiempo, en 1804, Dalton interpreta que los átomos son indivisibles, pero distintos para cada elemento químico. A partir de entonces se empezó a poner más atención a la composición del universo, llegando con el tiempo la creación de la tabla periódica, rayos x y muchos experimentos que fueron remodelando la idea que tenía demócrito, descubriéndose así partículas más elementales y llegar al Modelo Estándar de Partículas, este describe a las partículas subatómicas, sus propiedades, y sus interacciones. El Modelo Estándar es en la actualidad la referencia en física de altas energías para la observación y medición de nuevas partículas, sin embargo se considera posible la existencia de partículas más allá de este modelo, las cuales pueden dar respuesta a predicciones teóricas no observadas y fenómenos no explicados por el Modelo Estándar, cuyo entendimiento y estudio yace en nuevas teorías. Un ejemplo de estos fenómenos no explicados son: La gravedad cuántica, la materia y energía oscura, la masa del neutrino, la simetría materia-antimateria entre otros. Algunas de estas teorías Más Allá del Modelo Estándar son los modelos de supersimetría, teoría de la Gran Unificación, Gravedad Cuántica de Bucles, Teoría M y modelos de cuerdas. Para comprobar estas teorías, se necesitan construir nuevos laboratorios como el Futuro Colisionador Circular (FCC). Sin embargo, los costos de construcción de nuevos laboratorios son muy grandes y el tiempo de desarrollo de estos es largo, es por eso que se hace uso de herramientas de simulación para determinar con exactitud la arquitectura y diseño de nuevos detectores capaces de medir observables y así confirmar la existencia de nueva física. En las primeras semanas de la estancia, nos centramos en la parte teórica de la física de partículas y altas energías adentrándonos en temas como: Antecedentes históricos, introducción a física de partículas y altas energías, aceleradores y detectores de partículas, obtención y procesamiento de datos obtenidos. También se realizó una introducción a temas en el área de la física de partículas y altas energías de particular interés en años posteriores; nuevos colisionadores, necesidades de desarrollo tecnológico etc. Una vez que se comenzó a aterrizar en estos temas, se formaron equipos que empezaron a trabajar en simuladores de aceleradores, detectores, observables, etc.
METODOLOGÍA
Nuestro equipo participa en la simulación de detectores de partículas para lo cual se usaron recursos virtuales como el sistema operativo Ubuntu. Se instalaron programas como Geant, Root, Fairsoft y Fairroot. Previo a su instalación, se descargaron e instalaron todas las dependencias y librerías necesarias, se otorgaron permisos, se aplicaron parches y se definieron variables de entorno. El asesor brindó ayuda técnica durante el proceso y se hizo uso de plataformas de asesoría en foros del CERN, documentación sobre ROOT, y páginas oficiales del software para resolver problemas de instalación. Después, se procedió a correr ROOT y ejecutar el Tutorial 1, consistente en implementar un detector simple de partículas usando una interfaz ASCII y generar 10 eventos de piones usando Geant3. Usando el navegador implementado en ROOT, se estudió la estructura de los archivos .root. Estos archivos preservan no solo la información de la simulación, sino también la semilla con la que se genera la simulación por métodos Monte Carlo, la geometría del detector, las observables físicas de las partículas como lo son masa, energía, número de eventos, momento en los distintos ejes coordenados, los encabezados de la simulación, y más importante aún, se preserva la estructura del archivo en forma de árbol, para así poder estudiar la información sin necesidad de implementar o establecer de nuevo los programas, así como de acceder a la información de manera eficiente. Se procede a modificar el tutorial 1, cambiando el número de eventos, esta vez usando Geant4. Se analizan los distintos cambios entre las dos versiones de Geant y se crea un macro para leer la información. El tutorial 2 consiste en la simulación de un detector simple, leer los datos de la simulación, parámetros de digitalización y crear los datos digitalizados. Posteriormente se estudian estos datos, y se modifica el tutorial aumentando el número de eventos, y se usa Geant4. Finalmente, el tutorial 4 usa la geometría de ROOT como entrada de datos para un detector, esta se guarda en un .root desde un macro y es leído por las clases del detector desde el simulador.
CONCLUSIONES
ROOT es una versátil herramienta para simulaciones, así como preservar la estructura de experimentos en forma de árbol, visualizarla y modificarla fácilmente a través de su interfaz, o crear macros para leer información de nuestro experimento. Sin embargo, para manipular este y otros software se debe tener experiencia en lenguajes de programación como C y C++, así como de la estructura de los archivos .root y su sintaxis; y también sobre manejo de linux para la interpretación de problemas y errores que se presentan en la descarga e instalación de programas. Se seguirá trabajando en el desarrollo del plástico centellador capaz de detectar partículas, pues se necesitan buenos conocimientos en los lenguajes de programación mencionados anteriormente. La versatilidad de esta herramienta es útil para el diseño de nuevos detectores, así como mejoras y optimizaciones en los modelos de partículas existentes. Esto es de utilidad para predecir teóricamente la existencia de nueva física de partículas, que puede ser corroborada en un futuro por los nuevos laboratorios en construcción.
Cruz Albarran Jerson Isaac, Instituto Tecnológico de Ciudad Altamirano
Asesor:M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
DESARROLLO DE UNA APLICACIóN MóVIL PARA MEDICIONES EN EL MEDIO AMBIENTE.
DESARROLLO DE UNA APLICACIóN MóVIL PARA MEDICIONES EN EL MEDIO AMBIENTE.
Cruz Albarran Jerson Isaac, Instituto Tecnológico de Ciudad Altamirano. Asesor: M.C. María del Carmen Santiago Díaz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El creciente número de incendios en la zonas verdes del planeta ponen en riesgo a todos los seres que dependen de ellas para subsistir. Por ahora se ha desarrollado una propuesta experimental, la creacion de mini laboratorios capaces de recoger datos ambientales y ser procesados para el único fin de prever un accidente en el ecosistema. Para llegar a este fin, se diseño y desarrollo una aplicación móvil para dispositivos con un sistema operativo Android, los datos que recoge la aplicación son ubicación rectangular (latitud y longitud) y temperatura en tiempo real del entorno. El resultado de esto, es una aplicación estable la cual opera de forma funcional y sin ningún problema.
METODOLOGÍA
El desarrollo de esta aplicacion consta de 6 etapas.
Etapa 1. Modelado y diseño. Se creó un diagrama de flujo con el cual se establecieron las operaciones que realizará la aplicación y un modelo de wireframe para la interfaz de cliente.
Etapa 2. Elección de entorno de desarrollo. Basado en una investigación previa y análisis de herramientas y ventajas sobre el proyecto, el mejor entorno que se escogio fue MIT App Inventor, ya que consta de una curva de aprendizaje baja y la entrega de la aplicacion es de un peso ligero.
Etapa 3. Desarrollo. En App Inventor se diseña primeramente la interfaz, esta consta de los contenedores, variables y un mapa con un marcador de posicionamiento. Con respecto al código, sus principales elementos son condicionales que funcionan en el cambio de posición y temperatura.
Etapa 4. Pruebas. App Inventor cuenta con un depurador y compilador para la fase de pruebas.
Etapa 5. Retroalimentacion. Una vez realizadas las pruebas la asesora contribuyó en algunos de los cambios en cuanto a la funcionalidad de la aplicación.
Etapa 6. Entrega e instalación. Ya hechos los cambios necesarios, se generó la APK a través del navegador en la aplicación web de App Inventor y ésta se transfirió al smartphone donde se instaló y probó, dando como resultado la obtención de datos exitosos.
CONCLUSIONES
El trabajo se ha unificado a partir de diferentes tecnologías y conocimientos dando como resultado un producto cercano a lo esperado, una aplicación móvil segura capaz de recoger los datos del entorno (temperatura y ubicación) y enviarlos a un procesamiento, con el fin de determinar zonas de alto riesgo de incendio. Por ahora, la aplicación puede ser instalada sin ningún problema en un dispositivo con sistema Android como se tenía planeado y correr exitosamente.
Espero que en un futuro muy cercano se obtengan muchos más datos, con una mejor presición y que con estos se reduzca el número de casos de desastres naturales.
De forma general considero que este proyecto servirá en gran manera en un futuro muy cercano, teniendo en cuenta sus aplicaciones y la creciente preocupación por el entorno, además de no contar con algún costo, presenta una interfaz bastante sencilla y es un software que no necesita estar abierto para ejecutarse, claro está que, al ser instalado por primera vez, debe de abrirse y ejecutarse.
Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla
Asesor:Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla. Nandi Tule Pedro Daniel, Universidad Autónoma de Guerrero. Ruiz Jimenez Jairo Ismael, Instituto Tecnológico del Valle de Morelia. Asesor: Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
PLANTEAMIENTO DEL PROBLEMA
La necesidad de comprender en forma integral el comportamento de los lagos asociada al acelerado desarrollo de tecnología automatizada para la medida simultánea de múltiples variables ambientales, genera gran cantidad de datos que deben manejarse y analizarse. Este es el caso del embalse Urrá (Córdoba-Colombia), donde su monitoreo en tres puntos a diferentes profundidades, a lo largo de 20 años ha generado una gran cantidad de información que requiere ser analizada, validada y depurada con la finalidad de extraer de ella el máximo beneficio posible y evitar la toma de decisiones equivocadas por su uso sin el tratamiento adecuado. En este contexto, en el XXV Verano de la Investigación Científica y Tecnológica del Pacífico 2020, realizada en la Universidad Pontificia Bolivariana-Seccional Montería, se buscó generar una base de datos útil para el modelamiento de la dinámica de mezcla a largo plazo correspondiente al período 2000 -2016 en el embalse Urrá, Córdoba-Colombia, a partir de información medida en campo.
METODOLOGÍA
Se realizó el reconocimiento de la estructura y contenido de la base de datos original. Ella estuvo constituida por información medida en campo para la calidad del agua del embalse Urrá en el período 2000-2016. Las variables incluidas fueron: fecha y hora de muestreo, profundidad, pH, temperatura y oxígeno disuelto. A partir de ella se generó una base de datos intermedia reducida, en la que se contempló un sólo día de muestreo mensual. El día y hora de muestreo seleccionado para la creación de esta base de datos reducida fue aquél en el que se observó la menor carencia de información. Con base en ella se construyeron gráficos de dispersión -variable de campo versus tiempo-. Ellos se analizaron visualmente para detectar valores extremos o fuera de rango. Los datos erróneos se corrigieron por imputación del valor medio del parámetro correspondiente a la variable y profundidad de medida. Se construyeron mapas de distribución espacio-temporal en la vertical para la temperatura. Ellos se analizaron para determinar la dinámica de mezcla.
CONCLUSIONES
El día y hora seleccionada para crear la base de datos reducida fueron los siguientes: 8:00 a.m., o la hora más cercana a ella; y día 6 de cada mes, o el más cercano a él. Se encontraron pocos valores extremos o fuera de rango en esta base de datos. En términos generales, los mapas de distribución espacio-temporal revelan una termoclina permanente. Ella se ubica a profundidades entre 3.5 m y 7.5 m. A profundidades mayores el agua al interior del embalse parece mezclarse por períodos de tiempo aproximados de de dos meses. El trabajo desarrollado permitió generar una base de datos reducida con defectos no perceptibles en mapas de distribución espacio-temporal. Ello hace suponer que una depuración más refinada de esta base de datos podría utilizarse en el modelamiento matemático de la dinámica de mezcla a largo plazo del embalse Urrá, Córdoba-Colombia.
Cuatetl Coyotl Diana Laura, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
ENSEñANZA MATEMáTICA: MéTODO BASADO EN PROBLEMAS Y MéTODO DE CASOS
ENSEñANZA MATEMáTICA: MéTODO BASADO EN PROBLEMAS Y MéTODO DE CASOS
Cuatetl Coyotl Diana Laura, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Muchos estudios han mostrado que la enseñanza tradicional no es eficiente, de ahí el hecho de que se requiera implementar nuevos métodos de aprendizaje que se basen en el alumno y en los que se fomente el aprendizaje activo, es decir, en donde el alumno se involucre en el proceso de aprendizaje.
METODOLOGÍA
Se investigaron las diferentes técnicas y métodos de enseñanza aprendizaje existentes, se hizo una tabla comparativa para determinar las características que cumplía el docente y el alumno en el proceso de enseñanza aprendizaje, luego, se eligieron dos métodos, a saber, el método basado en problemas y método de casos, con la finalidad de implementarlos a alguna materia de matemáticas superiores, en específico, álgebra lineal y estadística.
Se diseñó un plan de trabajo para implementar el método basado en problemas, en el cual se plantearon dos problemas en video y en escrito, sobre el tema de espacios y subespacios vectoriales de álgebra lineal, así como los temas de estadística; distribución de frecuencias, frecuencia relativa, frecuencia absoluta y gráfica de ojiva.
Además se trabajó con el método de casos al trabajar con un problema de estadística aplicada, para la validación de una encuesta, así como un problema de aplicación matemática para el análisis del funcionamiento de un calentador solar.
Finalmente, se trabajo con problemas aplicados al álgebra lineal, límites, derivadas y continuidad.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos y/o prácticos de las técnicas y métodos de enseñanza-aprendizaje, así como dar solución a problemas de matemáticas aplicadas.
Dado que solo se diseño el plan de trabajo para implementar el método basado en problemas, aún no se tienen resultados donde se evalúen los conocimientos adquiridos por los alumnos, así como, su relación con los objetivos propuestos para cada uno de los temas a aprender.
Sin embargo, al realizar los problemas de matemáticas aplicadas a la vida real me permitieron fomentar mi auto-aprendizaje y así determinar qué sabía, qué debía investigar, qué herramientas debía utilizar, por dónde debía comenzar a solucionar el problema, etc., y de este modo lograr la solución del problema planteado.
Cueva Contreras Irma Julieth, Universidad Católica de Manizales
Asesor:Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas
ESTUDIO DE LA VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN LA COBERTURA DE PINO ROMERÓN (RETROPHYLLUM ROSPIGLIOSII PILGER ) EN EL CTT DE LA GRANJA
ESTUDIO DE LA VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN LA COBERTURA DE PINO ROMERÓN (RETROPHYLLUM ROSPIGLIOSII PILGER ) EN EL CTT DE LA GRANJA
Cueva Contreras Irma Julieth, Universidad Católica de Manizales. Marín Toro Manuela, Universidad Católica de Manizales. Asesor: Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas
PLANTEAMIENTO DEL PROBLEMA
¿Cuál es la relación de la variabilidad espacial del contenido de materia orgánica y ph del suelo en cobertura del pino romerón (Retrophyllum Rospigliosii . Pilger ) en el CTT de la granja?
METODOLOGÍA
El estudio consiste en tres etapas, se inicia con la fase exploratoria, luego descriptiva y se finaliza con la predictiva. Las actividades desarrolladas en la metodología fueron las siguientes.
1.Sobrevuelo con equipo Dron Dji Phantom 4 V2.0 para levantamiento de orto fotos a detalle sobre las coberturas del CTT la granja.
2. Muestreo de suelo, levantamiento de cuadrícula, mediante el método Zopo; las cuadrículas están a 60 m de distancia y cada cuadrícula representa una unidad de muestreo y se levantaron 100 unidades de muestreo con 900 submuestras en toda el área del CTT la granja. Con una intensidad de muestreo de 21,16 % más que representativo para este tipo de estudio.
3. Construcción de mapa temáticos con curvas a nivel de 2m, a partir del programa arcGis
4. Levantamiento de muestras para análisis de laboratorio de MO, pH, Textura, Elementos mayores y menores.
5.Cálculos estadísticos para construcción de semivariogramas para construcción de mapa de calor de la fertilidad del suelo.
CONCLUSIONES
El proyecto no se puede concluir por cuanto la investigación sigue en marcha.
Este proyecto contribuye al consumo responsable (ODS 12) , en cuanto a la agricultura de precisión, generando retos para hacer más eficiente el uso de insumos, por ello, tal como lo indican muchos estudios desde la agroforestería ,se debe realizar buenas prácticas de producción de alimento desde los sistemas agroforestales y silvo pastoril, asociando árboles con cultivo y ganadería ecológica.
Se tiene documento para la construcción de línea base que sirve de referente para nuevos estudios a nivel de unidades de producción campesina en la cuenca media baja del municipio de Pensilvania (Caldas).
En el presente estudio se realizó como levantamiento de información primaria la caracterización de cobertura y levantamiento de unidades de muestreo de 4,96 % para toma de muestras de campo correspondiente a 1,235366 ha.
Como experiencia del verano virtual se logró compartir los conocimientos del grupo y la destreza de los docentes investigadores como elemento clave en los procesos de investigación, permitiendo crecer en nuestra formación profesional y buscar propuestas futuras como en la agricultura de precisión y silvicultura.
El proyecto actual logra un gran aporte al desarrollo económico y cultural de la región, al proveer información que ayude a mejorar las condiciones de crecimiento y maduración del Pino Romerón para su posterior aprovechamiento y conservación.
Las variables de materia orgánica y pH para la cobertura de Pino Romerón, según los resultados cuentan con un pH ácido (5,15) y un contenido de materia orgánica de (20,5%).
Damian Elizondo Lizeth Abigail, Instituto Politécnico Nacional
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
BúSQUEDA DE ESTRATEGIAS DIDáCTICAS PARA LA ENSEñANZA DE LAS MATEMáTICAS. EN ESPECíFICO: TEOREMA DEL BINOMIO
BúSQUEDA DE ESTRATEGIAS DIDáCTICAS PARA LA ENSEñANZA DE LAS MATEMáTICAS. EN ESPECíFICO: TEOREMA DEL BINOMIO
Damian Elizondo Lizeth Abigail, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las Matemáticas pueden llegar a ser complicadas y difíciles de entender.
Esto está directamente relacionado con el entusiasmo y las ganas de aprender, sin embargo desde muy pequeños siempre nos han dicho que las matemáticas son complicadas y no son para todos. Las fórmulas que nos enseñan y los procedimientos, generalmente son complejos y por ello también es una de las ciencias con más índice de reprobados en México.
El teorema del binomio nos ayuda a desarrollar las potencias de un binomio, a pesar de ser una fórmula que debe de facilitarnos su desarrollo, es una formula un poco compleja que conjunta conocimientos de diferentes ramas de las matemáticas, para los alumnos y para algunos maestros es complejo aprenderlo y enseñarlo, por ello diseñamos las analogías correspondientes a este tema buscando facilitar su aprendizaje.
METODOLOGÍA
Este teorema nos dice principalmente que al elevar ese binomio a n potencia va a ser igual a la suma de la combinatoria de n y r (que inicia desde 0) por a elevado a la n-r por b a la r.
En el desarrollo de los binomios podemos observar que siempre se cumple lo siguiente:
El número de términos del desarrollo de (x+y)n es n+1 (hay un término más que el exponente)
El primer término del desarrollo es xn
El exponente de x disminuye en 1 y el exponente de y se incrementa en uno, cuando se pasa de un término a otro.
El coeficiente del primer término es 1 y el del segundo es n.
Para hallar el coeficiente de cualquier término, se multiplica el coeficiente del término anterior por el exponente de x y se divide por el exponente de y más 1.
El último término es yn.
En todos los libros y bibliografía consultada, aparece una misma fórmula que para la mayoría de estudiantes resulta sumamente complicada de entender y aplicar. Por lo que, en este trabajo, proponemos como estrategia didáctica el uso de analogías que puedan ser fáciles de entender para la mayoría de alumnos. Un avance de esto es buscar una analogía para las variables de tal manera que tengan un significado más simple para los alumnos.
CONCLUSIONES
Al investigar el teorema del binomio en varias fuentes bibliográficas incluso en francés no encontramos formas adicionales para poder enseñar este tema. Así que proseguimos con la investigación de formas didácticas para poder enseñar las matemáticas y posteriormente proponer una serie de analogías para el teorema del binomio, con el objetivo de mejorar el aprendizaje y de esta forma facilitar la comprensión a l@s alumn@s al utilizar la fórmula.
Con los resultados finales se pretende escribir y publicar un artículo de divulgación donde colaboraré con dos investigadoras.
de Jesus Bernal Set Benjamin, Universidad Autónoma de Guerrero
Asesor:Dra. Rosario Vázquez Morales, Universidad Nacional Autónoma de México
DISEñO DE CARTOGRAFíA DIGITAL PARA LA ELABORACIóN DE UNA GUíA DE CAMPO GEOLóGICO - BIOLóGICA DEL ESTADO DE QUERéTARO
DISEñO DE CARTOGRAFíA DIGITAL PARA LA ELABORACIóN DE UNA GUíA DE CAMPO GEOLóGICO - BIOLóGICA DEL ESTADO DE QUERéTARO
de Jesus Bernal Set Benjamin, Universidad Autónoma de Guerrero. Asesor: Dra. Rosario Vázquez Morales, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La enseñanza de las Ciencias de la Tierra depende en gran parte del trabajo de campo, ya que el estudio de la historia geológica y evolución tanto del planeta como de todos los seres vivientes y plantas que los habitamos no puede comprenderse mejor que a partir de la observación y el análisis de las evidencias que se encuentran en la naturaleza. No obstante, los académicos encargados de proporcionar este aprendizaje en las aulas de clase muchas veces no cuentan con las herramientas didácticas necesarias para integrar lo aprendido en clase, con la información que los alumnos pueden observar en campo. Para que el conocimiento se vuelva significativo, el docente debe tener en cuenta los conocimientos previos de los estudiantes, en muchos casos tomados del sentido común, que suelen ser resistentes a los nuevos conocimientos, además que no son pocas las dificultades que el docente encuentra a la hora de trabajar. Es por eso por lo que, el proyecto PE110020, del cual fui partícipe, consiste en el diseño e integración de una guía de campo que reúna información sobre la diversidad geológica y biológica del Estado de Querétaro, para fines didácticos en la docencia de Ciencias de la Tierra.
METODOLOGÍA
Mi contribución dentro del proyecto PE110020, consistió en realizar un análisis de la información existente y recolectada en campo de dos sitios de interés geológico-biológico que se incluirán en la guía de campo: El Volcán La Joya y la Caldera de Amealco, ambos pertenecientes la región Fisiográfica del Eje Neovolcánico. Esto con el fin de hacer una síntesis de las características más importantes de ambos sitios y que tuvieran la relevancia académica, para ser incluida en el documento de la guía. Además de esto, también se analizó e integró información cartográfica a diferentes escalas, a partir del uso del Sistema de Información Geográfica (SIG) ArcGIS, para diseñar el mapa general de la guía, en el que se incluyeron los puntos de localización geográfica de los 6 sitios de interés seleccionados para el proyecto, así como las rutas para llegar a los mismos, datos fisiográficos, modelo digital del relieve topográfico del estado y otra información espacial de interés para el mejor entendimiento de los usuarios finales del mapa y de la guía. Asimismo, se diseñaron otros dos mapas a detalle de los sitios analizados en un principio (La Joya y Caldera de Amealco), en el que se integró además información sobre las unidades geológicas más importantes y la relación de éstas con el tipo de vegetación desarrollada. Se prevé además que en un futuro, se pueda anexar también información relacionada a la metodología de la toma de muestras geológicas de roca y muestreo de plantas.
CONCLUSIONES
El uso de diversas herramientas digitales, tales como los SIG, en conjunto con el análisis de la información teórica y datos recopilados en campo, permitió el diseño y la integración de tres mapas prototipo que serán integrados a la guía de campo final obtenida como resultado del proyecto PE110020. Estos mapas fueron diseñados para fines didácticos y prácticos de enseñanza y aprendizaje en el área de las Ciencias de la Tierra, así como también la síntesis de la información para dos de los seis sitios escogidos para la guía. Se espera que se puedan realizar más campañas de campo para poder obtener más información actualizada que pueda ser integrada al documento final de la guía, y con la que se puedan seguir diseñando los mapas a detalle de los cuatro sitios restantes que faltan por ser descritos en la guía. Al ser estancia de manera virtual, se creó mayor independencia en el desarrollo de mi trabajo y amplió mi curiosidad por investigar, también adquirí conocimientos en técnicas de análisis y procesamiento de datos espaciales en ArcGIS, adicionalmente un método para calcular el volumen aplicado en el área de la reconstrucción de paleo-topografía.
de Santos Flores Iñaki, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
EL PENSAMIENTO VISUAL Y SU RELEVANCIA EN LA ENSEÑANZA Y APRENDIZAJE DE LA MECÁNICA BÁSICA: DIAGRAMAS DE CUERPO LIBR
EL PENSAMIENTO VISUAL Y SU RELEVANCIA EN LA ENSEÑANZA Y APRENDIZAJE DE LA MECÁNICA BÁSICA: DIAGRAMAS DE CUERPO LIBR
de Santos Flores Iñaki, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
En cualquier curso de Mecánica Básica se enfrenta el problema de hacer comprender a los alumnos conceptos físicos de forma que sean fácilmente entendibles y los efectos que estos tienen sobre algún objeto o conjunto de objetos. Una forma mediante la cual se hace este trabajo con los estudiantes son los diagramas de cuerpo libre.
Con estos diagramas, se pretende que el estudiante analice una situación física de forma visual y comprensible. Y aunque suelen ser relativamente sencillos de construir, una comprensión visual profunda del diagrama lleva a un análisis coherente y claro, mientras que una comprensión superficial puede llegar a complicar los cálculos e incluso a la confusión de conceptos físicos. Actualmente, este es un tema abordado por varios investigadores como Linuwih, Asih & Ellianawati (2019), ‘Iffa, Supriana & Sutopo (2020), entre otros, donde se concluye que la construcción de diagramas de cuerpo libre es un proceso que apoya al aprendizaje de conceptos físicos. Mešić, Mahmutović, Hasović & Erceg (2016) proponen que, al enseñar, se evite presentar diagramas ya hechos, pues lo importante es mostrar a los estudiantes el proceso de creación de estos.
Esta temática también fue discutida en la reunión de la Asociación de Profesores de Física de Ohio y Michigan, Estados Unidos (2019). En esta reunión se trataron formas de presentar y construir estos diagramas de manera que los estudiantes pudieran comprender el sentido físico de estos.
Este tema resulta de particular importancia, pues constituye la base de una buena comprensión de los sistemas mecánicos y, por lo tanto, de gran parte de la Física. El buen manejo de los diagramas de cuerpo libre puede llevar a una mejora en el rendimiento académico de los estudiantes, así como a un buen desempeño profesional. En el presente proyecto se asume el siguiente problema de investigación: ¿cómo favorecer el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en la mecánica básica en los estudiantes de segundo semestre de Física de la BUAP?
Se plantea como objetivo de la investigación elaborar una metodología, basada en el pensamiento visual y la resolución de problemas, para favorecer el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en la mecánica básica.
En aras de dar cumplimiento al objetivo y lograr resolver el problema planteado, así como para guiar el curso del proyecto se proponen las siguientes tareas de investigación:
Determinar el estado del arte (antecedentes) sobre el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en la mecánica básica en estudiantes de segundo semestre de Física.
Determinar el marco teórico sobre el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en estudiantes de segundo semestre de Física.
Elaborar una metodología para favorecer el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en estudiantes de segundo semestre de Física
Analizar los resultados de la implementación de la metodología.
METODOLOGÍA
En el presente trabajo se asume un enfoque de investigación cualitativo, con un diseño de investigación acción. Este diseño … constituye un proceso de reflexión-acción-cambio-reflexión, por y para el mejoramiento de la práctica del docente, mediante la participación activa de este, dirigido a superar los problemas y las necesidades del aula, la escuela y la comunidad, posibilitando el diálogo entre teoría-práctica-teoría (Minerva, 2006, p. 116). La investigación-acción aplicada a los diagramas de flujo propicia la experimentación, búsqueda y exploración del contenido de mecánica básica, que a la vez estimule y permita el desarrollo del pensamiento lógico, importante en todo este proceso
Durante el proceso investigativo se aplican instrumentos como observación participante y entrevista a especialista con el objetivo de diagnosticar el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en los estudiantes de segundo semestre de Física. La población son los estudiantes de Física de la BUAP y la muestra los estudiantes del segundo semestre de la carrera de Física.
Para el desarrollo de la investigación se asumen cuatro fases: fase 1, diagnóstico y preparatoria; fase 2, trabajo de campo; fase 3, analítica; fase 4, informativa.
Se propone una metodología con énfasis en el análisis visual consistente de los siguientes pasos: representar el objeto a tratar mediante un punto o un dibujo (dependiendo de la conveniencia visual), identificar las fuerzas aplicadas al objeto, establecer un sistema de referencia conveniente en el que la mayor cantidad de fuerzas se puedan tratar como unidireccionales mediante la rotación mental del diagrama, e identificar ángulos importantes. Luego, se debe determinar si existen fuerzas que se cancelen entre sí para poder quitarlas del diagrama y del análisis, descomponer las fuerzas en componentes, buscar triángulos congruentes mediante la extensión de las líneas de fuerza, alterar las condiciones del problema para identificar qué cambios tendría esto en las fuerzas y establecer relaciones entre cantidades, aplicar la segunda ley de Newton en componentes y sumar los componentes de forma vectorial.
CONCLUSIONES
Resultados:
El marco teórico asumido, referido al pensamiento visual, el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre y la resolución de problemas, permiten construir una metodología basada en estas categorías, la cual favorece el proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en la mecánica básica.
Conclusiones:
Construcción del proceso de enseñanza y aprendizaje de los diagramas de cuerpo libre en la mecánica básica, por parte de los estudiantes de segundo semestre de la BUAP.
El desarrollo de habilidades sobre el trabajo con los diagramas de cuerpo libre en los estudiantes del segundo semestre.
La integración del pensamiento visual en la resolución de problemas es una estrategia que permite la comprensión de los diagramas de cuerpo libre.
Domínguez Angeles Miguel, Instituto Tecnológico de Toluca
Asesor:Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
DISEñO DE UN PROTOTIPO DE INTERFAZ HáPTICA PARA LA MEJORA DE LA COMPETITIVIDAD DEL SECTOR AUTOMOTRIZ
DISEñO DE UN PROTOTIPO DE INTERFAZ HáPTICA PARA LA MEJORA DE LA COMPETITIVIDAD DEL SECTOR AUTOMOTRIZ
Domínguez Angeles Miguel, Instituto Tecnológico de Toluca. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Una herramienta útil que forma parte de esta Industria 4.0 son las interfaces hápticas, las cuales proporcionan una retroalimentación al usuario a través del sentido del tacto. No obstante, además de provocar en el usuario esta sensación de inmersión, se debe proporcionar la posibilidad de interactuar con el medio virtual, pudiendo establecer entre el usuario y el entorno virtual una transferencia bidireccional y en tiempo real de información mediante el empleo de interfaces de tipo háptico, donde las respuestas hápticas están relacionadas con la realidad virtual. La retroalimentación háptica, en la que la vibración indica el funcionamiento de los botones, se ha utilizado para superar la falta de tacto de las pantallas táctiles, pero las soluciones existentes tienden a utilizar sistemas mecánicos voluminosos y complejos.
Si bien, las interfaces hápticas han sido utilizadas en diferentes industrias y tienen distintas aplicaciones en diversas áreas como son las ciencias de la salud y los videojuegos que es donde la realidad virtual está influyendo bastante hoy en día, pero aparentemente no se escucha la relación de la industria manufacturera con la IO por lo que algunos de los objetivos que se obtuvieron para dicha investigación fue conocer cuál el uso de las interfaces hápticas, y la IO en la industria manufacturera y cómo podría mejorar la competitividad del sector automotriz con la ayuda de estas herramientas, ya que uno de los principales objetivos de la industria 4.0, es la intervención para poder prevenir y con esto reducir los accidentes laborales, esto, beneficiando tanto a las empresas como a los empleados, así como también mejorando la calidad económica y de la vida.
METODOLOGÍA
Durante el periodo del curso de investigación, se realizó un plan de trabajo, el cual comprendía de 7 semanas, cada semana se llevaba a cabo diferente actividad. Mediante la búsqueda de diferentes artículos relacionados con el tema principal de dicha investigación, se realizó un análisis de forma general en donde se determinaron puntos clave los cuales dieron inicio a la búsqueda de información con temas que pudieran tener algún tipo de enlace. Posteriormente, se introdujo al lenguaje de Phyton para poder realizar una base de datos, siendo MySQL como el gestor de dicha base, acerca de los accidentes laborales que frecuentemente suceden en la industria, para poder clasificarlos, esto, por medio del uso de la investigación que fue realizada por el investigador usando la metodología TOPSIS, donde se evaluaba qué accidentes podrían tratarse mediante un coma médicamente inducido en una sociedad bajo el paradigma de la industria 4.0, teniendo como objetivo mostrar la funcionabilidad básica del sistema final, reduciendo drásticamente el tiempo.
Las interfaces hápticas conforman un área de investigación íntimamente relacionada con el campo de la robótica. Los grandes avances registrados en este campo en las últimas décadas han impulsado el desarrollo de dispositivos que mejoran la comunicación hombre-máquina, facilitando la interacción entre ambos mediante la aplicación de sensaciones táctiles. Las limitaciones del hardware de los interfaces reducen la fidelidad con la que se puede simular la interacción con el mundo real; como por ejemplo: la precisión de los sensores, la capacidad de los actuadores, o la transparencia de la transmisión mecánica empleada.
Tras la búsqueda de información sobre las interfaces hápticas y saber que software ocupar para poderlo llevar a cabo, se encontró que las ventajas de estos dispositivos son:
La manipulación de entornos virtuales de forma natural.
Se trabaja en 3D no en proyecciones 2D.
Se puede añadir información multi-sesorial.
Facilita la realización de distintas tareas.
Mientras que las desventajas que se pueden obtener, son que hoy en día estos dispositivos proporcionan varias desventajas o inconvenientes (aunque en el futuro puede que cambie la situación) de los que podemos destacar su alto costo, su complejidad a la hora de diseñar o fabricar estos dispositivos, la ausencia de estándares, reglas, leyes que permitan un desarrollo eficaz de estos dispositivos, la poca familiarización de la gran mayoría de usuarios con estos dispositivos.
CONCLUSIONES
Durante la estancia de la investigación de este programa Delfín, la cual fue llevada a cabo desde casa debido a la contingencia, fue muy complicada debido a que surgieron demasiadas dudas que si bien, me hubiese gustado que dicha investigación fuera presencial para poder resolverlas con más facilidad por parte del asesor o mis compañeros, diversos percances que ocurrieron desde situaciones de salud hasta una crisis económica, que si bien, hicieron que el trabajo no se llevará como se tenía contemplado.
El tiempo que fue invertido fue de gran aprovechamiento en cuanto a aprender sobre la inteligencia artificial, conocer más sobre la Industria 4.0, adentrarme más al tema de las IO, el buscar información acerca fue de gran interés ya que la intriga era mucha por saber más, los conocimientos fueron aprendidos de la mejor manera y posteriormente serán ejecutados debido a que llevaré la materia de robótica. Sin embargo, no sé llego con éxito a la meta final, que fue diseñar un prototipo de una interfaz háptica para que existiera una mejora en la competitividad en el sector automotriz por las dificultades que se mencionaron con anterioridad, pero sin duda alguna, agradezco la oportunidad de poder formar parte del programa, llevándome una experiencia, no excelente pero si buena, acerca de tan nombrado programa.
Duarte Baltierra Martha, Instituto Tecnológico Superior Purépecha
Asesor:Dr. Jaime Zalapa Rios, Instituto Tecnológico Superior Purépecha
IDENTIFICACIóN DE LOS PRINCIPALES FACTORES ACADéMICOS QUE INFLUYEN EN EL BAJO APRENDIZAJE
DE LAS MATEMáTICAS, EN LOS ESTUDIANTES DEL INSTITUTO TECNOLóGICO SUPERIOR P’URHéPECHA.
IDENTIFICACIóN DE LOS PRINCIPALES FACTORES ACADéMICOS QUE INFLUYEN EN EL BAJO APRENDIZAJE
DE LAS MATEMáTICAS, EN LOS ESTUDIANTES DEL INSTITUTO TECNOLóGICO SUPERIOR P’URHéPECHA.
Duarte Baltierra Martha, Instituto Tecnológico Superior Purépecha. Asesor: Dr. Jaime Zalapa Rios, Instituto Tecnológico Superior Purépecha
PLANTEAMIENTO DEL PROBLEMA
El rendimiento académico es un resultado del proceso de aprendizaje escolar, en el cual convergen los efectos de numerosas variables sociales, personales, y sus interrelaciones (Fullana, 2008). Actualmente, los expedientes académicos y las calificaciones de los escolares son utilizados como fuente principal para valorar los resultados de la enseñanza y constituyen el criterio para definir el rendimiento académico.
La Matemática es una de las disciplinas que mayor problema presenta, en cuanto a rendimiento académico se refiere, en los diferentes niveles de la educación formal.
Los jóvenes en nivel universitario, presentan deficiencias en el desarrollo de esquemas formales de pensamiento. Esto trae como consecuencia incapacidad para resolver problemas matemáticos que exigen un nivel de abstracción y razonamiento típico del pensamiento formal.
METODOLOGÍA
Modelo Constructivista
El Constructivismo, dice Méndez (2002) es en primer lugar una epistemología, es decir una teoría que intenta explicar cuál es la naturaleza del conocimiento humano. El constructivismo asume que nada viene de nada. Es decir que conocimiento previo da nacimiento a conocimiento nuevo.
El constructivismo sostiene que el aprendizaje es esencialmente activo. Una persona que aprende algo nuevo, lo incorpora a sus experiencias previas y a sus propias estructuras mentales. El constructivismo busca ayudar a los estudiantes a internalizar, reacomodar, o transformar la información nueva.
Metodología de Kurt Lewin Investigación-acción
Kurt Lewin (1890-1947) La investigación acción es una forma de cuestionamiento autoreflexivo, llevada a cabo por los propios participantes en determinadas ocasiones con la finalidad de mejorar la racionalidad y la justicia de situaciones, de la propia práctica social educativa, con el objetivo también de mejorar el conocimiento de dicha práctica y sobre las situaciones en las que la acción se lleva a cabo. (Méndez, 2012)
El proceso de investigación-acción como mejora de los procesos de enseñanza aprendizaje en la práctica educativa. La I-A es un proceso de carácter cíclico con forma de espiral dialéctico, como consecuencia de la relación entre la acción y la reflexión. Podemos considerar el espiral como ciclos de investigación y de acción constituidos por las fases de planificación, actuación, observación y finalmente reflexión.
Instrumentos requeridos por la investigación-acción
Los instrumentos son un recurso del cual pueden valerse el investigador para acercarse a los fenómenos y extraer de ellos información.
La Observación es una técnica que consiste en observar atentamente el fenómeno, hecho o caso, tomar información y registrarla para su posterior análisis.
El cuestionario consiste en un conjunto de preguntas, normalmente de varios tipos, preparado sistemática y cuidadosamente, sobre los hechos y aspectos que interesan en una investigación o evaluación, y que puede ser aplicado en formas variadas, entre las que destacan su administración a grupos o su envío por correo.
CONCLUSIONES
Los resultados a obtener se encuentran pendientes.
En base a lo investigado se elaboró un cuestionario de manera digital que ayudara a identificar los factores que influyen en el bajo rendimiento de las matemáticas en los estudiantes del ITSP el cual se enviara a los estudiantes este nuevo ciclo.
Felix Alba Silvestre, Tecnológico de Estudios Superiores de San Felipe del Progreso
Asesor:Mg. José Gregorio Solorzano Movilla, Corporación Universitaria Americana
ANáLISIS PARA MODELAR LOS CASOS DE COVID-19 EN MéXICO Y COLOMBIA
ANáLISIS PARA MODELAR LOS CASOS DE COVID-19 EN MéXICO Y COLOMBIA
Felix Alba Silvestre, Tecnológico de Estudios Superiores de San Felipe del Progreso. Asesor: Mg. José Gregorio Solorzano Movilla, Corporación Universitaria Americana
PLANTEAMIENTO DEL PROBLEMA
¿Cómo hacer un análisis dinámico y matemático para modelar los casos de covid-19 en México y Colombia?
METODOLOGÍA
Se utiliza un libro excel para el moldeamiento donde pueden encontrar en el capítulo de estimación de los resultados de las pruebas saber pro el mecanismo por medio del cual se hace este modelo, teniendo como caso de estudio la actual situación del virus Covid-19 en los paises de México y Colombia tomando datos de estudio de cada país para representarla en una gráfica lineal, en ella podremos observar el crecimiento o decrecimiento de cada uno.
CONCLUSIONES
Se realizó la aplicación de una ecuación en excel para modelar los casos de covid-19, y los resultados fueron representados en una grafica líneal, la idea principla es comparar México y Colombia y plantear que los datos tienen demasiada variabilidad y por tal razón es demasiado complejo estimar resultados.
Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)
SIMULACIóN PARALELIZADA MPI DE DINáMICA MOLECULAR EN SISTEMAS DE MATERIA BLANDA.
SIMULACIóN PARALELIZADA MPI DE DINáMICA MOLECULAR EN SISTEMAS DE MATERIA BLANDA.
Castañeda Bagatella Diana Marlén, Benemérita Universidad Autónoma de Puebla. Flores Román Santiago Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Daniel Ignacio Salgado Blanco, Instituto Potosino de Investigación Científica y Tecnológica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
La dinámica molecular (MD), es un método de simulación por computadora para analizar los movimientos físicos de átomos y moléculas. Se permite que los átomos y las moléculas interactúen durante un período fijo de tiempo, dando una visión de la "evolución" dinámica del sistema. En la versión más común, las trayectorias de los átomos o moléculas se determinan resolviendo numéricamente las ecuaciones de movimiento de Newton, las cuales son previamente planteadas para un sistema de partículas que interactúan mediante campos de fuerza adecuados al modelo físico que se busca simular .
Las simulaciones en MD se han vuelto populares en ciencia de materiales, bioquímica, biofísica y varios otros campos. Las mejoras en los recursos computacionales, en la calidad de los parámetros y algoritmos del campo de fuerza han producido mejoras significativas en el rendimiento y la confiabilidad.
En este trabajo, analizamos como generar un código propio de dinaḿica molecular en los ensambles NVE, NVT y NPT. Nuestro código permite variar distintos parámetros, tales como el número de dimensiones, número de partículas, pasos en el tiempo, longitud de tiempo, el ancho de la celda de simulación y el diámetro de las partículas. Este código permite generar una trayectoria de las partículas, las cuales son utilizadas posteriormente para determinar observables tales como la temperatura o la presión del sistema.
En particular, esperamos que el planteamiento de este código favorezca en el desarrollo o implementación en sistemas más complejos, tales como sistemas compuestos de partículas anisótropas (cristales líquidos, por ejemplo). Así mismo, buscamos comprender cómo funciona el cómputo paralelizado en sistemas de memoria distribuida utilizando MPI, lo cual nos permitirá abordar más adelante el estudio de sistemas dinámicos dentro de nuestra trayectoria académica o profesional.
METODOLOGÍA
Se comenzó por familiarizarse con el método de dinámica molecular para sistemas de materia blanda simples en alguna fuentes de información proporcionadas por el asesor, posteriormente, se profundizó en el conocimiento adquirido en la primera semana, revisando otros ensambles tales como NVT y NPT, en particular se revisaron distintos tipos de termostatos cuya implementación en código sea sencilla, tales como el reescalamiento de velocidades y el termostato de Berendsen y se inició con la escritura de un código propio de dinámica molecular en C++.
Por otra parte, se realizó una revisión bibliográfica sobre los tipos de termostatos que son posibles de implementar de forma sencilla en un código de dinámica molecular y se continuó con la escritura del código de dinámica molecular implementando termostatos y barostatos para las simulaciones de sistemas de materia blanda simples, específicamente en el caso del barostato se considerará el barostato de Berendsen para ser adaptado al código.
CONCLUSIONES
Se logró generar un código de dinaḿica molecular eficiente que genera un archivo comprimido xtc, lo cual permite guardar trayectorias de simulaciones más largas sin que se penalice tanto el uso del espacio en memoria. Por otra parte, se comprendió el funcionamiento de LAMMPS para sistemas de Lennard Jones y del programa VMD, para observar la dinámica del sistema. Esto nos permitió comparar nuestros resultados contra resultados obtenidos con motores de dinámica ampliamente comprobados. Así mismo, se logró implementar en el código el barostato y termostato de Berendsen, ya que brinda un enfoque de equilibrio de primer orden rápido y suave.
Se continuará en la escritura del código propio y en la programación paralela en MPI del mismo.
Fuentes Arenas Melissa del Carmen, Universidad de Sonora
Asesor:Dr. Luis José H. Corral Escobedo, Universidad de Guadalajara
ASTROFíSICA DE ESTRELLAS MASIVAS Y SUS ASOCIACIONES.
ASTROFíSICA DE ESTRELLAS MASIVAS Y SUS ASOCIACIONES.
Fuentes Arenas Melissa del Carmen, Universidad de Sonora. Asesor: Dr. Luis José H. Corral Escobedo, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En éste trabajo se presentan los resultados del procesamiento y análisis de los datos espectográficos de tres estrellas supergigantes tipo B, con el objetivo de obtener sus velocidades radiales así como la identificación de las líneas espectrales presentes. Las estrellas analizadas fueron: HD 13627, HD 34085 y HD 36371.
METODOLOGÍA
Los espectros de las estrellas analizados en el presente trabajo, fueron observadas con el espectrógrafo tipo Echelle montado en el telescopio de 2.1 m del Observatorio Astronómico Nacional de San Pedro Mártir. Los espectros fueron procesados con el paquete de reducción de datos astronómicos ESO-MIDAS (European Southern Observatory - Munich Image Data Analysis System). Las imágenes fueron reducidas de forma estándar (limpieza de cósmicos, correción or BIAS y luz dispersada, trazado y extracción de órdenes y conversión a longitud de onda) El resultado es una imagen bidimensional con 29 renglones que representan los 29 órdenes de la imagen original. El análisi de los espectros ya procesados se hizo utilizando el paquete de reducción astronóica IRAF (Image Reduction and Analysis Facility), en particular el paquete noao : onedspec.
Después se proseguió a leer el encabezado de la imagen con el siguiente comando del programa "imhead 2203obbxw.fits l+ > encabezado.txt" el cual nos permite leer la imagen y crear un documento de texto en donde se encuentran toda la información del encabezado de dicha imagen; éste documento es de gran ayuda ya que al momento de hacer la partición de la imagen principal del objeto en sus 29 órdenes y realicemos la transformación de los píxeles que se encuentran en cada uno de estos en unidades de longitud de onda, nos podremos apoyar del apartado WSTART del encabezado del archivo, ya que en éste se encuentran las longitudes de onda iniciales de cada uno de los órdenes. Para poder realizar esta transformación, primeramente se tuvieron que extraer todos las particiones del espectro del objeto de estudio.
Mediante el siguiente comando "imcopy 2203obbx.fits[1:2852,1:1] orden1", se pudo extraer el primer orden donde se encuentra la primera parte del espectro, cabe destacar que esta extracción todavía no se encuentra normalizada, este sería el siguiente paso de su procesamiento. Este comando también nos permite extraer el espectro de forma unidimensional, lo que nos brinda la oportunidad de tener un mejor manejo del mismo a la hora de trabajarlo, un ejemplo de esto lo podemos apreciar en las siguientes imágenes.
Una vez extraídas los demás rdenes del espectro, lo que siguió fue realizar la transformación de nmero de píxeles a longitudes de onda. Para ello nos basamos en los datos del apartado WSTART anteriormente mencionado; lo primero que se hizo fue utilizar el comando "epar hedit", para establecer a "CRVAL1" (coordenada de referencia del píxel) como el campo a editar, y posteriormente se le añadió el valor dado por el apartado WSTART dependiendo del orden que se encontrara editando, una vez hecho esto se procedió a guardar el proceso y realizar el mismo procedimiento de editado para los demás órdenes.
Una vez extraídos y editados los datos de las particiones, el siguiente paso fue normalizarlos para poder realizar la medición de las longitudes de onda de las lí de absorción del espectro. Esto se realizó, primeramente editando los parámetros de la tarea splot en el cual se checó que la imagen procedente graficar fuese la correcta y se escogi la función con que se utilizará para la aproximación del continuo espectral, en este caso fuen una función de tipo Legendre, interactivamente se modificó el grado de la misma, para que fuese aproximándose de una mejor manera a la curva del espectro. En la mayoría de los espectro el grado de la función fue de 10 ó 12. Este proceso se puede apreciar en las siguientes imágenes, siguiendo el ejemplo del orden 2.
La identificación de las líneas espectrales se hizo a través de su longitud de onda. En la tarea splot de IRAF es posible encontrar el centroide de las líneas. Este proceso se llevó a cabo de forma individual en cada uno de los órdenes del espectro. Dentro de este proceso nos pudimos dar cuenta que la mayoría de las líneas se encontraban mezcladas, lo que quiere decir que algunas líneas tienen longitudes de onda tan cercanas que no pueden ser separadas aún con la alta dispersión de los espectros tipo echelle. Las longitudes de onda se guardaron en un archivo en Excel en el cual se fueron anotando todas las líneas extraídas por orden, el elemento al cual pertenecen y las longitudes de onda de laboratorio para realizar una comparación con las que encontramos dentro de los espectros. Cabe mencionar que no todas las líneas extraídas de los espectros pudieron ser identificadas.
donde c es la velocidad de la luz en el vacío, vrad es la velocidad en la dirección radial del objeto, λcero es la longitud de onda de las líneas emitidas y λobs es la longitud de onda observada.
CONCLUSIONES
En los casos en donde la velocidad radial es mayor a mayor energía de ionización, puede deberse a que los iones más energéticos se producen en la parte más interna de la atmósfera estelar y podrían reflejar mejor la velocidad radial de la estrella. Los iones de menor energía se encuentran en regiones más externas de las atmósferas y pueden ser zonas en donde el viento estelar empieza a acelerarse. El corrimiento al azul extra producido por ese movimiento, se e sumaría al de la velocidad radial de la estrella haciendo que estas líneas presentaran una velocidad más negativa. En el caso de la estrellas HD 34085 el comportamiento es distinto ya que las líneas más energéticas presentan velocidaes más negativas. Este comportamiento no puede ser explicado por la hipótesis anterior, sin embargo hay que hacer notar que esta estrella es de tipo B8Iae, es decir, una estrella de temperatura efectiva menor a las anteriores y en donde el viento estelar esparamos que sea menos intenso.
Fuentes Sánchez Iván, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTIMACIóN DEL CAMPO MAGNéTICO EN COLISIONES DE IONES PESADOS EN FUNCIóN DE LA CENTRALIDAD DE LA COLISIóN
ESTIMACIóN DEL CAMPO MAGNéTICO EN COLISIONES DE IONES PESADOS EN FUNCIóN DE LA CENTRALIDAD DE LA COLISIóN
Fuentes Sánchez Iván, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Durante los procesos experimentales que se llevan a cabo dentro de los diferentes aceleradores de partículas, uno de los objetivos principales es el estudio de la materia durante la etapa primigenia del universo.
Para llevar a cabo esta investigación, uno de los procesos que se llevan a cabo es la colisión de iones pesados, acelerándolos a velocidades ultrarrelativistas. Al ir evolucionando esta colisión, apartir de un marco teórico, se espera cierta producción de fotones se da a partir de un cierto decaimiento de hadrones.
Pero durante la recopilación de datos del suceso, se encuentra con una discrepancia en tal número de fotones esperados, para esto se localizó que ciertas partículas de los iones forman un campo magnético, lo que contribuye a la formación de más fotones al final del proceso.
Lo que conlleva a analizar este campo magnético y bajo que condiciones este cambia o se genera con ciertas partículas de los iones pesados al colisionar.
METODOLOGÍA
En el proceso de resolución del problema se plantearon primero las bases teóricos del fenómeno, en este caso dentro de los colisionadores, las partículas, en este caso los iones pesados, núcleos de los elementos cargados solamente de protones, alcanzan velocidades decimales a la velocidad de la luz "c", tal velocidad se considera como si solo tuviese una componente sobre el eje Z, mientras que por el fenómeno de saturación al ir a tan altas velocidades el ion sufre un a deformación de su forma original esférica a una apelmazada sobre el plano XY con forma de elipse, sobre la cual se forma una capa de gluones para mantener el ion unido con una trayectoria de movimiento en el centro de los iones sobre el mismo eje Z.
Al momento de colisionar las partículas de ambos iones se clasificaran en dos dependiendo de la posición en que estaban, las partículas que participan en la colisión se les llama partículas participantes y las que no espectadoras, estas no sufren un cambio en su velocidad, por lo tanto estas en conjunto forman una corriente eléctrica, que por ley de Biot-Savart genera el campo magnético.
Las zonas en las que se clasifican están dados en función del parámetro de impacto, que es la dstancia entre ambas trayectorias de impacto.
Sabiendo esto se procedió a un desarrollo teórico de fórmulas que nos ayuden a explicar el fenómeno de estudio, partiendo de la misma ley de Biot-Savart, de las definiciones de vector director y de corriente eléctrica para cierto elemento de corriente. Se plantea esta ecuación a una sola partícula dentro de un sistema de referencias en movimiento, y ya que se fijo el origen en donde colisionan los iones a velocidades ultrarrelativistas, se hace uso de las transformaciones de Lorentz para poder pasar a un sistema de referencias estático.
Simplificando la expresión y considerando el sistema de unidades naturales, en el cual ciertas constantes físicas son la unidad como la velocidad de la luz y ya que se están estudaindo las interacciones entre las partículas son a nivel subatómico, se hace uso de la constante de estructura fina. Teniendo esto en cuenta para una sola partícula se extiende a todas las partículas espectadoras haciendo uso de la sumatoria.
Para facilitar la programación se delimita el rango en donde se encuentran las participantes y espectadoras, para simplificar los calculos algebraicos, se considera la forma de los iones justo antes del choque como circulos sobre el plano XY, de esta forma la zona de las participantes se delimita en el plano en donde una circunferencia con centro en el origen y el segundo con centro desplazado sobre el plano XY se intersectan.
Terminando el desarrollo teórico se procedió a programar en Phyton en donde se hizo un arreglo aleatorio para determinar la posición de las partículas en los iones en coordenadas polares, se hace esto para simplificar, ya que en realidad la distribución de partículas está dado por el modelo de Glauber y no de manera aleatoria, parametrizadas con las ecuaciones del círculo para que todas quedaran sobre la superficie del círculo.
A partir de eso se excluyen del cálculo las partículas participantes de los cálculos del campo magnértico y dependiendo del tiempo que se tome en cuenta, el parámetro de impacto y el tipo de ion pesado que se colisionará, se estudiará el comportamiento que tiene el campo magnético.
CONCLUSIONES
Algo que se espera obtener al recopilar los datos del programa con ciertos dato establecidos, llegar a observar un campo magnético directamente proporcional al número de partículas espectadora y que este mismo campo magnético alcance su valor máximo instante depués de la colisión y que decrezca rápidamente conforme las partículas se alejen del origen del sistema.
De esta forma al obtener resultados de 10^11 - 10^15 Teslas, estudiar el proceso de generaciónde fotones extras dentro del marco teórico planteado en la problemática.
Garcia Barrera Eunice, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE ECO BLOCK CON FIBRA DE COCO VERSáTIL PARA LAS DEMANDAS DE LA ARQUITECTURA ACTUAL EN MéXICO
PROTOTIPO DE ECO BLOCK CON FIBRA DE COCO VERSáTIL PARA LAS DEMANDAS DE LA ARQUITECTURA ACTUAL EN MéXICO
Garcia Barrera Eunice, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
México cuenta con una población de 125 millones de personas según un censo del INEGI en el 2018 lo que ocasiona la industrialización y desarrollo apresurado de la sociedad que genera un total de 102 mil 895 toneladas de basura diarias,mucha de esa basura podría ser reciclada o reutilizada para la fabricación de otros objetos pero desinformación sobre sus propiedades traen consigo una sobreexplotación de recursos, desechos excesivos y altos grados de contaminación que a la larga generan enfermedades.
El aumento desmedido de la población año con año ocasiona que se reduzcan más los espacios para la construcción de viviendas y se elevan más lo precios de estas. Por lo que se busca generar un eco ladrillo resistente, económico, versátil para generar diferentes estilos de diseño y amigable con el medio ambiente. Que al ser fabricado con fibra de coco se le dará una nueva función o utilidad a esta parte que comúnmente es desechada. Para la versatilidad de este eco block se piensa atenuar los tonos de dicho eco block con ayuda de la cal, subproducto de un largo proceso al que se somete la piedra caliza que recubre un 20% de la superficie terrestre, que incluye la trituración, calcinación e hidratación.
Esperándose que este eco block cumpla con las normas NMX-C-038-ONNCCE-2013 NMX-C-024-ONNCCE-2012,NMX-C-036-ONNCCE-2013 y la NMX-C-037-ONNCCE-2013.A la vez con las demandas de la arquitectura actual de nuestro país que consiste en utilizar las nuevas tecnologías y las adaptarlas a las necesidades, espacio y la cultura.
METODOLOGÍA
La fibra de coco esta derivada del proceso al que se somete la fibra de la cáscara de él, siendo así la capa intermedia de la fruta del cocotero. Este mismo al ser de estructura fina retiene muy bien el agua, de igual manera contiene lignina una sustancia natural que permite la presencia de microorganismos beneficiosos en la zona radicular evitando así la descomposición y provee la resistencia y rigidez a la fibra. Y tomando en cuenta que los estados productores de coco en México son: Oaxaca, Chiapas, Guerrero, Colima, Michoacán, Quintana Roo, Tabasco, Veracruz y Yucatán es accesible y su producción es constante.
Los eco block son materiales de construcción de forma prismática rectangular, sólidos o huecos, fabricados con cemento portland y agregados apropiados, tales como arena, grava, piedra triturada, piedra pómez, escoria volcánica o tezontle, arcillas,etc.Contienen materiales reciclados .
Primero se obtiene la fibra de coco, se puede obtener de manera manual se debe extraer el agua de coco, seguidamente se quita la fibra doble y amarillezca. Se parten los cocos, empezamos a martillear encima de una madera a la cascara total. A medida que martilleamos la fibra se esponja y adelgaza. Se extrae la fibra ya prensada con el martillo. Finalmente se expone al sol para retirarle el exceso humedad pues tiene gran absorción de agua.
Una vez obtenida la fibra se le realizan estudios o ensayos como el de termo gravimetría y de degradación térmica. Se prepara el molde pasándole petróleo, la mezcla contendrá arena, cemento y cal con fibra de coco finalizándola con poca cantidad de agua pues la fibra de coco tiene mucha celulosa y se agregó en el molde. Recordando que es necesario realizar una mezcla fluida considerando que el porcentaje de absorción de la fibra de coco va de 20 a 50% y recordar el espacio para que el cemento reciba la humedad.
También el curado de los eco bloques es importante tomarla en cuenta, para un mejor resultado se puede sumergir los bloques en un pozo lleno de agua con cal por 3 días.
El mejor porcentaje de fibra de coco es del 1%, la fibra les permitió a los eco ladrillos incrementar en un 1,94% en estado seco y en húmedo un decremento de 5,60%, sin embargo ante la absorción y la permeabilidad no es la más factible, pues incrementaron en un 36,7% y 172,4% pues la fibra genera huecos en el ladrillo.
Ante la prueba de resistencia a la compresión el eco bloque sufrió unas ligeras fallas debido a la fibra de coco pero no se desprendió. La mejor dosificación es 1 de cemento o arena y 0.0005 de fibra de coco, es recomendable utilizar la fibra de coco como aserrín para un resultado más estético.
La cal disminuiría los tonos tan fríos del cemento y la fibra de coco haciéndolos más tenues y por lo tanto más fáciles de teñir según el estilo de construcción para la que sean utilizados, al mismo tiempo aportaría a disminuir el consumo de la pintura. El bloque por los materiales incrementados generando un estilo rustico y moderno además de ser adaptado a las nuevas tecnologías principales objetivos de la arquitectura actual.
La arquitectura actual surgió a partir del funcionalismo, el movimiento arquitectónico que surgió en el siglo XX y retoma los valores de la arquitectura griega establecidos por Marco Lucio Vitruvio Polion en su triada: Utilitas: confort, comodidad y utilidad. Venustas: belleza o valor estético en la obra arquitectónica. Firmitas: solidez y estabilidad en el objeto arquitectónico. Recordando que el racionalismo arquitectónico es la depuración de lo ya sobresaturado, dejando solamente lo esencial, lo práctico y lo funcional, para cualquier propuesta arquitectónica en su diseño.
CONCLUSIONES
Se aprendió teóricamente las propiedades de la fibra de coco y sus posibles aportaciones a un eco ladrillo que al ser mezclado con cal obtendrá mayor duración y una adaptación más fácil para la arquitectura actual en México. Esperando poder realizar la investigación experimental basándonos de investigaciones pasadas y poder cumplir con este proyecto. También la importancia de las nuevas tecnologías en la construcción actual y que esta sea amigable con el ambiente ,aprovechando al máximo los recursos evitando su sobreexplotacion,siendo sustentable y benéfica para la actualidad.
Garcia Flores Andres Manuel, Instituto Politécnico Nacional
Asesor:M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
ROBOT MOVIL SANITIZADOR EN ESPACIOS PÚBLICOS SOBRE SUPERFICIES PLANAS
ROBOT MOVIL SANITIZADOR EN ESPACIOS PÚBLICOS SOBRE SUPERFICIES PLANAS
Garcia Flores Andres Manuel, Instituto Politécnico Nacional. Asesor: M.C. César Eduardo Cea Montufar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El proyecto prototipo que estamos desarrollando se inspira en esta problemática mundial causada por el COVID-19, existe una variedad amplia de dispositivos semejantes al nuestro en el mercado, un robot sanitizante puede solucionar muchos problemas que nos atacan actualmente y pueden ayudar a mejorar la situación que estamos viviendo, algunos de estos dispositivos se encuentran en venta con propósitos idénticos o similares como son alguno muy populares.El nuestro se concetra en el combate cualquier tipo de enfermedad, ayudando siempre a la socidad méxicana y adaptandonos a las caracteristicas socioeconómicas de nuestro país
METODOLOGÍA
Utilizamos un método por pasos en el cual lo dividimos de la siguiente manera, el primero se trato del estado de arte en el cual nos concentramos especificamente en la investigación y la acomulación de información en la cual investigamos los diferentes robots en el mercado que tienen la misma misión que el nuestro, realizamos este paso con el proposito de observar que errores, que carencias y que áreas de oportunidad podemos recabar para mejorar el nuestro, la siguiente parte de esta investigación aon los modelos matemáticos aquí nos encargamos en calcular el área de esparcion del liquido para poder mejorar y modificar la presión del compresor, al igual que calcular el espació que el robot sera capaz de manejar cuando se encargue de sanitizar, esto ayudara a mejorar el control y automatización y también el diseño. El tercer eslavón se concentra principalmente en la simulación en la cual nos encargamos de simular sus movimientos su trayectoria, entre otras situaciónes, nos apoyamos de diferentes herrramientas o softwares como son robotstudio y robotd, el penultimo paso es el desarrollo mecatrónico el cual es muy importante porque en el se diseña pieza por pieza el circuito electrónico y mecánico que mejor se acople al robot y sea capaz de superar los problemás físicos y geólogicos al los cuales se enfrentara el robot al realizar su trabajo, el penúltimo eslavón se trata del control en el cual desidimos darle un control híbrido el cual sera tanto remóto como automátizado, le dimos un enfoque muy importante a esto ya que podemos evitar en su gran mayoria el uso de pilotos humanos para controlarlo y así reducir el peligro de contagio, por ultimo y el paso más importante es la implementación en la cual se pondra aprueba el prototipo a diferentes retos y adversidades, desarrollando diferentes pruebas en el cual observaremos las áreas de oportunidad y mejorar sus carencias.
CONCLUSIONES
Se desarrollara un robot sanitizador el cual ayudara a la sociedad méxicana a reducir el porcentaje de contagiados, reduciendo periodicamente a lograr una nueva normalidad con un menor margen de riesgo especialmente en zonas especificas donde es necesaria la presencia popular (educación,materias primas y gobierno), con la ventaja de ser un robot el cual se adaptara a las necesidades socioeconómicas de nuestro país.
Garcia Peralta Jacqueline, Instituto Politécnico Nacional
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional. Garcia Peralta Jacqueline, Instituto Politécnico Nacional. Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Prado Eustaquio Sayuri, Instituto Politécnico Nacional. Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este es un proyecto multidisciplinario donde colaboran alumnos del Programa DELFIN México (nodo C-51) y estudiantes de diferentes países y nodos de la REDPROPLAYAS (http://www.proplayas.org/), para lograr resultados más integradores.
A pesar de que hay gran cantidad de aplicaciones relacionadas con la playa en las plataformas móviles más comunes, al usuario le genera confusión saber cuáles de ellas realmente le serían útiles para su uso específico. A los investigadores, se les complica también saber cuáles de ellas pueden servir para la gestión de playas porque no están clasificadas.
Esto genera la siguiente incógnita:
¿Qué aplicaciones son las que existen en cada categoría relacionadas con la playa y cuáles de ellas son recomendadas para un uso práctico, que estén disponibles en plataformas móviles, y cómo pueden ser IOS y Android, y que estén relacionadas para
gestión de playas?
Por lo que este trabajo servirá para identificar una mayor cantidad de aplicaciones y hacer una clasificación de éstas y así facilitar tanto a los usuarios para su uso recreativo como a los investigadores como objeto de análisis para gestión de playas; además de ayudar a los desarrolladores de apps a identificar cuáles son los puntos fuertes y débiles generales de cada aplicación.
Por lo que los objetivos de la investigación son los siguientes:
Identificar la mayor cantidad de apps relacionadas con la playa y categorizarlas según su uso y/o contenido.
Probar cada aplicación para así obtener un análisis particular y general de todas las aplicaciones, que contenga principalmente; utilidad, calidad, disponibilidad, así como fortalezas y debilidades.
Analizar las funcionalidades de las apps registradas en un marco de gestión y certificación de playas.
METODOLOGÍA
Se muestra a detalle el proceso de obtención y análisis de datos, el tipo de investigación, instrumento de evaluación y la base del análisis de los datos.
Obtención de datos:
Se realizaron equipos de trabajo que se encargaron de buscar en las plataformas móviles todas las aplicaciones que estuvieran relacionadas con las playas, elaborando un listado de todas ellas y de igual manera se dividió equitativamente a cada uno de los participantes para su descarga y evaluación. Se adquiere la mayor cantidad de datos posible desde la plataforma en la que se encuentra la app, como: desarrollador, descripción, número de descargas, etc. Cuando el integrante haya completado la
obtención de datos cuantitativos procede a probar la app agregando datos cualitativos en la ficha de registro, como: interacción con el usuario, fortalezas y debilidades.
Tipo de investigación:
El enfoque de esta investigación es cuantitativo, ya que lo importante es generar resultados. Según Pita Fernández, S., Pértegas Díaz, S.(2002) La investigación cuantitativa trata de determinar la fuerza de asociación o correlación entre variables, la
generalización y objetivación de los resultados a través de una muestra para hacer inferencia a una población de la cual toda muestra procede. Tras el estudio de la asociación o correlación pretende, a su vez, hacer inferencia causal que explique por qué
las cosas suceden o no de una forma determinada.
Instrumento de evaluación:
La actividad en la cual se obtuvieron resultados se fundamentó en la elaboración de fichas técnicas donde se establecieron características o atributos que serían evaluados; como: la
fecha de creación, el país de origen, categoría, número de descargas, puntuación/calificación, plataforma, etc. Al integrar dichos datos se realizó una evaluación del uso de cada aplicación, valorando según sus fortalezas y deficiencias y al final proporcionar una retroalimentación mencionando sus puntos débiles en cada una de ellas, y propuestas para mejorarla.
Análisis de datos:
Una vez aplicado el instrumento de evaluación, se realizarán gráficos y se presentarán los resultados de cada nodo en un webinar a nivel internacional donde participarán estudiantes e investigadores de varios países.
Para realizarlo se elaborarán herramientas visuales para interpretar los datos que se presentarán como: mapas donde se colocarán la ubicación del país de origen de cada aplicación, crear una gráfica de barras u otras para hacer el conteo de la plataforma que maneja más apps relacionadas a la playa, el país que desarrolla más apps, un ranking de apps más descargadas y su calificación, el porcentaje de aplicaciones gratuitas, así como la cobertura que hay en distintos países. También identificar cuáles van dirigidas a mejorar/apoyar la gestión de playas.
CONCLUSIONES
Los resultados integrales que se esperan del nodo C-51 es un libro de Excel que contenga las fichas de todas las posibles apps identificadas, un análisis general de las categorías de las apps registradas y una presentación que posteriormente será expuesta
en un Webinar internacional ante toda la red de Proplayas para entregar resultados.
Los resultados parciales que lleva hasta el momento el nodo C-51 es un libro de Excel con alrededor de 40 apps registradas junto con una parte mayoritaria del análisis de las categorías de las aplicaciones mencionadas. Por ahora se está trabajando en la
conclusión del análisis y en la presentación para el Webinar.
Garcia Ruvalcaba Andrea, Universidad de Guadalajara
Asesor:Dr. Stanley Eugene Kurtz Smith, Universidad Nacional Autónoma de México
UN MILLóN DE KILóMETROS POR HORA: SOFTWARE PARA RADIO-ESPECTROSCOPIA
UN MILLóN DE KILóMETROS POR HORA: SOFTWARE PARA RADIO-ESPECTROSCOPIA
Garcia Ruvalcaba Andrea, Universidad de Guadalajara. Asesor: Dr. Stanley Eugene Kurtz Smith, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La radioastronomía tiene una relación muy fuerte con las telecomunicaciones y la electrónica, para aprovechar dicha relación se planteó el renacimiento de la estación terrena de telecomunicaciones que se encuentra en Tulancingo en un próximo radiotelescopio e incluso hasta un museo o centro de divulgación científica.
Hacer la conversión de antena satelital a radiotelescopio en Tulancingo es dar un paso más a la innovación y ciencia en México, para esto no sólo se necesita inversión económica sino también colaboración. Uno de los retos que enfrenta el proyecto es tener un Software que pueda controlar la antena durante las observaciones tomando en cuenta el efecto Doppler.
METODOLOGÍA
Para el desarrollo del Software que utilizará la antena fue primordial conocer los obstáculos que conlleva la observación astronómica y las limitaciones de los instrumentos utilizados, como es la radiointerferencia, además de la comprensión teórica de la relatividad, la mecánica celeste y la importancia del efecto Doppler.
Con base en el VLA Online Dopset Tool, se requiere un programa que pueda calcular el corrimiento al rojo o al azul que tendría cierta frecuencia en reposo dada una época, localización del observatorio, las coordenadas del astro y la velocidad respecto al marco de referencia de conveniencia, como lo es el LSR (Local Standard of Rest, por sus siglas en inglés) Sistema de Reposo Local, dicho Software se desarrollaría en Python.
Para lograr dicho objetivo partimos con el cálculo para el cambio de coordenadas que ingrese el usuario como entrada. Luego, devolver la magnitud de la velocidad del observador respecto al sistema de coordenadas elegido y realizar la conversión de la época ingresada a una más conveniente para el programa como es el MJD (Modified Julian Date, por sus siglas en inglés) fecha juliana modificada, con ayuda de algunas paqueterías de Astropy. Posteriormente, tomando en cuenta el efecto Doppler darle al usuario la frecuencia que necesita sintonizar con la antena.
Tomando en cuenta que el radiotelescopio de Tulancingo será de plato único, uno de los métodos de observación que podría resultar más efectivo sería Doppler Setting. Se plantea hacer una rutina que repita el cálculo de frecuencias para cada tiempo durante la observación o incluso para hacer el trabajo in situ más cómodo para los investigadores dando los resultados previos a la observación para los objetos astronómicos.
CONCLUSIONES
Durante la estancia de verano se logró adquirir nuevos conocimientos acerca de instrumentación en la radioastronomía y los retos que enfrenta la investigación científica en dicha área de estudio como son leyes que regulen el uso de ciertas frecuencias de radio hasta el manejo de los datos que arrojan las observaciones y su interpretación, así como la importancia de un fuerte conocimiento no sólo en física, sino en varios lenguajes de programación.
A pesar del reto que presenta el proyecto, durante el periodo del verano se mostró un buen avance en el programa y se planea continuar con el desarrollo de este para que pueda completar todas las tareas que se tienen planeadas. Se espera que para cuando la conversión del radiotelescopio haya concluido se puedan hacer las pruebas finales del Software in situ y los cambios pertinentes en dicho programa.
Garza Landa Fernando, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
PROPAGADOR ESCALAR PERTURBATIVO Y NO PERTURBATIVO EN LA ELECTRODINÁMICA CUÁNTICA ESCALAR A UN LAZO EN DIMENSIONES ARBITRARIAS
PROPAGADOR ESCALAR PERTURBATIVO Y NO PERTURBATIVO EN LA ELECTRODINÁMICA CUÁNTICA ESCALAR A UN LAZO EN DIMENSIONES ARBITRARIAS
Garza Landa Fernando, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El proyecto de investigación consiste en la evaluación de funciones de Green de 2 puntos en la Electrodinámica Cuántica Escalar (SQED) en particular el propagador escalar a nivel de un lazo en norma de Feynman y dimensiones arbitrarias. Una de las motivaciones del estudiar teorías de norma a nivel de lazos es que estas están constantemente aumentando a niveles más altos de precisión experimental. La Electrodinámica Cuántica Escalar es la teoría de norma más simple y, debido a la falta de la estructura matricial de Dirac, proporciona un atractivo y simple manejo para lograr este objetivo. Aunque la Electrodinámica Cuántica Escalar es una teoría simple, contiene las integrales que tienen las mismas topologías básicas que aparecerían en Electrodinámica Cuántica espinorial (QED) y Cromodinámica Cuántica (QCD).
METODOLOGÍA
Cada semana se realizó el avance esperado por el plan de trabajo, investigando sobre el tema correspondiente y obteniendo los resultados necesarios para avanzar, al final de cada semana se enviaban los avances y se realizaba una llamada por la plataforma Zoom para resolver las dudas encontradas al momento de realizar los cálculos, al igual que para recibir las indicaciones correspondientes de la siguiente semana, junto con el material didáctico necesario, también para las dudas más urgentes se enviaron correos en el transcurso de la semana, por lo que la atención fue constante lo cual ayudó al correcto avance de lo establecido al inicio del verano.
CONCLUSIONES
La parte teórica de la física de partículas puede llegar a ser complicada pues se sustenta de varias otras ramas de la física como la mecánica teórica junto a la mecánica cuántica, pero para poder entender bien esta área es necesario entender la electrodinámica cuántica pues esta nos lleva a la teoría cuántica de campos con la cual podemos realizar los cálculos correspondientes para nuestros objetivos, pero a pesar de esto, con buena tutela podemos ver que no es tan imposible como llega a sonar en un principio, dejando solo la belleza de una teoría tan avanzada a la que hemos llegado después de siglos de desarrollo en conocimientos de física.
Godines Torres Oscar Baltazar, Instituto Tecnológico de Morelia
Asesor:Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
DETERMINACIóN DE LA VARIACIóN DEL íNDICE DE CENTELLEO INTERPLANETARIO CON EL
TIEMPO PARA LA FUENTE DE RADIO 3C48
DETERMINACIóN DE LA VARIACIóN DEL íNDICE DE CENTELLEO INTERPLANETARIO CON EL
TIEMPO PARA LA FUENTE DE RADIO 3C48
Godines Torres Oscar Baltazar, Instituto Tecnológico de Morelia. Asesor: Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El centelleo interplanetario (CIP) es una técnica que se fundamenta en el estudio de las variaciones que presenta la intensidad de la señal que produce una fuente de radio estelar al ser captada por un radio telescopio. Estas variaciones se producen por la interacción de las ondas de radio y los distintos materiales que atraviesan el medio interplanetario.
Las irregularidades de densidad en el viento solar causan que las ondas de radio presenten fluctuaciones de intensidad al ser captadas en la Tierra. El centelleo resulta de una serie de cambios de fase de las ondas causados por la variación del índice de refracción del medio (como se dijo antes, cambios de densidad). Al aumentar la densidad en el medio interplanetario, las fluctuaciones aumentarán también.
El estudio del CIP permite hacer una detección y seguimiento de las perturbaciones de gran escala que se propagan en el viento solar. Esto nos brinda una manera de vigilar constantemente la actividad del Sol, notando constantemente su interacción con el medio interplanetario, para la pronta detección de cualquier irregularidad. Recordemos que algunos eventos, como las tormentas solares, cuando son muy intensas pueden afectar a los sistemas de telecomunicación terrestre, principalmente los de navegación.
Además, el CIP se utiliza para determinar el diámetro de fuentes estelares de diámetro angular muy pequeño.
El índice m (índice de CIP) muestra el comportamiento de las fluctuaciones en la intensidad de la radiofuente a lo largo del tiempo. Para mayor practicidad este índice se normaliza a su valor máximo.
METODOLOGÍA
Para la realización del análisis del índice m en función de la elongación (ángulo formado por las líneas Tierra-fuente y Tierra-Sol) se tomaron los datos registrados por dos radio telescopios, ISEE (Institute for Space – Earth Enviromental Research) y BSA (Big Scanning Array), en los meses de Enero a Julio de 2013 y 2014. Se tomaron 2 minutos 30 segundos de datos (8000 puntos) durante el tránsito de 3C48 para ISEE, y 10 minutos de datos (6000 puntos) antes, durante y después del tránsito de 3C48 para BSA.
Debido al movimiento estelar no pueden realizarse mediciones en todos los días del año para la fuente de radio 3C48, la cual tiene su mínima elongación en los 20º aproximadamente, siendo observada únicamente en la zona de dispersión débil.
Con ayuda de un programa escrito en el lenguaje de IDL se llevó a cabo el análisis de los datos de cada día por separado durante dos años del tránsito de 3C48. El programa toma los valores registrado en el día y calcula el espectro de potencia para distintas frecuencias a lo largo del tiempo, además calcula e imprime el índice m, todo con ayuda de los promedios y la varianza en los datos. Se repitió el proceso para cada día de datos, tanto para ISEE como para BSA.
Los datos obtenidos se acomodaron por fecha en un archivo para cada arreglo (BSA e ISEE).
Se calculó la elongación para la fuente de radio para los distintos días del año, con ayuda del programa Elongation.pro, proporcionado por el asesor. Se pueden utilizar los datos de elongación de otros años de ser necesario, con un error de aproximadamente 1º.
Con ayuda de la función READCOL de IDL se modificó un programa que leyera la columna de datos que contiene los valores del índice m y la columna que contiene a la fecha. Se llamó a la función Date2doy.pro para colocar las fechas en orden por posición del día del año. El programa final graficó los datos del índice normalizado a su valor máximo (eje de las ordenadas) contra los días del año (eje de las abscisas) en un plano cartesiano mostrando además una barra de color que indica el valor del ángulo de elongación de 3C48 para cada día del año variando el color del punto. Se representaron los puntos para ISEE como círculos, y los de BSA como triángulos apuntando hacia la parte superior.
Se repitió el proceso para distintos conjuntos de valores, ISEE 2013, ISEE 2014, ISEE 2013-2014, BSA 2013, BSA 2014, BSA 2013-2014, ISEE+BSA 2013, ISEE+BSA 2014 Y ISEE+BSA 2013-2014. Por lo que al final se obtuvieron 9 gráficas distintas en total.
Se realizó además un grafica del índice normalizado contra la distancia heliocéntrica (p), la cual se relaciona con la elongación (E) de la siguiente manera:
p = (1UA)senE
Donde 1 UA (Unidad Astronómica) es la longitud de la línea Tierra-Sol, la cual es equivalente a 215 radios solares (R0).
CONCLUSIONES
Como era de esperarse el comportamiento del índice m normalizado presenta un aumento cuando disminuye la elongación, y presenta una disminución al aumentar dicha elongación. Alcanzando un máximo en las fluctuaciones y en el índice aproximadamente en 20º en la elongación. El comportamiento concuerda con la teoría, ya que es lógico suponer un aumento en la densidad del medio interplanetario en distancias heliocéntricas menores (lo que significa también una elongación menor), y una disminución en dicha densidad a distancias mayores; donde normalmente hay menos influencia por la actividad solar. Al recordar que las fluctuaciones de la onda de radio de la fuente dependen de los cambios de densidad en el medio, se esperaba un aumento de dichas fluctuaciones en ángulos de elongación menores, ya que el viento solar y sus variaciones son más intensas.
A partir de la gráfica de puntos del índice m contra la distancia heliocéntrica se espera realizar un ajuste lineal por medio de regresión a una banda de potencia de la siguiente forma:
m = a*pb+-e
Donde a y b son constantes y e representa los limites superior e inferior de la banda de potencia.
Gómez Gómez Fernanda, Instituto Tecnológico de Morelia
Asesor:Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
ESTUDIO DE LAS TORMENTAS GEOMAGNéTICAS MáS INTENSAS REGISTRADAS
ESTUDIO DE LAS TORMENTAS GEOMAGNéTICAS MáS INTENSAS REGISTRADAS
Gómez Gómez Fernanda, Instituto Tecnológico de Morelia. Asesor: Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Las tormentas geomagnéticas son perturbaciones del campo magnético de la Tierra, que duran desde varias horas hasta incluso algunos días. Su origen es externo y se producen por un aumento brusco de las partículas emitidas en las erupciones solares que alcanzan la magnetosfera, produciendo alteraciones en el campo magnético terrestre. En este proceso interviene la interacción del magnetismo de la tierra con el viento solar. Estas tormentas provienen de variaciones en el viento solar que producen grandes cambios en las corrientes, plasmas y campos de la magnetosfera de la Tierra.
Las condiciones idóneas para que haya una tormenta geomagnética se producen cuando hay períodos de viento solar de alta velocidad sostenidos durante varias horas.
Las tormentas más grandes se asocian con eyecciones de masas coronales (EMC) en las que unos mil millones de toneladas de plasma solar, con su campo magnético incluido, llegan a la Tierra. Las EMC proceden de la atmósfera exterior del Sol, que es una zona con campos magnéticos muy fuertes. Al cerrarse, estos campos pueden expulsar materia de forma repentina en una gran explosión. Generalmente las EMC tardan días en llegar a nuestro planeta, pero se han detectado casos, para las tormentas más intensas, en los que llegan en apenas 18 horas.
La problemática de las tormentas geomagnéticas es que si se presenta una de gran magnitud podría afectar la Tierra interfiriendo en las comunicaciones de radio y vía satélite, la mayor preocupación sería la red eléctrica, puesto que la subida de tensión que provocarían las partículas solares podría dañar los transformadores eléctricos, y se necesitaría mucho tiempo para sustituirlos, sobre todo si se destruyen cientos al mismo tiempo o inclusive las zonas afectadas podrían quedarse sin energía eléctrica. Es por eso que es importante tener un control y un registro de las tormentas geomagnéticas más intensas que se han presentado.
METODOLOGÍA
Para esta investigación se utilizó la base de datos de las tormentas geomagnéticas más intensas que se tiene registrada en Space Weather Live, se tomó la información de la tabla registrada donde en el sitio en la cual se encuentran las 50 tormentas geomagnéticas más intensas desde el año 1994 hasta el año 2015. Con esas 50 fechas registradas se analizó cada una de ellas para obtener algunos datos de interés como lo fueron el índice geomagnético, los registros in situ de campo magnético y plasma, las características que se presentaron de las eyecciones de masa coronal y de las fulguraciones solares asociadas a estas tormentas geomagnéticas, la cantidad de flujo que presentan y el nivel de intensidad que tuvieron.
El proceso para ir armando la tabla con toda la información necesaria fue investigar las fechas de las tormentas geomagnéticas, el índice dst (tiempo de tormenta) el cuál es una medida en el contexto del clima espacial, la cual proporciona información sobre la fuerza de la corriente del anillo alrededor de la Tierra causada por protones y electrones solares, el índice kp que es un índice geomagnético de tipo cuasi-logarítmico que indica la perturbación del campo geomagnético a nivel local, tomando como referencia la curva de variación diaria de un día en calma del observatorio geomagnético en el que se mide, durante intervalos de tres horas, este índice genera un valor Ap que es un nivel promedio de la actividad geomagnética y en base a eso se puede determinar la intensidad de la tormenta geomagnética dependiendo el valor de los índices antes mencionados.
Posteriormente se obtuvo la información de las fulguraciones, los datos a obtener aquí fueron las horas en las que se dio el inicio, el punto máximo y el final de la fulguración, la región y la locación en donde se presentó, la intensidad de los rayos X de la fulguración la cual se podía clasificar en cuatro tipos de clases: B que son las más bajas y comunes, presentan un flujo de , las clase C son fulguraciones solares mínimas que tienen de un efecto pequeño a ninguno en la tierra y son de larga duración, presentan un flujo de , las clase M son lo que llamamos las fulguraciones solares mediana grande, algunas fulguraciones solares eruptivas de la clase M también puede causar tormentas de radiación sola, son fuertes y de larga duración, son buenas candidatas a lanzar una eyección de masa coronal y las clase X son las más grandes y fuertes de todas, en promedio, las fulguraciones solares de esta magnitud ocurren 10 veces por año.
También se investigó la información de las eyecciones de masa coronal donde los datos más relevantes fueron obtener la fecha en la que se suscitó, la hora, la posición del ángulo central, el ancho y la velocidad que tuvo la eyección de masa coronal. Una vez que se obtuvieron todos los datos se realizó un estudio estadístico para ver las características que han tenido las fulguraciones y eyecciones respecto a las tormentas geomagnéticas intensas registradas.
CONCLUSIONES
En esta estancia de verano en línea se obtuvo conocimientos de las tormentas geomagnéticas y se comprendió el impacto que podrían llegar a tener en la Tierra si llegaran a ser muy intensas, se comprendió que existen diferentes intensidades, para cuantificar el tamaño de las tormentas geomagnéticas se utilizan los índices geomagnéticos los cuáles indican la actividad magnética en intervalos de tres horas. Se comprendió que las tormentas geomagnéticas pueden ocasionar algunos efectos como lo son las auroras boreales que se pueden visualizar en algunas zonas de la Tierra, esto ocurre cuando son de baja intensidad y de pequeño tamaño, además es de suma importancia seguir vigilando y registrando las tormentas geomagnéticas que ocurran para poder hacer predicciones a largo plazo y estar prevenidos.
Gómez Martínez Yeritza, Instituto Politécnico Nacional
Asesor:Dra. Norma Ramirez Hernandez, Universidad de Guadalajara
DTI Y SU APLICACIóN EN LA EVALUACIóN DE CONECTIVIDAD NEURONAL
DTI Y SU APLICACIóN EN LA EVALUACIóN DE CONECTIVIDAD NEURONAL
Gómez Martínez Yeritza, Instituto Politécnico Nacional. Asesor: Dra. Norma Ramirez Hernandez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El sistema nervioso (SN) es una red compleja de estructuras especializadas que tienen como misión controlar y regular el funcionamiento de los órganos y sistemas. El SN se divide en: sistema nervioso central (SNC) y el sistema nervioso periférico (SNP). En el SNC existen dos áreas de diferente coloración conocidas como sustancia gris y sustancia blanca, que contienen los cuerpos de las neuronas, axones y células de la glía, responsables de las funciones atribuidas al SN.
El patrón de conectividad cerebral está formado por vínculos estructurales como sinapsis o vías de fibra (conectividad anatómica), o representa relaciones estadísticas (conectividad funcional) o interacciones causales (conectividad efectiva). La actividad y los códigos neuronales están limitados por la conectividad, por lo que es crucial para comprender cómo las redes neuronales procesan la información que llega al sistema nervioso.
En neurociencia, una tractografía es un procedimiento que se usa para poner de manifiesto los tractos neurales obtenidos de las imágenes por tensor de difusión (DTI), presentando tal información en un mapa de color basado en la direccionalidad del desplazamiento de las moléculas de agua a lo largo de los tractos de sustancia blanca. Las DTI permiten cuantificar el grado de difusión o anisotropía de los protones de agua en los tejidos. En este tipo de imágenes la unidad mínima procesable a nivel tridimensional es el vóxel. La difusión del agua dentro de los vóxeles puede ser en todas las direcciones y sin restricción alguna (difusión isotrópica) o en una dirección puntual (difusión anisotrópica). El tensor de difusión es la representación tridimensional de la variabilidad de la difusión del agua en cada vóxel, donde las características que determinan la intensidad de cada vóxel es el conjunto del Coeficiente de Difusión Aparente (CDA), el tiempo de relajación transversal y el grado de difusión del agua. A su vez, el cálculo del tensor se realiza con eigenvectores y los valores del CDA para cada uno de los ejes, llamados eigenvalores. La anisotropía fraccional (FA) es una variable numérica de rango entre 0 (máxima isotropía, donde el agua se moviliza libremente) y 1 (máxima anisotropía, por restricción en el movimiento del agua). Esta modalidad de adquisición no invasiva y presentación de información por imágenes han despertado interés sobre su uso para el diagnóstico, pronóstico y verificación de tratamiento en múltiples enfermedades como en el accidente cerebrovascular, la esclerosis múltiple, así como también en enfermedades mentales y particularmente en el estudio de los tumores cerebrales.
METODOLOGÍA
1. Tractografía: Para la obtención de la tractografía se utilizó el software Diffusion Toolkit; posteriormente para seleccionar los tractos a emplear, fue necesario extraer la información del archivo .trk que se obtiene de TrackVis implementando un algoritmo propio en Matlab con las especificaciones dadas por el fabricante.
2. Atlas cerebral: El atlas es una descripción volumétrica o superficial de las cuales se han identificado estructuras anatómicas o funcionales. Para este trabajo se empleó el atlas AAL (Automated Anatomical Labelling), que separa las estructuras en 116, según la intensidad de los pixeles en el archivo original.
3. Matriz de conectividad: Posterior a los procesos aplicados para la tractografía y el atlas, se realizaron los siguientes pasos para la obtención de la matriz de conectividad.
a) Del archivo .nii que contenía la resonancia y del cual se extrajeron los tractos, se midió el grado de inclinación que tiene la imagen 3D en los ejes xy.
b) Se aplico el giro de los grados obtenidos previamente al atlas.
c) Debido a la diferencia de tamaño entre la tractografía y el atlas, fue necesario ajustar los parámetros del atlas a las medidas de la tractografía, considerando no solo el número de vóxeles, sino que también el tamaño de estos.
d) De la información obtenida de la tractografía, se extrajeron el número de tractos, el número de puntos de cada tracto y sus coordenadas para ser evaluadas posteriormente en las estructuras del atlas.
CONCLUSIONES
Resultado de la evaluación de coordenadas de la tractografía en las estructuras del atlas se esperaba obtener una matriz de nxm, donde n corresponde al número de tractos seleccionados y m al número de estructuras del atlas (116). Para realizar la representación cuadrada se requeriría la implementación de otro algoritmo para convertir los datos obtenidos de la matriz no cuadrada a la deseada, donde se observaría la conectividad entre las estructuras del atlas.Es relevante mencionar que en la matriz obtenida no se contiene la información sobre la direccionalidad de la difusión que originalmente proporciona la tractografía.
Como puede verse, la tractografía puede aplicarse en diversos campos de la investigación, como:
Neurofisiológica en las consecuencias pato-fisiológicas asociadas a desordenes del sistema nervioso central.
Anatomía del cerebro en la distribución espacial de la red compleja del cerebro ofrece la información adicional con respecto a la anatomía del cerebro sobre MRI convencional.
Neuropatológica, donde la anisotropía de la difusión se relaciona con el estado de mielinización del axón, la medición de este parámetro usando DTI puede ofrecer discernimiento sustancial en las condiciones neuropatológicas relacionadas con la desmielinización, tal como en la esclerosis múltiple.
El DTI es importante cuando un tejido tiene una estructura fibrosa (agua se difunde más rápidamente en la dirección alineada con la estructura interna). Esto también significa que la tasa de difusión será diferente dependiendo de la dirección de muestreo. Gran parte del avance en el conocimiento de la conectividad cerebral, de su funcionamiento en redes neuronales distribuidas, así como la estructura y funcionalidad de la Sustancia Blanca ha venido de la mano de la neuroimagen y más concretamente, del desarrollo de técnicas de Tractografía como las DTI.
Gómez Mérida Brandon, Instituto Politécnico Nacional
Asesor:Dr. José Valentín Osuna Enciso, Universidad de Guadalajara
OPTIMIZACIóN MEDIANTE ALGORITMOS METAHEURíSTICOS.
OPTIMIZACIóN MEDIANTE ALGORITMOS METAHEURíSTICOS.
Gómez Mérida Brandon, Instituto Politécnico Nacional. Asesor: Dr. José Valentín Osuna Enciso, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los métodos tradicionales de procesamiento de imágenes u optimización, presentan diferentes dificultades al ser usadas, y también pueden ser algo lentas en comparación a otros métodos, por esa razón los últimos años se ha ido optando por las técnicas de optimización metaheurísticas por sus mejores resultados y mayor rapidez.
Es por eso que se decidió desarrollar algunos algoritmos metaheuristicos en el lenguaje de programación julia para corroborar la afirmación anterior.
METODOLOGÍA
Se tomó como lenguaje de programación a Julia, por su velocidad y bondades para desarrollar algoritmos metaheurísticos.
Primero se aprendió la sintaxis de Julia y se hizo las instalaciones debidas para poder ocuparlo, después de eso se elegía un algoritmo metaheuristicos y se trabaja con él, después se elegía otro y así sucesivamente.
En esta estancia se ocuparon los algoritmos de búsqueda armónica, colonia artificial de abejas y optimización de colonia de hormigas, que se ocuparon para optimizar algunas ecuaciones como Rosenbrock, Ackley, Griewank, Levi, etc.
Lo primero que se hacía era elegir un algoritmo, después investigar sobre él, qué es lo que hacía, qué necesitaba, cómo funcionaba, y qué se obtenía a partir de él.
Sabiendo lo anterior se ocupaba o se desarrollaba un seudocódigo sobre el mismo, después se llevaba a cabo la programación del algoritmo y finalmente se comprobaba qué tal funcionaba con respecto a otros algoritmos de optimización.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos de algunos algoritmos metaheurísticos y se llevó a práctica a los mismos.
También que los algoritmos de inteligencia artificial pueden ser basados en la naturaleza y su comportamiento, como algunos que conllevan inteligencia de enjambre que se basa en el comportamiento de sistemas descentralizados es decir comportamiento colectivo.
Los algoritmos metaheuristicos pueden ser mejor que los tradicionales gracias a la probabilidad y la aleatoriedad, ya que estos sirven para poder recrear el mundo real.
González Barreda María Concepción, Instituto Tecnológico de Colima
Asesor:Dr. Santiago Arceo Díaz, Instituto Tecnológico de Colima
SIMULACIóN DE óRBITAS PLANETARIAS MEDIANTE UN ALGORITMO NUMéRICO DE N CUERPOS
SIMULACIóN DE óRBITAS PLANETARIAS MEDIANTE UN ALGORITMO NUMéRICO DE N CUERPOS
González Barreda María Concepción, Instituto Tecnológico de Colima. Asesor: Dr. Santiago Arceo Díaz, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
A medida que una estrella envejece la reserva de hidrogeno decae, tal que la temperatura y el brillo de la estrella cambian drásticamente, hace que se genere una expansión y su estructura se hace inestable.
Una estrella que se encuentra en la secuencia principal es aquella que se contrae hasta que su interior alcanza la temperatura suficiente para comenzar reacciones nucleares entre los átomos de hidrógeno, lo que termina produciendo helio en su interior y produce presión suficiente hacia el exterior para contrarrestar la fuerza gravitatoria y mantener estable la estrella. Una vez que el combustible de hidrogeno en su núcleo se ha agotado hace que la estrella pase más allá de su secuencia principal y trate de obtener energía de otras fuentes, esto hace que las capas exteriores colapsen hasta llegar a un punto donde la estrella se enfríe y expanda aún más, convirtiéndose en una gigante roja.
En nuestro sistema solar la gravedad que posee el sol atrae a los planetas ya que no están sujetos a otra fuerza. Todos los objetos que son masivos producen atracción gravitatoria más grande que los objetos con menor masa, de tal forma que la estrella terminará ejerciendo un atracción gravitacional más fuerte en comparación a sus planetas, tales planetas estarán desplazándose lateralmente, lo que da seguimiento a su órbita. El sol aún es joven pero una vez que este haya agotado su hidrogeno comenzar a ganar mas temperatura, la luz emitida se tornara roja y aumentara su volumen convirtiéndose en gigante roja, debido a que su fuerza gravitatoria aumenta, los planetas sentirán atracción gravitacional hasta causar perturbaciones en las orbitas de los planetas, haciendo colisión con mercurio, venus y probablemente a la tierra.
METODOLOGÍA
Para realizar una simulación de la órbita de los planetas alrededor de su estrella madre y observar cómo se comportará una vez que se convierta en una gigante roja, es indispensable contar con datos que pueden ser extraídos de una base de datos (masa, posición inicial, etc.) tal que nos proporcione información tanto de la estrella como de los planetas para posteriormente calcular variables, tales como velocidad y aceleración. Las simulaciones se pueden realizar mediante diversos leguajes de programación y métodos numéricos, uno de ellos es utilizar el más simple de los métodos numéricos, el método de Euler.
Para la simulación de las orbitas de nuestro sistema solar por método de Euler, principalmente se declararon una serie de posiciones mediante vectores de los planetas como de la estrella, teniendo en cuenta su posición en el eje x y y , asimismo la declaración de variables que contengan al vector velocidad, a partir de esto se hace uso del método de Euler, que mediante un ciclo de n iteraciones a realizar calcule por cada una de las iteraciones las nuevas posiciones de los planetas tanto en el eje y como en el eje x, esto dependiendo de la posición y velocidad de dicho planeta, de la misma manera se ha calculado la distancia entre el sol y dicho planeta, su magnitud, vector unitario y aceleración que se van actualizando por cada iteración. No obstante, el método de Euler presenta problemas y es que, las gráficas presentadas muestran como este método representa la órbita de manera no exacta y se reproducen orbitas tanto elípticas como circulares en cada periodo después de muchas iteraciones realizadas, esto es debido a que por cada iteración realizada el error se va sumando, este es proporcional al tamaño del paso que realiza en cada iteración.
Sin embargo, un método más complejo pero eficaz es el de Runge Kutta orden cuatro de igual manera que el de Euler necesita de valores iniciales. Este método obtiene soluciones aproximadas de ecuaciones diferenciales cuya aproximación es eficaz, presenta un margen de error pequeño y permite calcular una aproximación de la evolución orbital mediante ecuaciones diferenciales, tomando valores calculados con anterioridad para calcular los coeficientes siguientes.
Para la simulación del sistema solar mediante Runge Kutta se ha extraído una serie de datos que han sido obtenidas de una base de datos, esta brinda descripciones y valores que poseen los planetas y su estrella, inicialmente se ha planteado el numero de iteraciones que tendrá el programa, velocidad del planeta y el sol (equivalente a cero al ser un centro de referencia), gravedad terrestre, cabe mencionar que estos datos están dados en unidades astronómicas, masa de los planetas y el sol, distancia inicial entre el sol y el planeta uno, y declaración de las posciones de losplanetas y el sol representado por vectores y finalmente la velocidad de los planetas. Posteriormente se hizo uso de un ciclo (for) que permite calcular en cada iteración constantes, estas toman el valor anterior de la constante que son necesarias para solución de la ecuación diferencial para la aproximación. Este ciclo también permite actualizar valores tal como la velocidad y posición que presentan los cuerpos a medida que se mueven respecto a la órbita que generan.
Finalmente, para evitar que el programa cree demasiadas graficas que muestran cómo cambia la posición de dichos planetas y estrellas en cada iteración se ha agregado dentro del ciclo la actualización de la posición para evitar la saturación de gráficas y sea mejor la visualización del orbita.
CONCLUSIONES
La diferencia entre el método de Euler y Runge Kutta orden cuatro se presenta en las gráficas, donde la órbita generada por Euler muestra grosor en la orbita que es el error cuando se grafican periodos sucesivos, mientras que por RKO4 (Runge Kutta orden cuatro) la órbita generada es ligeramente menos gruesa, debido que ingresa cinco veces más iteraciones, pero el error es mínimo. Asimismo, la gráfica del sistema solar se muestra más estable.
A partir del código creado por RKO4 y mediante Octave, se planea recrear simulaciones de sistemas de exoplanetas para explicar cómo las propiedades estelares afectan a las orbitas de dichos exoplanetas, esto con la finalidad de elaborar un artículo científico.
González Mondragón Cesia Samantha, Instituto Tecnológico de Matamoros
Asesor:Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
Bautista Parra Giovanni, Instituto Tecnológico de Chilpancingo. González Mondragón Cesia Samantha, Instituto Tecnológico de Matamoros. Ponciano Calvo Karen Denisse, Instituto Tecnológico de Chilpancingo. Riaño Martínez Jaime Daniel, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN
El estado de Guerrero se ubica en el sur de la república mexicana, colinda al norte con los estados de México, Morelos y Puebla al sur con el océano pacífico, al este con Oaxaca y al oeste con Michoacán.
Tiene una extensión territorial de 63794 km2 y los tipos de relieve que más se encuentran son las montañas, las sierras y profundas barrancas esparcidas en 7 regiones: Costa Chica, Costa Grande, Acapulco, La Montaña, Tierra Caliente y la región Centro, las cuales tienen importantes ecosistemas como el acuático, que lo componen las aguas dulces y aguas saladas, y el terrestre que son los arrecifes, selvas y bosques.
La región centro cuenta con 13 municipios y en este proyecto de investigación nos vamos a enfocar en la cabecera municipal del estado, Chilpancingo.
Según los datos recabados por la coordinación general de protección civil de Chilpancingo, la ciudad se encuentra en una situación de riesgo debido a las 54 barrancas de las cuales 13 son consideradas de alto riesgo, 22 de riesgo moderado y 19 de riesgo bajo.
La barranca de Las Calaveras se ubica entre el fraccionamiento cumbres 2 y nuevo horizonte con una longitud aproximada de 593 m. dando inicio aguas arriba en el mercado central Baltazar R. Leyva Mancilla, atravesándolo y desembocando en la zona de la central de autobuses.
En temporadas de lluvia, el principal problema que se presenta es el arrastre de gran cantidad de sedimentos, cascajo y principalmente basura que las mismas personas arrojan a las calles, mismos que generan azolves en el sistema de drenaje y alcantarillado atascándolo y generando inundaciones, caos vial, brote de aguas negras y socavones en las principales avenidas que atraviesa la barranca.
La mancha urbana se ha ido esparciendo sobre estas zonas provocando que las personas vivan en condiciones de alta vulnerabilidad; aproximadamente 800 familias son las que habitan en zonas de alto riesgo en la capital invadiendo el cauce natural de la barranca, afectando la flora y fauna de ese sitio y alterando el ciclo hidrológico.
También los habitantes se arriesgan a que sus casas puedan derrumbarse debido a un socavón o la inestabilidad de las laderas en cada temporada de lluvias. A pesar que los elementos de protección civil realizan operativos y visitas a esas zonas para concientizar a las personas, unos no hacen caso al llamado argumentando que es el único patrimonio que les queda, por otra parte, algunos ciudadanos han hecho caso al llamado y han sido reubicados en el fraccionamiento Nuevo Mirador de esta ciudad.
METODOLOGÍA
METODOLOGÍA
La obtención de información de este proyecto se enfoca principalmente en dos métodos de investigación que son:
Investigación documental: análisis de estructura y contenido de información consignada en los documentos oficiales de organismos relacionados con el tema, así como trabajos académicos.
Analogía de la estructura y contenido de los documentos.
Síntesis de la información.
Investigación de campo:
Cuantificaciones en campo en el momento en que sea posible.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la gestión del medio ambiente en la ciudad de Chilpancingo, mediante análisis y síntesis de información documental. A consecuencia de las condiciones de riesgo por la pandemia de COVID-19 no se desarrolló trabajo de campo.
El material azolvado producto del intemperismo de las rocas o suelos, son arrastrados por el proceso de erosión, el arrastre de este tipo de sedimentos puede llegar a afectar las obras civiles dentro de la barranca las calaveras por lo que es indispensable proponer algún mecanismo de control de azolves.
Esperamos que la información que recopilamos de los distintos autores, sea un fundamento que nos permita contribuir a la restauración de la barranca "Las Calaveras" con el fin de reducir los daños antrópicos producidos por los habitantes de Chilpancingo.
González Morales Karina, Instituto Politécnico Nacional
Asesor:Dr. Gilberto Lorenzo Martínez Luna, Instituto Politécnico Nacional
ANáLISIS DE PERIóDICOS HISTóRICOS MEDIANTE PROCESAMIENTO DE LENGUAJE
NATURAL PARA LA IDENTIFICACIóN DE EVENTOS METEOROLóGICOS.
ANáLISIS DE PERIóDICOS HISTóRICOS MEDIANTE PROCESAMIENTO DE LENGUAJE
NATURAL PARA LA IDENTIFICACIóN DE EVENTOS METEOROLóGICOS.
González Morales Karina, Instituto Politécnico Nacional. Asesor: Dr. Gilberto Lorenzo Martínez Luna, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En este proyecto se implementó un primer modelo de procesamiento y tratamiento de los periódicos históricos de México, contenidos en diferentes plataformas digitales por medio del procesamiento de lenguaje natural en Python.
METODOLOGÍA
Existen distintas metodologías que se presentan, sin embargo, para las características propias del proyecto se trabajó bajo el marco de referencia SCRUM dentro de la metodología de desarrollo de software Agile [4], en tanto permite crear software complejo, mientras permite que éste sea entregado en los tiempos solicitados, a partir de considerar un enfoque mucho más humano de la solución de problemas, bajo el entendimiento de que pueden cometerse errores, pero que puede evitar el perder tiempo en pasos que se consideran innecesarios.
CONCLUSIONES
Como resultado final se obtuvo un modelo inicial de tratamiento y procesamiento de lenguaje natural de periódicos históricos para la alimentación de redes neuronales bajo el proceso de Deep Learning.
Módulo 1: Fuentes de información
Conforme a las tres fuentes de información de los periódicos históricos (Memórica, HNDM y Biblioteca Virtual Miguel de Cervantes), se obtuvo la información de las rutas de descarga de los PDF a través del complemento Web Scraper de Chrome. Con las rutas obtenidas, se realizó la descarga de distintas colecciones de periódicos, recopilando una colección cercana a los 200 periódicos para fines de este trabajo de investigación.
La calidad de los periódicos suele ser variable, debido al deterioro que han tenido las piezas originales. Así mismo, cada colección tiene formatos distintos en cuanto a su estructuración.
Módulo 2: Conversión de PDF a imágenes
Debido a que los documentos son obtenidos de distintas fuentes, algunos de los documentos cuentan con su propio OCR. Sin embargo, para los que no contaban con esta transformación fue preciso hacer uso de aplicaciones web para hacer una transformación de PDF a formato JPG. Esto, con el fin de ser utilizado en el módulo siguiente.
Módulo 3: Pytesseract (Transformación OCR)
En este módulo, los archivos de los periódicos convertidos a formato JPG, son procesados haciendo uso de la herramienta Pytesseract, dentro del entorno de Python para transformar a OCR. Posteriormente, tanto los archivos a los que se les ha transformado a OCR, como los que ya contaban con ello, son guardados en archivos de texto (.txt), creando un repositorio de forma local, pero también en Dropbox para ser utilizado para futuras mejoras y proyectos.
Módulo 4: Limpieza de datos
El archivo de texto tiene caracteres extraños, por lo cual resultó preciso hacer un preprocesamiento, es decir, una limpieza del texto. En este módulo, se detectaron caracteres no útiles para posteriormente ser eliminados.
Asimismo, se eliminaron saltos de página para tener una secuencia con todas las páginas de los periódicos. Además, se eliminaron saltos de fila, esto debido a que los textos en los periódicos a menudo, están conformados en columnas en donde las líneas contienen sólo una parte de un enunciado completo. Este proceso se realizó en un ciclo en todo el repositorio de textos.
De la misma forma, se descartaron las palabras vacías (stop words) que hacen referencia a palabras que no aportan información al texto como pueden ser conjunciones, preposiciones, entre otros. Se realizó una gráfica comparativa de la frecuencia de palabras conforme al proceso de limpieza de texto.
Con este proceso, se logra una normalización de los textos para obtener un repositorio mucho más homogéneo, con la limitante de la calidad de los textos respondiendo a su característica histórica.
Módulo 5: Procesamiento de Lenguaje Natural
Una vez preprocesado el texto, se utilizaron las herramientas de Procesamiento de Lenguaje Natural que ofrece Python. Se hizo uso de dos principales librerías para esta tarea, NLTK y Stanford. Esta última, fue implementada para subsanar las deficiencias de NLTK para su uso en idioma español.
La librería NLTK fue usada para realizar el proceso de tokenización, tanto de palabras como de enunciados. Con las palabras tokenizadas se hizo uso de la herramienta de POSTAG de la librería Stanford, configurada al español, para obtener un etiquetado de las palabras, reconociendo si son pronombres, verbos, adjetivos, sustantivos, entre otros.
Posterior a tener tokens limpios, se implementó el código para intercambiar palabras por sus sinónimos. Con el proceso realizado en este módulo, se propició un diccionario mucho más reducido para el módulo siguiente.
Módulo 6: Frecuencias
Una vez tratado el texto en el contexto del procesamiento de lenguaje natural, se procedió a obtener información más tangible de nuestro repositorio de textos de periódicos históricos. Con cada uno de los textos procesados se creó una bolsa de palabras global, que contiene todas las palabras contenidas en ellos. Es así, como se obtuvieron dos matrices principales. La primera, es la matriz de la bolsa de palabras, donde se obtiene, por cada texto del repositorio, el número de veces que cada palabra es mencionada.
Se realizó la matriz de términos, donde se puede visualizar el porcentaje de aparición de cada una de las palabras en el texto. Esta matriz también se encuentra limitada a las 1000 palabras más frecuentes para su visualización.
Ambas matrices nos permiten obtener información sobre los textos de forma numérica. Sin embargo, para darle un sentido mucho más gráfico, se realizaron nubes de palabras (Word cloud). Esto nos permite analizar nuestro diccionario conforme a la bolsa de palabras del corpus generada, de una forma más tangible. Con lo que se puede observar, el contexto de las noticias de los periódicos históricos a partir de las palabras más recurrentes.
Módulo 7: Entradas a red neuronal (Salida de sistema)
En este último módulo, se dejan las bases para el funcionamiento de los modelos de redes neuronales de Deep Learning, donde se realiza la carga de los textos procesados combinados en un solo conjunto. Éste servirá como entrada para las redes neuronales para trabajos posteriores.
Gonzalez Vigueras Monica Alejandra, Instituto Politécnico Nacional
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
MONITOREO DE LA CALIDAD DEL AIRE POR MATERIAL PARTICULADO PM10 Y PM2.5 DE LA REGIóN DE PUERTO VALLARTA
MONITOREO DE LA CALIDAD DEL AIRE POR MATERIAL PARTICULADO PM10 Y PM2.5 DE LA REGIóN DE PUERTO VALLARTA
Gonzalez Vigueras Monica Alejandra, Instituto Politécnico Nacional. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El gran crecimiento de la población de manera global afecta a la evolución vivida a lo largo de las últimas décadas, a la hora de tratar la gestión compleja de la calidad de la atmósfera en nuestro país, nos hace tener en cuenta que existe una gran variedad de legislaciones que, definen, regulan y gestionan las emisiones contaminantes a la atmósfera con el fin de prevenir, evitar o mitigar los riesgos ambientales que estos originan. Sin embargo, aunque se cuente con normativas se ven afectados las actividades principales como el turismo y las actividades agropecuarias que son las principales actividades de economía en esta región.
Debido al incremento de población en la zona se ha generado crecimiento turístico y esto a su vez ha generado problemas ambientales como el alza de tasa vehicular, crecimiento de las manchas urbanas, deforestación en la región, entre otras, y esto impacta directamente a la calidad del aire y calidad de vida como es la que se va a manejar a continuación.
METODOLOGÍA
Para llevar a cabo la siguiente investigación primero se realizó una búsqueda y revisión bibliográfica especializada acorde a los objetivos de la investigación.
Posteriormente se identificaron 11 puntos en el área de estudio consideradas las zonas conurbadas de la región, considerados los sitios con mayor frecuencia de tránsito vehicular entre los cuales se destacan, Las Juntas, Mojoneras, La Marina, El Coapinole, Ixtapa, Sams, Plaza Caracol, Pitillal, DIF Vallarta y el Centro.
Por consiguiente, se realizó el monitoreo en los puntos de interés para la medición de partículas suspendidas en el aire PM10 y PM2.5. La valuación se llevó a cabo durante el periodo 2018-2019, los datos se tomaron durante una semana por sitio de 8:00 am a 10:30 am, haciéndose un registro cada 15 minutos, realizando las lecturas con el aparato HoldPeak HP-5800F para partículas PM2.5/10 meter, que es un monitor automático que mide la concentración de partículas suspendidas en el aire con diámetros menores a 10 y 2.5 micrómetros, el cual arroja valores en tiempo real, dando resultados en microgramos por metro cúbico ( μg/m3). El sistema de medición fue puesto a una altura de aproximada de 2 metros sobre el nivel del suelo.
Con los datos obtenidos se elaboró una base de datos en Excel para obtener los promedios y definir las concentraciones máximas y mínimas de material particulado PM10 y PM2.5 obtenidas en cada punto de muestreo, estos resultados se procesaron en el programa ArcGis 10.5 para realizar una interproblación de la Distancia Inversa Poderada (IDW) y estimar la distribución de los datos en la cartografía correspondiente
Finalmente se realizará una correlación bivariada de los promedios de las concentraciones asociados a las enfermedades cardiorrespiratorias para verificar si existe alguna relación entre ellas.
CONCLUSIONES
Como resultado del análisis del monitoreo del material particulado PM10 y PM2.5 en la región de Puerto Vallarta dentro del periodo 2018-2019, de los cuales fue posible analizar y evaluar la calidad del aire dentro de los 11 puntos de muestreo. Dependiendo las actividades realizadas y ubicación de cada localidad presentan diferentes lecturas de dichos contaminantes. En la zona Las Juntas donde es un punto de entrada al Estado de Jalisco del Estado de Nayarit, se observa que tiene el índice de contaminación más alto debido a que es constante el paso de automóviles ya sea de uso particular o de algún servicio. De igual manera se llegó a observar que entre la zona de Coapinole y Pitillal existe un valor elevado de registro de material particulado, en esta zona se debe a que es una zona mayormente urbana y turística. Sin embargo los valores registrados están dentro de los límites permisibles indicado, esto indica que no afecta de manera regular a la actividad cotidiana que se lleva a cabo. Se debe tener en cuenta el monitoreo atmosférico ya que está asociada a diversos factores perjudiciales para nosotros, es un problema muy complejo, sin embargo el monitoreo constante nos da la seguridad de que no estamos expuestos a niveles dañinos de contaminantes y así poder realizar nuestras actividades sin ninguna consecuencia.
Guerrero Altamirano Mauricio, Instituto Politécnico Nacional
Asesor:Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)
EFECTO DE LOS PARAMETROS DE SINTESIS SOBRE EL CRECIMIENTO DE MONOCAPAS VERTICALES DE DISULFURO DE MOLIBDENO MEDIANTE DEPOSICIóN QUíMICA DE VAPOR
EFECTO DE LOS PARAMETROS DE SINTESIS SOBRE EL CRECIMIENTO DE MONOCAPAS VERTICALES DE DISULFURO DE MOLIBDENO MEDIANTE DEPOSICIóN QUíMICA DE VAPOR
Guerrero Altamirano Mauricio, Instituto Politécnico Nacional. Asesor: Dra. Alejandra Garcia Garcia, Centro de Investigación en Materiales Avanzados (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Dentro de la familia de los materiales bidimensionales, los dicalcogenuros de metales de transición forman un grupo de compuestos en capas, altamente anisotrópicos, que exhiben propiedades físicas interesantes e inusuales. Uno de estos materiales es el disulfuro de molibdeno, que en su forma monocapa resulta ser un semiconductor bidimensional de banda prohibida directa con propiedades que pueden ser utilizadas para dispositivos nanoelectrónicos y optoelectrónicos.
La idea detrás de este tipo de semiconductores estriba en crecer, mediante capas sucesivas de unas decenas de Ángstroms de espesor, una estructura de super-red cuasi-unidimensional. Cuando la diferencia de potencial establecida hace a la energía de los electrones entrar en resonancia con la estructura, la transmitividad del dispositivo es elevada y, por tanto, también la intensidad de la corriente que la atraviesa. Al incrementar dicha diferencia de potencial, la energía de los electrones deja de estar en resonancia y la intensidad decae. De esta manera, se presenta una ventana de oportunidades ante la posibilidad no solo de construir sensores muy específicos, sino también de obtener dispositivos más energéticamente eficientes.
Para el logro de este objetivo, el crecimiento cristalino controlado ha sido crucial. En la actualidad destaca la técnica de deposición química de vapor, que permite un crecimiento epitaxial.
En la síntesis de disulfuro de molibdeno mediante deposición química de vapor influyen numerosos factores: la rampa de temperatura, el gas de arrastre, el sustrato que se utiliza, la razón entre los precursores, por mencionar algunos. La modificación de alguno de estos parámetros trae consigo un cambio en las propiedades finales del material sintetizado y en la morfología de este. Esto ha motivado a que la investigación actual se centre en entender cómo esta variación influye en las propiedades finales del material.
En años recientes, se han publicado múltiples estudios en donde se sintetiza disulfuro de molibdeno mediante deposición de vapor. Dentro de estos estudios, los parámetros antes mencionados, entre otros, son modificados de acuerdo con la propiedad que se desea en el material final. Esto hace conveniente contar con una revisión que recopile las características principales de diversos procesos hasta ahora documentados, para buscar entre ellos coincidencias que permitan tanto proponer mecanismos que expliquen el fenómeno de variación, como detectar áreas de oportunidad donde se pueda hacer una aportación.
METODOLOGÍA
Con los recursos puestos a disposición por el Instituto Politécnico Nacional y CONRICYT, se consultaron diversos artículos científicos en donde se sintetizaba disulfuro de molibdeno mediante deposición química de vapor.
En una primera base de datos, se recopilaron las siguientes características de los procesos consultados: duración de la síntesis, tiempo y temperatura de crecimiento, gas de arrastre, velocidad de flujo del gas de arrastre, zona(s) de temperatura, rampa(s) de temperatura, sustrato, posición del sustrato, preparación del sustrato, precursores y razón entre precursores.
En una segunda base de datos, se recopiló el tipo de morfologías obtenidas tras la síntesis, las curvas Raman observadas, una ilustración de la configuración para la síntesis, así como otros resultados reportados en cada uno de los artículos.
Contrastando la información vertida en las bases de datos, se buscaron similitudes entre los procesos y los resultados reportados, centrando el análisis en la búsqueda de áreas de oportunidad hasta ahora no estudiadas.
CONCLUSIONES
Las propiedades finales que presenta el disulfuro de molibdeno (MoS2), sintetizado por deposición química de vapor (CVD), son sensibles a la modificación de los parámetros del proceso. El marco teórico existente, referente al crecimiento epitaxial, ha permitido proponer mecanismos de crecimiento del material. Sin embargo, la obtención de distintas morfologías, no solo horizontales sino también verticales, así como el cambio de propiedades que ocurre al modificar los parámetros, hace necesario entender a fondo esta variación.
Dentro de lo que hasta ahora se ha estudiado, referente a esta influencia de los parámetros de la síntesis por CVD en el crecimiento de monocapas verticales de MoS2, pueden destacarse diversos estudios. En 2018, Inguva et al. estudiaron el efecto del ángulo del sustrato en el crecimiento de vapor de nanohojas de MoS2 sobre materiales de carbono. En 2019, He et al. mostraron sus resultados sobre la influencia de distintos sustratos en la síntesis de estos mismos materiales. Por su parte, Johari et al. presentaron en 2020 un estudio en donde analizaban los efectos de la concentración del vapor de molibdeno sobre las nanohojas verticales de MoS2.
Las discusiones hasta ahora presentadas por los académicos sugieren que la formación de nanohojas verticales de disulfuro de molibdeno sobre silicio se debe a la alta tasa de difusión y a la alta densidad de los sitios de nucleación de MoS2 sobre el silicio. La fusión de dos islas de MoS2 lleva a una compresión intensiva, que induce una distorsión para formar una estructura de arco que libere la presión, y resulta en el crecimiento vertical de MoS2 en el sustrato de silicio.
Se encontró que el efecto de fotoluminiscencia de estas nanoestructuras ha sido poco estudiado; la fotoluminiscencia puede ser usada para verificar el comportamiento del semiconductor, dando información de cuáles y cómo están apilados los átomos en una oblea de silicio, permitiendo descubrir propiedades que impactan directamente la función del semiconductor. También, aunque ha sido observado previamente que el crecimiento de nanohojas verticales se da a lo largo de las direcciones relacionadas con la simetría hexagonal, esto último considerando la orientación original de la oblea de silicio, conviene estudiar detalladamente cómo la orientación de este sustrato influye en el material final.
Gutiérrez González Nelly Grethel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PROPIEDADES FíSICAS DE UNA RED DE NEURONAS DE IZHIKEVICH
PROPIEDADES FíSICAS DE UNA RED DE NEURONAS DE IZHIKEVICH
Gutiérrez González Nelly Grethel, Benemérita Universidad Autónoma de Puebla. Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional. Asesor: Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El estudio de las redes neuronales es la parte más importante para el desarrollo de las neurociencias, para escalar en el entendimiento de las neurociencias a diferentes niveles es necesario entender individualmente el comportamiento de las neuronas.
Las neuronas son sistemas dinámicos que pueden ser modelados matemáticamente de diferentes formas, dependiendo de sus variables de estado, parámetros, interacciones eléctricas, interacciones químicas, etc. En particular cuando se desean modelar potenciales de acción neuronal y estudiar sus causas, comportamientos específicos, umbrales de acción, etc. podemos centrarnos en modelos específicos. En nuestro caso se emplea el modelo de Izhikevich, que es capaz de reproducir comportamientos neuronales propios de neuronas corticales en mamíferos y además es optimo para reproducir comportamientos de redes.
METODOLOGÍA
Se empezó haciendo una revisión bibliográfica, de la cual es destacable el hecho de que las neuronas son sistemas dinámicos, es decir, es posible modelarlos mediante ecuaciones diferenciales (cuando evolucionan en tiempo continuo) o bien con ecuaciones en diferencias (cuando evolucionan en tiempo discreto), nosotros nos centramos en modelos de ecuaciones diferenciales.
Cuando se modela un sistema es importante considerar el conjunto de variables del sistema que están evolucionando, en el caso de las neuronas la variable más importante es el potencial de acción, que no es más que una corriente eléctrica espontánea y considerablemente grande que abandona la neurona, esta corriente ocasionando una diferencia de potencial eléctrico en la membrana neuronal, es esta diferencia de potencial la que suele ser la variable de evolución en los modelos neuronales.
Los potenciales de acción se ven reflejados en los perfiles de evolución como picos rápidos, lo que los genera son corrientes eléctricas que ingresan a la neurona por sus conexiones con otras neuronas y en menor medida ruido, resulta natural esperar que las entradas junto con los parámetros (que caracterizas a los diferentes tipos de neuronas) determinan el comportamiento de los disparos y el tiempo de reposo antes de un disparo. Como ya es ampliamente conocido las diferencias de potencial generar corrientes eléctricas, en el caso de las neuronas la pared membranal externa e interna están a diferentes potenciales, pero los ya mencionados picos solo son generados si se sobrepasa un umbral de diferencia de potencial que no esta determinado experimentalmente ni teóricamente.
Afortunadamente para poder estudiar e interpretar nuestros modelos existen diversas herramientas inherentes a las ecuaciones diferenciales que nos ayudan a validar los comportamientos que obtenemos. En particular los retratos de fase nos muestran los estados estacionarios que puede exhibir una neurona y la naturaleza de estos: picos periódicos, punto de equilibrio, ciclo limite, etc. Por otra parte, las bifurcaciones (transiciones de estado) nos permite clasificar el tipo de neuronas con las que trabajamos, siendo estas: biestables o monoestables, y resonadores o integradores.
Por otra parte, Hodgking estudio la bifurcación en la dinámica neuronal en los axones de calamar, mucho antes de que se desarrollara la teoría matemática. El idéntico tres clases de respuesta. También estudio como la conductancia y las corrientes dependen de el potencial membranal, a su vez que el potencial membranal depende de las corrientes, esto le permitió crear el modelo cinético más aceptado.
Un modelo simple, de tipo Hodgkin-Huxley, fue dado por Izhikevich, este modelo es un sistema dos dimensional cuadrático, cuyas variables dinámicas son el potencial de la membrana neuronal y una variable de recuperación membranal. Hay 3 parámetro: uno describe la escala de tiempo de recuperación de la membrana; otro describe la sensibilidad de la variable de recuperación a las fluctuaciones por debajo del umbral del potencial de la membrana; y la última describe el valor de restablecimiento del potencial/recuperación posterior al pico.
Haciendo uso del modelo de Izhikevick fuimos capaces de reproducir numéricamente siete comportamientos de neuronas corticales de mamíferos, siendo tres propios de células excitatorias corticales: dos cauterizan a las dos clases de neuronas corticales: una capaz de reproducir el comportamiento de neuronas tálamo corticales y otra una neurona que tiene pequeñas oscilaciones.
Usamos este modelo para una red de 200 neuronas, en la que respetamos la relación 4 a 1 de neuronas excitatorias e inhibitorias, consistente con la anatomía de las cortezas de mamíferos, este tipo de red exhibe una dinámica tipo cortical.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del comportamiento del potencial membranal de las neuronas, que interactúan fuera de una red, así como recrear los resultados obtenidos por Izhikevich. Entender los comportamientos individuales neuronales resulto fundamental para recrear un modelo de red en el que todas las neuronas están conectadas, y simular su actividad.
Hernández Galván Luz Stephanie, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PREDICCIóN DEL EXCESO DE NEUTRINOS DETECTADOS POR ICECUBE COMO PRODUCTO DE DECAIMIENTOS DE MATERIA OSCURA
PREDICCIóN DEL EXCESO DE NEUTRINOS DETECTADOS POR ICECUBE COMO PRODUCTO DE DECAIMIENTOS DE MATERIA OSCURA
Hernández Galván Luz Stephanie, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En 2013, la colaboración de IceCube reportó un exceso de 28 neutrinos de alta
energía, lo cual está muy por encima del número predicho considerando los
eventos de fondo. Se ha sugerido que dicho exceso en la emisión de neutrinos
puede explicarse como producto del decaimiento de partículas de materia oscura
masivas e inestables, las cuales pueden formar parte de los halos de la galaxia.
En este trabajo estudiamos esa posibilidad. Como objetivo particular se plantea
imponer restricciones al tiempo de vida del candidato de materia oscura a partir
de simulaciones numéricas. Se planea reproducir tanto la señal de neutrinos
producto del decaimiento de partículas de materia oscura, así como el fondo
proveniente de otras fuentes.
METODOLOGÍA
En el modelo estándar considera tres de las cuatro fuerzas fundamentales: fuerte cuyos mediadores son los gluones, la fuerza electromagnética teniendo como mediadores a los fotones y la fuerza débil con los bosones de norma como
2 / 3
mediadores. Además, en dicha teoría las partículas elementales son llamadas fermiones y se distinguen en dos tipos, quarks y leptones; la diferencia radica principalmente en las fuerzas que actúan sobre ellos o, dicho de otra manera, las cargas que poseen (eléctrica, débil o de color). Los fermiones están agrupados en tres familias o generaciones, en la segunda y tercera generación las partículas tienen características idénticas a aquellas de la primera, pero con mayor masa; hay que considerar algunas características tanto de quarks como de leptones, primeramente, los quarks son sensibles a todas las fuerzas que se describen en el modelo estándar,tienen carga eléctrica fraccionaria y permanecen confinados con los gluones; los leptones se dividen en electrón, muón y tau. Cada uno con un neutrino correspondiente, de los cuales los 3 primeros son sensibles a la fuerza débil y electromagnética, mientras que los neutrinos solo son sensibles a la fuerza débil.
Una propiedad importante de destacar es que los neutrinos oscilan, esto es una consecuencia directa de su masa diferente de cero. De esta manera, los estados de sabor pueden escribirse como una combinación lineal de los estados masivos (físicos).
Por otra parte, en dicha teoría se tiene la conservación de algunas cantidades tales como el número leptónico, el cual es un número cuántico que sirve para explicar la ley de conservación del número de leptones de una familia determinada en una reacción.Existen tres números leptónicos diferentes cuyos símbolos son Le, Lμ, y L y se asignan como positivos para las partículas y negativos para las antipartículas. Por ejemplo, Le vale +1 para el electrón y el neutrino asociado con él, -1 para las antipartículas correspondientes y 0 para las demás partículas. De esta manera, en un proceso inestable además de considerar el decaimiento de la partícula pesada a una ligera se debe tomar en cuenta la conservación del número leptónico. En esta teoría se tienen invarianzas ante transformaciones en SU (3)x SU (2) xU (1). Las fuerzas fundamentales están asociadas a un grupo, de manera tal que por cada generador del grupo se tiene un mediador (gluones, bosones W, Z o fotones). En resumen, el grupo U (1) mantiene como norma a la unidad, se ven como rotaciones (en el espacio complejo) en una circunferencia, además se asocia con la existencia del fotón. El grupo SU (2) contiene matrices unitarias de tamaño 2x2 con Det=1 y por él, existen los bosones de norma W+- y Z. Por último, el SU (3) contiene matrices unitarias de 3x3 con Det=1 y por este, existen los 8 gluones g.Para la detección de materia oscura a través de partículas neutras ultra energéticas, tomamos en cuenta la expresión del flujo de partículas debido al decaimiento de materia oscura, la cual involucran dos partes: la primera está asociada a la física de partículas, donde se incluye el tiempo de vida medio del candidato de materia oscura y la masa de este, así como la parte astrofísica,
3 / 3
relacionada con el perfil de densidad del objeto y su posición en el cielo. Con esta expresión se calcula el espectro de energías, es decir, el número de partículas por unidad de energía recibidos en el detector. Las unidades del espectro de energías son cm -2 s-1GeV-2 .
Por otro lado, debemos recordar el comportamiento de las partículas, las partículas neutras es más fácil trazar su trayectoria, mientras que las partículas cargadas interactúan con mayor facilidad y por ende se desvían; también debemos saber que las simetrías que prohíben el decaimiento de materia oscura no impiden la aniquilación de esta misma. Por lo anterior se trabaja con neutrinos, que son partículas neutras. El decaimiento para considerar es una partícula de materia oscura decayendo a un neutrino y un antineutrino del electrón.
CONCLUSIONES
Los cálculos realizados con el código CLUMPY, se hicieron en dos partes para describir el decaimiento de materia oscura inestable a neutrinos, primero se calculó el espectro de energías galáctico y consecuentemente el espectro de energías extragaláctico. Lo anterior debido a que se desconoce la fuente emisora de los neutrinos detectados por IceCube, por tanto se deben tomar en cuenta ambas contribuciones. Para la parte extragaláctica el cálculo del espectro de energía se hizo hasta un corrimiento al rojo de z=4.
En la parte de física de partículas, los cálculos se hicieron considerando que el candidato de materia oscura tiene masa de 100 TeV un tiempo de vida medio de 1027s. Los canales de decaimiento del candidato a materia oscura se consideran así: puede decaer en un 88% a quarks y antiquarks y en un 12% a los neutrinos del electrón.
Para finalizar el cálculo galáctico y extragaláctico se suman ambas contribuciones y se obtiene la gráfica del espectro de energía total. De lo anterior se observa que no se alcanza a llegar al valor de los neutrinos más energéticos (con E mayor a 100 TeV) con la masa del candidato que se seleccionó, por lo que concluimos que, para alcanzar a reproducir el flujo de los neutrinos ultra-energéticos, es necesario incrementar la masa; sin embargo, esto no fue posible dado que el código de CLUMPY no admite valores más grandes, que la del parámetro que se tomó. A pesar de esto, fue posible obtener el espectro de energías debido a los neutrinos con energía menor a 100 TeV.
Hernández Hernández Isidro, Universidad Tecnológica de La Selva
Asesor:Dra. Abril Fonseca García, Centro de Investigación en Química Aplicada (CONACYT)
DESARROLLO DE APÓSITO BASE HIDROGELES PARA EL PIE DIABÉTICO
DESARROLLO DE APÓSITO BASE HIDROGELES PARA EL PIE DIABÉTICO
Hernández Hernández Isidro, Universidad Tecnológica de La Selva. Asesor: Dra. Abril Fonseca García, Centro de Investigación en Química Aplicada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El presente trabajo fue una propuesta de investigación para desarrollar un apósito de hidrogel, evaluando las características y propiedades del mismo, combinando quitosano, almidón y gelatina, los cuales son polímeros de origen natural, con estos polímeros se propone formular diferentes materiales, a los cuales se describe la caracterización pertinente para su desarrollo y posible aplicación en tratamiento de pie diabético.
METODOLOGÍA
Los materiales a utilizar son quitosano de peso molecular medio, almidón de maíz, gelatina de grado investigación, agua destilada y ácido acético glacial. Para la formulación del apósito primero se preparó la soluciones precursoras de la formulación del apósito a partir de una solución de quitosano de peso molecular medio, al 1% p/v, lo siguiente fue Preparar 100 mL de solución de ácido acético al 1% v/v, utilizando agua destilada. Para posteriormente disolver en 99 mL de esta solución de ácido acético 1 g de quitosano, esta solución se dejó en agitación constante durante 8 horas.
Para la preparación de la solución de gelatina esta fue al 5% p/v, se procedió a calentar 95 mL de agua destilada a una temperatura de 60 °C, se utilizó un agitador magnético para disolver poco a poco la gelatina, esta solución de gelatina se debe mantenerla a 50°C.
En cuanto a la preparación de la solución de almidón de maíz esta fue al 5% p/v usando agua destilada y se preparó justo antes de mezclar todas las soluciones poliméricas.
Se preparó la mezcla del material con las soluciones poliméricas, como lo fue con 40 mL de sol. de almidón al 5% + 40 mL de solución de quitosano al 1% + 20 mL de solución de gelatina al 5 %. El volumen final fue 100 mL de mezcla con 40% de solución de almidón, 40% de solución de quitosano y 20% de solución de gelatina.
La solución de almidón se preparó y se elevó a una temperatura de 50 °C, cuando se alcanzó esta temperatura se incorporó la gelatina y se procedió a mezclar durante 5 min, posteriormente se ingresó la solución de quitosano y se mezclará la nueva solución otros 5 min.
Posteriormente, se elevó paulatinamente la temperatura de la solución de la mezcla de los polímeros hasta llegar a 80°C, al alcanzar esta temperatura se incorporarám las microcápsulas con extracto de gobernadora (planta endémica de Coahuila con efecto antibacterial y antifúngico), se mantuvo por un lapso de 10 min, con el fin de alcanzar la gelatinización del almidón.
Finalmente, la mezcla de polímeros se transfirirá a cajas Petri y se dejará a 60 °C durante 5 horas para secar y obtener una película en seco, una vez obtenidas estas películas (apósito final) se realizará su caracterización, la cual consistirá de un ensayo de hinchamiento para determinar el grado de absorción de agua y degradación por pérdida de peso. El análisis por FTIR para observar si hay interacciones electrostáticas entre los polímeros. La difracción de rayos X para determinar el ordenamiento a largo alcance de los materiales. SEM para observar homogeneidad de los apósitos a magnificaciones mayores de 100x. TGA y DSC para determinar comportamiento térmico. Finalmente, se realizarán pruebas mecánicas mediante tensión uniaxial en un texturometro para determinar modulo de Young.
CONCLUSIONES
Los resultados esperados es obtener apósitos que tengan excelente resistencia a la tensión, una buena respuesta al hinchamiento y degradación que pueda alcanzarse un mes después, buena respuesta antibacteriana y antifúngica con todo esto sean funcionales para su aplicación en apósitos.
La conclusión final es que se obtuvo el conocimiento con el cual se desarrolló una propuesta para el diseño experimental para la preparación de apósitos de hidrogel base quitosano, almidón y gelatina, siendo dispersadas microcápsulas de gobernadora como agente antibacterial y antifúngico.
Hernández Maturino Javier, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
RELATIVIDAD GENERAL Y AGUJEROS NEGROS.
RELATIVIDAD GENERAL Y AGUJEROS NEGROS.
Hernández Maturino Javier, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La teoría General de la Relatividad de Einstein es la mejor descripción que se ha dado hasta el día de hoy para poder entender la gravedad. Para su formulación, fue necesario romper con varias ideas que son fundamentales en la física Newtoniana.
Lo que explica la relatividad general, es que la gravedad se origina por la interacción dinámica entre el espacio y el tiempo, al igual que la masa y energía que está en el universo. Las curvas y ondas que se forman debido a la deformación del espacio-tiempo están bajo la influencia de objetos masivos. Todo esto ha llevado a nuevos intereses y temas de investigación en gravedad y astronomía gravitacional.
Por ello a mayores intereses mayores responsabilidades educativas. Ya que los profesores tendrán que traducir una teoría científica de lenguaje especializado, en un lenguaje descriptivo para que los alumnos puedan entender así conceptos demasiado complejos. Por ello se tendrán que realizar modelos simplificados, para un mejor entendimiento de cómo se origina la Gravedad.
Sin embargo, las nuevas investigaciones también han llevado, al descubrimiento de los Agujeros Negros, que, hasta el día de hoy, este fenómeno del universo no se ha podido explicar, ni cómo se originan y por qué son tan poderosos, ya que rompen con todas las leyes de la Física encontradas hasta el momento.
Por ello la mayor problemática que existe en la actualidad es saber relacionar teorías con los Agujeros Negros, al igual que encontrar técnicas de estudio y modelos simplificados para su mayor entendimiento, por lo que en este verano de Investigación se estudiara la relación que existe entre la Teoría de la relatividad general y los Agujeros Negros y modelos que se desarrollaron para entender mejor la curvatura del espacio-tiempo.
METODOLOGÍA
Para poder dar relación entre la Teoría de la relatividad general y los Agujeros Negros se involucrará un software de cálculo simbólico llamado DxMaxima para poder ver de forma detallada la Geometría de deformación del espacio-tiempo, ya que se sabe que los Agujeros Negros rompen con las dimensiones del espacio-tiempo.
Para llegar a este proceso primero se tendrá que investigar los conceptos básicos de la Teoría de la Relatividad General, así como también sus antecedentes que la produjeron, su fórmula, aplicaciones y lo que ha logrado en el ámbito de la tecnología.
A continuación se deberá definir el concepto de Agujero Negro, características que hasta hoy se saben y su estructura que los compone.
Por último, se investigará la relación que existe entre la Teoría de la Relatividad General y los Agujeros Negros enfocándose en la ruptura y deformación del espacio-tiempo.
En cuanto a las técnicas de estudio para poder entender mejor la curvatura del espacio-tiempo, se han generado dos tipos de modelos en los que se distinguen por sus diversas propiedades, que son los siguientes:
• Modelo de espacio deformado.
En la teoría de Relatividad General se encuentra la ecuación de campo de Einstein que relaciona el espacio, el tiempo y los objetos masivos. Por lo que se explica de la siguiente manera El espacio-tiempo dice como moverse a la materia, y la materia le dice al espacio-tiempo como curvearse.
Su característica de este modelo es que representa una parte del universo como si fuera una tela estirada. La gravedad como si fueran canicas. Por lo que al colocar una canica encima de la tela crea un tirón interior que influye en el movimiento de las canicas, esto produce que haya un tirón gravitacional.
• Modelo de tiempo deformado.
El modelo de tiempo deformado se basa en otra ecuación de la Relatividad General, la ecuación geodésica. Es una ecuación de movimiento que se considera como la ecuación general de la primera ley de Newton. Los objetos que no están influenciados por las fuerzas se mueven a lo largo de curvas geodésicas en el espacio-tiempo.
Una curva geodésica es la forma general del espacio-tiempo en una línea recta. La utilidad que se les da a estas curvas en Relatividad General, son los trazados seguidos de partículas en caída libre. Por lo que Einstein no consideró que la gravedad fuera una fuerza. Por lo tanto, los objetos en caída libre son ciertamente libres, ninguna fuerza en el sentido clásico actúa sobre ellos.
CONCLUSIONES
Como conclusión se ha dado por hecho que los Agujeros Negros son fenómenos del universo incomprensibles hasta el día de hoy, ya que rompen con las leyes de la Física en todas sus ramas, el avance en el estudio de los agujeros negros aún es pequeño y se deben realizar muchas pruebas más antes de dar una definición concreta, sin embargo, no se puede seguir negando su existencia ya que las diferentes ciencias han comprobado que en efecto son posibles.
Sus funciones también permanecen como un enigma, pero no hay duda alguna de que, deben representar alguna función, como sabemos, todo lo que está presente en el universo tiene alguna característica que lo vuelve útil.
Al igual la deformación del espacio-tiempo se podrá representar de diferente manera siempre y cuando cambie el marco de referencia del espectador. El tiempo se verá afectado generalmente por el campo gravitacional y la dilatación del tiempo cambiará debido a la curvatura del espacio-tiempo.
Como punto fundamental en cuanto a experimentos pensados, reales o hechos desde un ordenador nos llevan a concluir que el campo gravitacional, al cambiar los intervalos de tiempo, altera la geometría del espacio-tiempo. La gravitación induce una curvatura; el espacio-tiempo deja de ser plano, donde prevalece una geometría distinta. Cuando la gravedad no es muy intensa, la curvatura es ligera y el espacio tiempo aparenta ser plano. Las conclusiones de Einstein tienden entonces, a generalizarse con las de Newton.
Los temas de la Física Moderna imponen altas exigencias a la comprensión de los estudiantes. Para lograr una comprensión clara y eficaz se deberán de realizar técnicas de estudio mejoradas, en cuanto a la memorización rápida y sencilla de conceptos complejos y aplicaciones de los mismos. Al igual, la implementación de softwares educativos que den a entender de manera clara, sencilla y precisa la geometría del espacio-tiempo y sus aplicaciones que la contribuyen.
Hernández Pintor Mario Alberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
ENTENDER LA RELACIóN ENTRE UN CONO RETICULAR Y UNA VARIEDAD ALGEBRAICA MEDIANTE LA DEFINICIóN DE VARIEDAD TóRICA.
ENTENDER LA RELACIóN ENTRE UN CONO RETICULAR Y UNA VARIEDAD ALGEBRAICA MEDIANTE LA DEFINICIóN DE VARIEDAD TóRICA.
Hernández Pintor Mario Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Desde sus inicios, la geometría algebraica se ocupa de conjuntos de ceros de un número finito de polinomios. El estudio de los ceros de un polinomio complejo en varias variables revela que hay propiedades que sólo dependen de los coeficientes distintos de cero, es decir dependen de los vectores que se forman de los exponentes que aparecen en el polinomio o, más precisamente, de la envoltura positiva de dichos vectores. Newton ya había descubierto esto y Minding y algunos otros matemáticos lo tomaron en cuenta en el siglo XIX. Sin embargo, prácticamente se había olvidado hasta su redescubrimiento alrededor de 1970, cuando Demazure, Oda, Mumford y otros desarrollaron la teoría de las variedades tóricas.
Para construir una variedad tórica afín asociamos a un cono en Rn un cono reticular que es un monoide finitamente generado. Luego, se define un subanillo en el anillo de polinomios de Laurent tales que el vector que se forma con los exponentes de sus terminos esté contenido en el cono reticular; resulta que este anillo es finitamente generado y una algebra monomial. La conexión esta dada por el isomorfismo entre el grupo multiplicativo de los monomios de Laurent y el grupo aditivo de Zn. Así una variedad tórica es el espectro maximal de dicho anillo que se determina a partir del cono.
En matemáticas las relaciones entre sus ramas implica un avance y creación de nuevas matemáticas y por ende de aplicaciones en otras disciplinas por lo que durante el verano de investigación se estudia la relación entre un cono reticular y una variedad algebraica, donde un objeto determina al otro, la cual es la relación clave entre la combinatoria y la geometría algebraica.
METODOLOGÍA
Se inició estudiando las definiciones de combinaciones convexas, afines y positivas de un subconjunto M de Rn denotadas como conv(M), aff(M) y pos(M), respectivamente. Además de definir a conv(M) como politopo si M es finito y (Cardinalidad de M - 1)-simplex si además M es independientemente afín, y a pos(M) como cono poliedral.
Procediendo con el estudio de la función del punto más cercano PK a un conjunto convexo y cerrado K; como esta función permite construir un hiperplano soporte con x en Rn K y PK(x). Se caracterizó al conjunto resultante de intersectar un hiperplano soporte de K con K como careta y el conjunto dado por PK-1(x) - x con x en K como un cono normal a K en x. Además de la definición de cono dual y abanico de K que es el conjunto de los conos normales a K.
Se estudiaron las propiedades de los politopos y la igualdad de un politopo a un conjunto poliedral acotado, así como la definición del conjunto de las caras propias de un poliedro llamado frontera compleja del poliedro. Más tarde, se estudiaron los poliedros que son generados por vectores en un retículo, Zn, y que son conos, lo que denominamos cono reticular, resultando la existencia de una diversidad tales como primitivos, simples y regulares. Siendo lo siguiente en conos con vértice en 0: los elementos de un cono reticular primitivo regular son combinaciones enteras lineales de sus generadores y un cono reticular puede ser divido en subconos reticulares simples. Se definió el cono dual y se prueba que es la envoltura positiva de los vectores normales interiores de las caras del cono original y preserva las propiedades de reticular o regular; se demostró que el número de caras de dimensión k en un cono n-dimensional es igual al número de caras de dimensión n-k en su dual.
En este punto se enfocó en la estructura algebraica de un cono reticular; la cual resultó ser un monoide y se demostró el lema de Gordan en el que se establece que estos siempre son finitamente generados. En conjunción se definió el conjunto de relaciones lineales positivas de un subconjunto X de Zn, poslin(X).
Los conjuntos de ceros comunes de polinomios F se denominan conjuntos algebraicos afines V(F). Por otro lado, para un subconjunto M consideramos la colección de todos los polinomios que se desvanecen en M; tiene la estructura de un ideal en el anillo de polinomios. Por lo cual se estudió la igualdad V(F)=V(a) donde a es el ideal generado por F.
Se realizaron ejemplos para entender las definiciones de anillo coordenado, espectro de un anillo, polinomios de Laurent y anillo cociente, el isomorfismo entre el grupo multiplicativo de los monomios de Laurent y el grupo aditivo de Zn, soporte de un polinomio de Laurent, el anillo de polinomios de Laurent que es una algebra monomial que es definido por un cono reticular y la variedad tórica que es el espectro maximal del anillo definido a partir de un cono reticular.
Finalmente se realizó un ejemplo que permitió integrar toda la teoría vista. Se tomó un cono reticular z en R2 de dimensión dos con vértice en 0 y se encontraron sus vectores generadores A=(v1,…,vk ) se definió el anillo C[u1,…,uk] generado por los monomios que tienen como exponentes a algún vector de A, se describe el subanillo Rz de polinomios de Laurent tales que su soporte este contenido en el cono, se describe el ideal IA determinado por el kernel del homomorfismo algebraico que va del anillo de polinomios de k variables C[x1,…,xk] a C[u1,…,uk], tenemos que C[x1,…,xk]/IA es isomorfo a Rz, y se encuentra un elemento en el poslin(A) para obtener las relaciones correspondientes que deben cumplir los monomios las cuales son un conjunto de binomios que generan a IA.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos e intuición sobre la conexión entre combinatoria y geometría detrás de la definición de variedad tórica. Sin embargo es una introducción a una teoría extensa y se puede mencionar el siguiente teorema como resultado principal de lo pretendido en la estancia que establece que para cono reticular la variedad tórica correspondiente V(aA) en Ck donde A es un sistema de k generadores del monoide, como cono reticular, y el ideal aA de C[x1,…,xk] es generado por un número finito de binomios de la forma xv - xu con (v,u) en poslin(A).
Hernández Rocha Luz del Carmen, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO
SíNTESIS Y CARACTERIZACIóN DE TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO
Hernández Rocha Luz del Carmen, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La contaminación del agua se ha vuelto un problema progresivo y alarmante, pues existe día a día una gran demanda de la sociedad para la descontaminación de aguas.
En la fotocatálisis heterogénea, se emplean semiconductores y existen fotosensibilizadores, el más usado en aplicaciones fotocatalíticas es el dióxido de titanio, especialmente en fase anatasa, por sus propiedades ópticas y electrónicas, bajo costo, estabilidad química y baja toxicidad. La extensa investigación llevada a cabo en los últimos años se relaciona con el método de combustión modificado como una alternativa para dopar el TiO2, debido a que es un proceso rápido y de bajo costo, mejora la capacidad de síntesis de los materiales, genera un ahorro energético y su uso ayuda en la protección del medio ambiente.
La contaminación del agua se ha vuelto un problema progresivo y alarmante, pues existe día a día una gran demanda de la sociedad para la descontaminación de aguas.
En la fotocatálisis heterogénea, se emplean semiconductores y existen fotosensibilizadores, el más usado en aplicaciones fotocatalíticas es el dióxido de titanio, especialmente en fase anatasa, por sus propiedades ópticas y electrónicas, bajo costo, estabilidad química y baja toxicidad. La extensa investigación llevada a cabo en los últimos años se relaciona con el método de combustión modificado como una alternativa para dopar el TiO2, debido a que es un proceso rápido y de bajo costo, mejora la capacidad de síntesis de los materiales, genera un ahorro energético y su uso ayuda en la protección del medio ambiente.
METODOLOGÍA
Se realizó una profunda búsqueda de información bibliográfica, básicamente artículos científicos relacionados con:
La síntesis de TiO2 dopado con distintos iones metálicos empleados en la degradación de colorantes presentes en aguas residuales de la industria textil.
La síntesis de TiO2 dopado con distintos iones metálicos mediante diversos métodos.
La síntesis de TiO2 dopado con nanopartículas de Au y Ag mediante el método de combustión modificado.
Las técnicas de caracterización de nanopartículas como XRD (Difracción de rayos-X, por sus siglas en inglés) y SEM (Microscopía electrónica de barrido, por sus siglas en inglés).
Pruebas de degradación de colorantes, reacciones fotocatalíticas del sistema TiO2-Au y TiO2-Ag.
La evaluación del grado de descomposición de los colorantes empleando la técnica de espectroscopia UV-Vis.
CONCLUSIONES
Durante la estancia de verano virtual se logró adquirir conocimientos básicamente teóricos sobre la síntesis de TiO2 dopado con nanopartículas metálicas como el Au y Ag, empleadas en la degradación de algunos colorantes presentes en aguas residuales de la industria textil, puesto que los vertidos de aguas residuales son la fuente de la mayor parte de la contaminación en ellas. Asimismo se obtuvo un conocimiento amplio sobre las técnicas de caracterización para conocer la morfología, tamaño y textura superficial de las partículas, distribución de tamaño de los cristales y composición de las muestras (SEM), y a su vez determinar la estructura molecular de los cristales e identificar las diversas fases cristalinas (XRD). También mediante la técnica de espectroscopia UV-Vis se analizaron e interpretaron diversos espectros reportados en la literatura para la cuantificación de la degradación de distintos colorantes.
Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional
Asesor:Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PROPIEDADES FíSICAS DE UNA RED DE NEURONAS DE IZHIKEVICH
PROPIEDADES FíSICAS DE UNA RED DE NEURONAS DE IZHIKEVICH
Gutiérrez González Nelly Grethel, Benemérita Universidad Autónoma de Puebla. Hernandez Serrano Oscar Kariel, Instituto Politécnico Nacional. Asesor: Dra. Luz Marina Reyes Barrera, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El estudio de las redes neuronales es la parte más importante para el desarrollo de las neurociencias, para escalar en el entendimiento de las neurociencias a diferentes niveles es necesario entender individualmente el comportamiento de las neuronas.
Las neuronas son sistemas dinámicos que pueden ser modelados matemáticamente de diferentes formas, dependiendo de sus variables de estado, parámetros, interacciones eléctricas, interacciones químicas, etc. En particular cuando se desean modelar potenciales de acción neuronal y estudiar sus causas, comportamientos específicos, umbrales de acción, etc. podemos centrarnos en modelos específicos. En nuestro caso se emplea el modelo de Izhikevich, que es capaz de reproducir comportamientos neuronales propios de neuronas corticales en mamíferos y además es optimo para reproducir comportamientos de redes.
METODOLOGÍA
Se empezó haciendo una revisión bibliográfica, de la cual es destacable el hecho de que las neuronas son sistemas dinámicos, es decir, es posible modelarlos mediante ecuaciones diferenciales (cuando evolucionan en tiempo continuo) o bien con ecuaciones en diferencias (cuando evolucionan en tiempo discreto), nosotros nos centramos en modelos de ecuaciones diferenciales.
Cuando se modela un sistema es importante considerar el conjunto de variables del sistema que están evolucionando, en el caso de las neuronas la variable más importante es el potencial de acción, que no es más que una corriente eléctrica espontánea y considerablemente grande que abandona la neurona, esta corriente ocasionando una diferencia de potencial eléctrico en la membrana neuronal, es esta diferencia de potencial la que suele ser la variable de evolución en los modelos neuronales.
Los potenciales de acción se ven reflejados en los perfiles de evolución como picos rápidos, lo que los genera son corrientes eléctricas que ingresan a la neurona por sus conexiones con otras neuronas y en menor medida ruido, resulta natural esperar que las entradas junto con los parámetros (que caracterizas a los diferentes tipos de neuronas) determinan el comportamiento de los disparos y el tiempo de reposo antes de un disparo. Como ya es ampliamente conocido las diferencias de potencial generar corrientes eléctricas, en el caso de las neuronas la pared membranal externa e interna están a diferentes potenciales, pero los ya mencionados picos solo son generados si se sobrepasa un umbral de diferencia de potencial que no esta determinado experimentalmente ni teóricamente.
Afortunadamente para poder estudiar e interpretar nuestros modelos existen diversas herramientas inherentes a las ecuaciones diferenciales que nos ayudan a validar los comportamientos que obtenemos. En particular los retratos de fase nos muestran los estados estacionarios que puede exhibir una neurona y la naturaleza de estos: picos periódicos, punto de equilibrio, ciclo limite, etc. Por otra parte, las bifurcaciones (transiciones de estado) nos permite clasificar el tipo de neuronas con las que trabajamos, siendo estas: biestables o monoestables, y resonadores o integradores.
Por otra parte, Hodgking estudio la bifurcación en la dinámica neuronal en los axones de calamar, mucho antes de que se desarrollara la teoría matemática. El idéntico tres clases de respuesta. También estudio como la conductancia y las corrientes dependen de el potencial membranal, a su vez que el potencial membranal depende de las corrientes, esto le permitió crear el modelo cinético más aceptado.
Un modelo simple, de tipo Hodgkin-Huxley, fue dado por Izhikevich, este modelo es un sistema dos dimensional cuadrático, cuyas variables dinámicas son el potencial de la membrana neuronal y una variable de recuperación membranal. Hay 3 parámetro: uno describe la escala de tiempo de recuperación de la membrana; otro describe la sensibilidad de la variable de recuperación a las fluctuaciones por debajo del umbral del potencial de la membrana; y la última describe el valor de restablecimiento del potencial/recuperación posterior al pico.
Haciendo uso del modelo de Izhikevick fuimos capaces de reproducir numéricamente siete comportamientos de neuronas corticales de mamíferos, siendo tres propios de células excitatorias corticales: dos cauterizan a las dos clases de neuronas corticales: una capaz de reproducir el comportamiento de neuronas tálamo corticales y otra una neurona que tiene pequeñas oscilaciones.
Usamos este modelo para una red de 200 neuronas, en la que respetamos la relación 4 a 1 de neuronas excitatorias e inhibitorias, consistente con la anatomía de las cortezas de mamíferos, este tipo de red exhibe una dinámica tipo cortical.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos del comportamiento del potencial membranal de las neuronas, que interactúan fuera de una red, así como recrear los resultados obtenidos por Izhikevich. Entender los comportamientos individuales neuronales resulto fundamental para recrear un modelo de red en el que todas las neuronas están conectadas, y simular su actividad.
Jacinto Garduza Luz Nayeli, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
DISEñO DE UNA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE HUMEDALES ARTIFICIALES PARA LA COMUNIDAD DE LIMONES, QUINTANA ROO.
DISEñO DE UNA PLANTA DE TRATAMIENTO DE AGUAS RESIDUALES MEDIANTE HUMEDALES ARTIFICIALES PARA LA COMUNIDAD DE LIMONES, QUINTANA ROO.
Jacinto Garduza Luz Nayeli, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Gaspar Lopez Ocaña, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Las aguas residuales domésticas surgen a partir del uso del agua en las diferentes actividades del hogar, dichas actividades producen ciertos niveles de contaminación al agua que se pueden manifestar mediante la presencia de sólidos, desechos orgánicos, detergentes, jabones, grasas y aceites.
Para llevar a cabo el tratamiento de las aguas residuales, los gobiernos estatales y municipales, se encargan de tener en operación plantas tratadoras de agua, qué dan servicio a las zonas urbanas donde se concentran las poblaciones, dando así respuesta al problema de la contaminación del agua.
METODOLOGÍA
Inicialmente, con la ayuda de la herramienta de Excel, se procedió a realizar una memoria de cálculo,para poder diseñar una planta de tratamiento de aguas residuales mediante humedales artificiales para la comunidad de Limones, en el estado de Quintana Roo.
Con base en información bibliográfica se desarrolla dicha memoria, con datos poblacionales, de temperatura y de dotación de agua diaria. Para este diseño, se considera a la población estimada para el 2030. Se calculan las dimensiones para los tratamientos: pretratamiento, tratamientos primario y tratamiento secundarios, en que se encuentran los humedales artificiales.
Con estos valores de la memoria de cálculo, se podrá realizar el diseño de los planos del tren de tratamiento para la comunidad
CONCLUSIONES
Durante la estancia de investigación virtual, se lograron adquirir conocimientos de los trenes de tratamiento para aguas residuales, así como nuevos conocimientos acerca de los humedales artificiales y finalmente se aprendió a realizar los cálculos para en un futuro diseñar los planos de una planta de tratamiento de aguas residuales mediante humedales artificiales para una comunidad.
Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa
Asesor:Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa
APLICACIÓN DE MODELOS ESTADÍSTICOS EN SOLUCIONES ELECTROLÍTICAS.
APLICACIÓN DE MODELOS ESTADÍSTICOS EN SOLUCIONES ELECTROLÍTICAS.
Jiménez Reyes Susana Berenice, Universidad Autónoma de Sinaloa. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
La simulación Monte Carlo se basa en la generación de números aleatorios para estudiar sistemas complejos tales como fluidos, polímeros, materiales, entre otros. En esta ocasión la simulaciones fueron de soluciones electrolíticas de iones 1:1, mediante el modelo primitivo del electrolito.
Para lo cual nos apoyamos en el ensemble canónico (NVT), el cual define un conjunto de elementos microscópicos con temperatura, número de partículas y volumen constante.
Apoyándonos con el algoritmo de Metropolis, el cual consiste en elegir una partícula al azar, calcular la energía del sistema, mover la partícula y volver a calcular la energía del sistema, sí la energía es mayor a cero se calcula una probabilidad en base a la distribución canónica de la energía para decidir si el el movimiento es aceptado o no, mientras que si es menor o igual a cero el movimiento siempre será aceptado.
METODOLOGÍA
Un electrolito o solución iónica es cualquier sustancia que contiene en su composición iones libres, que hacen que se comporte como un conductor eléctrico. La importancia en el estudio de estas sustancias recae en aplicaciones dentro de la electroquímica, física médica, fisiología, en bebidas deportivas, salud, etc. Por ello, comprenderlos podría suscitar futuramente un nuevo avance científico o bien, una mayor eficiencia de las tecnologías ya existentes.
A lo largo de este proyecto, nos hemos enfocado a comprender la programación de este este tipo de simulaciones en lenguaje C++, así como también aprender y entender cada una de las variables involucradas en el funcionamiento de estos programas.
CONCLUSIONES
Este proyecto ha sido continuación de uno que ya habíamos empezado con anterioridad durante el verano pasado, por lo que quedaba modificar, agregar funciones y/o variables en nuestros programas. Sobre todo, lo más importante ha sido tener la capacidad de comprender y leer los resultados (graficados en origin y geogebra) de cada una de nuestras simulaciones para poder encontrar posibles errores de programación y realizar la validación de las simulaciones desarrolladas.
Juárez Mojica Ileana, Universidad Autónoma de Guerrero
Asesor:Dr. Jasinto Robles Camacho, Instituto Nacional de Antropología e Historia - INAH
INTRODUCCIóN A LA ARQUEOMETRíA. ANáLISIS MINERAL, GEOQUíMICO E ISOTóPICO DEL PATRIMONIO CULTURAL DE MéXICO, BAJO CUSTODIA DEL INAH
INTRODUCCIóN A LA ARQUEOMETRíA. ANáLISIS MINERAL, GEOQUíMICO E ISOTóPICO DEL PATRIMONIO CULTURAL DE MéXICO, BAJO CUSTODIA DEL INAH
Juárez Mojica Ileana, Universidad Autónoma de Guerrero. Asesor: Dr. Jasinto Robles Camacho, Instituto Nacional de Antropología e Historia - INAH
PLANTEAMIENTO DEL PROBLEMA
El patrimonio cultural de una nación representa su identidad, misma que queda plasmada por sus ancestros a través de objetos de diversos usos y sitios arqueológicos. La UNESCO señala que el patrimonio histórico de la humanidad es la herencia más valiosa que las generaciones dejan a sus sucesores, es un legado universal y por tanto patrimonio de la Humanidad, la cual es responsable de conservarlo, mantenerlo y acrecentarlo.A raíz de lo anterior, nace la inquietud, de crear una disciplina encargada de estudiar el patrimonio cultural de valor arqueológico e histórico mediante el uso de técnicas analíticas de los campos de la física y la química, en primera instancia. De esta iniciativa, surge el término de Arqueometría (1958), determinada como especialidad, y se ha enriquecido con otras especialidades como las geociencias, biociencias, medicina, e implementación de nuevas tecnologías.
METODOLOGÍA
Se realizó la consulta de bibliografía de convenios internacionales para la preservación de bienes culturales, además de legislación de patrimonio cultural en México, se hizo hincapié en casos de estudio reales de patrimonio en un contexto analítico y científico. Al respecto, existen convenios internacionales como el Convenio para la protección de los bienes culturales en caso de conflictos armados, La Haya 14 de mayo de 1954 y la Convención sobre la protección del Patrimonio Mundial Cultural y Natural París, 16 de noviembre de 1972.A nivel nacional, la responsabilidad de investigar, conservar y difundir el patrimonio cultural de México, corresponde al Instituto Nacional de Antropología e Historia (INAH); creado el 3 de febrero de 1939, como parte de la SEP, durante el sexenio del Gral. Lázaro Cárdenas de Río. En el año 1972 se crea la Ley Federal sobre monumentos y zonas arqueológicos, artísticos e históricos (LFSMZAAH). Para 1986 se incorpora la paleontología como parte del patrimonio a legislar por el INAH y el 17 de diciembre de 2015 se crea la Secretaría de Cultura (SECUL); a donde se adscribe al INAH, hasta hoy en día.
La investigación analítica y científica integra la arqueomineralogía, geoquímica, isotopía, exploración geofísica, arqueomagnetismo, arqueozoología, paleobotánica, ciencias médicas de paleodieta y forense y geoarqueología para fines de estudio del patrimonio cultural.Las investigaciones relacionadas con la caracterización de los materiales de contexto cultural y naturaleza material, comienzan con el análisis visual tipológico. Dependiendo de la naturaleza de los materiales, se procede a una caracterización petrográfica y mineragráfica donde sea reconocible la mineralogía y textura; es decir, uso de técnicas usadas en geociencias, y aplicadas en muestras de láminas delgadas de 30 micras (µm) de grosor o secciones pulidas. Para caracterización mineral más precisa se emplea la difracción de rayos X (DRX), en donde se requieren entre 20 y 30 gramos de la muestra problema pulverizada. Recientemente se han aplicado técnicas espectroscópicas, como espectroscopia Raman (RS) y espectroscopia infrarroja de reflexión (FT-IR). De estas últimas se obtienen espectros que son comparados con estándares internacionales, para identificar la firma químico-mineral. Para la caracterización geoquímica de los materiales se emplean técnicas como la fluorescencia de rayos-X (FRX), ICP-MS, microscopia electrónica de barrido, microsonda de electrones o LIBS (Lasser Induced Breackdown Spectroscopy), Activación de Neutrones (AN); además de espectrometría para sistemas isotópicos radioactivos o estables.Los métodos geofísicos más aptos para estudios de patrimonio cultural son los eléctricos, electromagnetismo y georadar (GRP), el cual se aplica para restauración de inmuebles culturales. La arqueozoología y paleobotánica también forman parte de estudios de patrimonio cultural; existen publicaciones que utilizan cartografía, petrografía y estratigrafía para el análisis de estudio de hallazgo paleontológico y palinológico. Las ciencias médicas de paleodieta y forense también se desarrolla en este campo, tal es el caso de Álvaro, un hallazgo de restos fósiles de un individuo, además asociados restos fósiles de un perro y fragmentos de cerámica. Este hallazgo fósil es muy importante, pues por deformaciones en la dentadura de Álvaro, se reconoce la endodoncia más antigua del mundo precolombino. La disciplina Geoarqueología se caracteriza por la aplicación de técnicas para conocer el contexto geológico de una región, y poder relacionar yacimientos o depósitos minerales con objetos de contexto arqueológico. Es decir, el reconocimiento de la composición mineral, química o isotópica de los materiales arqueológicos, conlleva a un reconocimiento geológico de campo con muestreo y análisis para su comparación. Esto redunda en la identificación de la fuente probable de la materia prima y la propuesta de probables redes de comercio, en tiempos pasados.
CONCLUSIONES
Durante la estancia del verano de investigación virtual, se logró conocer los términos que definen el patrimonio cultural y su protección mediante tratados internacionales y legislación en la República Mexicana. Asimismo, se revisaron algunas de las publicaciones de estudios recientes sobre patrimonio arqueológico mexicano. En esas se ilustra el uso de diversas técnicas analíticas, y con ello todas las ciencias y disciplinas involucradas para estos fines, las cuales en conjunto dan lugar a trabajos más completos, con resultados más certeros. Evidentemente las geociencias juegan un papel importante en el reconocimiento de los materiales arqueológicos y sus fuentes geológicas probables; lo cual genera un aporte para enriquecer determinados pasajes de la historia precolombina, desde un punto de vista científico.
Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional. Garcia Peralta Jacqueline, Instituto Politécnico Nacional. Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Prado Eustaquio Sayuri, Instituto Politécnico Nacional. Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este es un proyecto multidisciplinario donde colaboran alumnos del Programa DELFIN México (nodo C-51) y estudiantes de diferentes países y nodos de la REDPROPLAYAS (http://www.proplayas.org/), para lograr resultados más integradores.
A pesar de que hay gran cantidad de aplicaciones relacionadas con la playa en las plataformas móviles más comunes, al usuario le genera confusión saber cuáles de ellas realmente le serían útiles para su uso específico. A los investigadores, se les complica también saber cuáles de ellas pueden servir para la gestión de playas porque no están clasificadas.
Esto genera la siguiente incógnita:
¿Qué aplicaciones son las que existen en cada categoría relacionadas con la playa y cuáles de ellas son recomendadas para un uso práctico, que estén disponibles en plataformas móviles, y cómo pueden ser IOS y Android, y que estén relacionadas para
gestión de playas?
Por lo que este trabajo servirá para identificar una mayor cantidad de aplicaciones y hacer una clasificación de éstas y así facilitar tanto a los usuarios para su uso recreativo como a los investigadores como objeto de análisis para gestión de playas; además de ayudar a los desarrolladores de apps a identificar cuáles son los puntos fuertes y débiles generales de cada aplicación.
Por lo que los objetivos de la investigación son los siguientes:
Identificar la mayor cantidad de apps relacionadas con la playa y categorizarlas según su uso y/o contenido.
Probar cada aplicación para así obtener un análisis particular y general de todas las aplicaciones, que contenga principalmente; utilidad, calidad, disponibilidad, así como fortalezas y debilidades.
Analizar las funcionalidades de las apps registradas en un marco de gestión y certificación de playas.
METODOLOGÍA
Se muestra a detalle el proceso de obtención y análisis de datos, el tipo de investigación, instrumento de evaluación y la base del análisis de los datos.
Obtención de datos:
Se realizaron equipos de trabajo que se encargaron de buscar en las plataformas móviles todas las aplicaciones que estuvieran relacionadas con las playas, elaborando un listado de todas ellas y de igual manera se dividió equitativamente a cada uno de los participantes para su descarga y evaluación. Se adquiere la mayor cantidad de datos posible desde la plataforma en la que se encuentra la app, como: desarrollador, descripción, número de descargas, etc. Cuando el integrante haya completado la
obtención de datos cuantitativos procede a probar la app agregando datos cualitativos en la ficha de registro, como: interacción con el usuario, fortalezas y debilidades.
Tipo de investigación:
El enfoque de esta investigación es cuantitativo, ya que lo importante es generar resultados. Según Pita Fernández, S., Pértegas Díaz, S.(2002) La investigación cuantitativa trata de determinar la fuerza de asociación o correlación entre variables, la
generalización y objetivación de los resultados a través de una muestra para hacer inferencia a una población de la cual toda muestra procede. Tras el estudio de la asociación o correlación pretende, a su vez, hacer inferencia causal que explique por qué
las cosas suceden o no de una forma determinada.
Instrumento de evaluación:
La actividad en la cual se obtuvieron resultados se fundamentó en la elaboración de fichas técnicas donde se establecieron características o atributos que serían evaluados; como: la
fecha de creación, el país de origen, categoría, número de descargas, puntuación/calificación, plataforma, etc. Al integrar dichos datos se realizó una evaluación del uso de cada aplicación, valorando según sus fortalezas y deficiencias y al final proporcionar una retroalimentación mencionando sus puntos débiles en cada una de ellas, y propuestas para mejorarla.
Análisis de datos:
Una vez aplicado el instrumento de evaluación, se realizarán gráficos y se presentarán los resultados de cada nodo en un webinar a nivel internacional donde participarán estudiantes e investigadores de varios países.
Para realizarlo se elaborarán herramientas visuales para interpretar los datos que se presentarán como: mapas donde se colocarán la ubicación del país de origen de cada aplicación, crear una gráfica de barras u otras para hacer el conteo de la plataforma que maneja más apps relacionadas a la playa, el país que desarrolla más apps, un ranking de apps más descargadas y su calificación, el porcentaje de aplicaciones gratuitas, así como la cobertura que hay en distintos países. También identificar cuáles van dirigidas a mejorar/apoyar la gestión de playas.
CONCLUSIONES
Los resultados integrales que se esperan del nodo C-51 es un libro de Excel que contenga las fichas de todas las posibles apps identificadas, un análisis general de las categorías de las apps registradas y una presentación que posteriormente será expuesta
en un Webinar internacional ante toda la red de Proplayas para entregar resultados.
Los resultados parciales que lleva hasta el momento el nodo C-51 es un libro de Excel con alrededor de 40 apps registradas junto con una parte mayoritaria del análisis de las categorías de las aplicaciones mencionadas. Por ahora se está trabajando en la
conclusión del análisis y en la presentación para el Webinar.
Lechuga Zárate Moisés Alejandro, Universidad de Guadalajara
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR
MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE
ENERGíA
IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR
MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE
ENERGíA
Lechuga Zárate Moisés Alejandro, Universidad de Guadalajara. Ureña Sauceda Alexis, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Debido al alto coste de programas como ATLAS y ALICE del LHC se opta por realizar simulaciones de estos mismos en softwares especializados. Uno de ellos es AliRoot, que permite simular colisiones a distintos niveles de energía y compararlas con colisiones reales dadas en ALICE-LHC, además de permitir la identificación de las partículas producidas. Así, la estancia consiste en estudiar las partículas producidas entre colisiones de protones, los datos obtenidos serán comparados con los de las primeras dos corridas del LHC (2009, 2015) y simular colisiones en la tercera corrida (2021).
METODOLOGÍA
Se requiere: distribución de Linux o macOS (recomendable), Docker, Alidock, AliPhysics, AliRoot.
En la terminal escribimos alidock y luego
git clone https://github.com/rbertens/ALICE_analysis_tutorial.git
que nos da los siguientes archivos: AliAnalysisTaskMyTask.cxx (task), AliAnalysisTaskMyTask.h (header), AddMyTask.C (manager), runAnalysis.C (macro).
Se solicita el archivo de datos, que debe ir en la carpeta del tutorial. Se ejecuta el programa con alienv enter AliPhysics/latest, se escribe aliroot runAnalysis.C, cargando así AliRoot y dentro de este se corre nuestro macro. Se genera un archivo con los resultados, que se examinan con new TBrowser.
Agregamos los pointers en los headers así como los inicializadores en el task y los nuevos histogramas en la función UserCreateOutput. Ya agregados los histogramas, en la función UserExec, se agregan los ciclos requeridos junto con la línea float vertexZ = fAOD->GetPrimaryVertex()->GetZ();..
Se trató de identificar piones cargados usando la energía perdida por unidad de distancia en la TPC (Time Projection Chamber). Es necesario guardar las señales de la TPC para todas las partículas cargadas en los eventos en un histograma bidimensional, escribiendo
fYour2DHistogram->Fill(track->P(), track->GetTPCsignal());
en UserExec.
Se identifican y guardan partículas solamente en la señal de la TPC que corresponde a los piones y se agregan al macro las siguientes líneas, antes de cargan el task:
TMacro PIDadd(gSystem->ExpandPathName("$ALICE_ROOT/ANALYSIS/macros/
AddTaskPIDResponse.C"));
AliAnalysisTaskPIDResponse* PIDresponseTask =
reinterpret_cast(PIDadd.Exec());
Se añade otra clase en el header, class AliPIDResponse, a parte del pointer, AliPIDResponse* fPIDResponse; //! pid response object. Se agrega la clase en el header, junto con los inicializadores correspondientes incluyendo su header: AliPIDResponse.h al inicio. Mediante el siguiente código:
AliAnalysisManager *man = AliAnalysisManager::GetAnalysisManager();
if (man) {
AliInputEventHandler* inputHandler = (AliInputEventHandler*)
(man->GetInputEventHandler());
if (inputHandler) fPIDResponse = inputHandler->GetPIDResponse();
}
justo al final del UserExec.
Se extrae información de los diferentes tipos de partículas insertando estas funciones al final del ciclo en UserExec:
double kaonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kKaon);
double pionSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion);
double protonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kProton);
verificando la señal del PIDResponse dentro de 3 desviaciones estándar escribiendo
if (std::abs(fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion)) < 3 ) {
// jippy, i'm a pion
};
Se crean histogramas para el momento transverso, la pseudorapidez y el ángulo de acimutal accediendo a la centralidad de la colisión mediante el siguiente código, insertándose antes de cargar el task, en el archivo macro:
TMacro multSelection(gSystem->ExpandPathName("$ALICE_PHYSICS/OADB/COMMON/
MULTIPLICITY/macros/AddTaskMultSelection.C"));
AliMultSelectionTask* multSelectionTask = reinterpret_cast
(multSelection.Exec());
y en el task, en UserExec, al final del ciclo:
Float_t centrality(0);
AliMultSelection *multSelection =static_cast
(fAOD->FindListObject("MultSelection"));
if(multSelection) centrality = multSelection->GetMultiplicityPercentile("V0M");
Se cambian los datos obtenidos del periodo LHC150 con número de corrida 246757 por los de un generador Monte Carlo. Cambiamos el nombre a AliAOD_MC.root, por lo que será necesario cambiarlo también en todas las instancias en las que se utiliza el nombre anterior en el macro. Dentro del header se añade la siguiente variable:
AliMCEvent* fMCEvent; //! corresponding MC event
y los inicializadores en el header. En UserExec, se añade también
fMCEvent = MCEvent(); permitiendo el uso de esta variable. Se declara en el header:
virtual void ProcessMCParticles(); para el uso de esta información.
Se añade otra sección en el task:
void AliAnalysisTaskMyTask::ProcessMCParticles()
{
// process MC particles
TClonesArray* AODMCTrackArray = dynamic_cast(fInputEvent->
FindListObject(AliAODMCParticle::StdBranchName()));
if (AODMCTrackArray == NULL) return;
// Loop over all primary MC particle
for(Long_t i = 0; i < AODMCTrackArray->GetEntriesFast(); i++) {
AliAODMCParticle* particle = static_cast
(AODMCTrackArray->At(i));
if (!particle) continue;
cout << "PDG CODE = " << particle->GetPdgCode() << endl;
}
}
Se llama a la función en UserExec, justo debajo de fMCEvent = MCEvent();:
if(fMCEvent) ProcessMCParticles();
Arrojando una lista de códigos PDG.
CONCLUSIONES
Se obtuvo conocimiento básico de teoría cosmológica, software de simulación y programación en C++. Se trabajó con estudiantes de otras carreras y universidades del país, brindando a los alumnos un acercamiento a los trabajos de investigación. Se obtuvieron datos los cuales aún no fueron traducidos, pero con ellos se espera identificar las partículas producidas. Fue posible obtener varias gráficas con otros datos de utilidad, tanto con datos reales como con generados por Monte Carlo, y es posible apreciar las diferencias entre ellas.
Lemus Negrete Maribel, Instituto Tecnológico Superior de Huauchinango
Asesor:Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango
BOMBA DE ARIETE: PROPUESTA PARA OPTIMIZAR LOS RECURSOS QUE INTERVIENEN EN EL PROCESO DEL BOMBEO DEL AGUA.
BOMBA DE ARIETE: PROPUESTA PARA OPTIMIZAR LOS RECURSOS QUE INTERVIENEN EN EL PROCESO DEL BOMBEO DEL AGUA.
Lemus Negrete Maribel, Instituto Tecnológico Superior de Huauchinango. Asesor: Mtro. Arturo Santos Osorio, Instituto Tecnológico Superior de Huauchinango
PLANTEAMIENTO DEL PROBLEMA
El proyecto se basa en la investigación del funcionamiento de la bomba de ariete con la finalidad de ser instalada en el Instituto Tecnológico Superior de Huauchinango. Durante la investigación documental del proyecto se estudiaron e identificaron las características esenciales con las que una bomba de ariete trabaja y, de acuerdo a los datos recolectados se propone un diseño de implementación para optimizar su uso en esta institución, que además, logre disminuir la cantidad de recursos utilizados durante el proceso del bombeo.
Se observó que, uno de los problemas principales radica en el mal aprovechamiento de energía hidráulica potencial gravitatoria, necesaria para impulsar el agua pendiente arriba; de igual manera, nos percatamos que en general la mayoría de los recursos que intervienen en el proceso del bombeo del agua son utilizados de forma ineficiente, esto lo pudimos comprobar mediante el análisis de los datos recolectados, al momento de la instalación y puesta en marcha de la bomba de ariete.
La necesidad que tiene el Instituto es lograr optimizar los recursos que intervienen en el proceso de bombeo para aumentar el caudal de 1, 680 L / dia a 3,000 L / día de agua bombeada, dado que es el promedio de consumo diario para satisfacer diferentes las áreas de la institución en un horario de 7:00 am - 20:00 horas.
Principales dificultades para la implantación del proyecto:
Inclinación del terreno, ya que esta tiene una inclinación y/o pendiente bastante prolongada (aproximadamente 70°), por lo que la fuerza y presión de la bomba tendrían que ser bastante elevados para poder subir el agua.
Falta de cobertura de red en el área propuesta para la bomba de ariete, la cobertura de red es crucial ya que para cualquier anomalía no se contaría con este recurso para actuar de inmediato.
El terreno fangoso y rocas resbaladizas dificultaran el movimiento y posible instalación del equipo propuesto.
METODOLOGÍA
Para la investigación realizada se abarcaron algunos conceptos y fundamentos teóricos, que servirán como sustento para el desarrollo del diseño de implementación de la bomba de ariete en la institución educativa.
A partir de los datos recolectados del comportamiento de la bomba de ariete se presenta la propuesta para optimizar los recursos que interviene en el proceso.
Las mediciones y los cálculos obtenidos, de la bomba de ariete instalada, fueron los siguientes:
Caudal elevado o bombeado desde el depósito de suministro hasta punto de descarga.
Caudal elevado (q): 2lt/min
A partir de los datos obtenidos anteriormente se pudo calcular el caudal perdido o desechado durante el bombeo, siendo este la diferencia entre el caudal de alimentación y el elevado.
Caudal desechado: 38lt/min
Rendimiento volumétrico: 5%
Distancia (Longitud) del recorrido del agua: 75mt
Altura: 8mt.
Diariamente el tecnológico necesita 3, 000 litros de agua que son distribuidas en las diferentes áreas de la institución y, se planea que, con dos bombas de ariete se pueda abastecer las necesidades del instituto, además, de tener ahorros significantes en el gasto del agua potable, estaríamos siendo amigables con el medio ambiente.
CONCLUSIONES
La bomba de ariete permite elevar fluido sin la necesidad de utilizar fuentes de energía convencionales como combustibles fósiles o energía eléctrica, ya que aprovecha la energía que produce la caída de agua de su fuente de suministro.
La construcción de la bomba de ariete es sencilla y factible ya que los materiales son fáciles de encontrar en el mercado.
Por último, la vida de la bomba de ariete se encuentra entre los 50 años lo cual permitirá su utilización eficiente por parte del instituto, a su vez, el costo que se utiliza actualmente en agua potable disminuirá bastante (80%), aproximadamente, la institución estaría ahorrando $27, 900 al año, cantidad que puede ser utilizada en proyectos que ayuden al desarrollo intelectual de los estudiantes.
Lomeli Ponce Geraldine, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE UN SISTEMA CAóTICO: EL PéNDULO SIMPLE
ESTUDIO DE UN SISTEMA CAóTICO: EL PéNDULO SIMPLE
Lomeli Ponce Geraldine, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Un péndulo es un peso suspendido de un pivote para que pueda oscilar libremente. Cuando un péndulo se desplaza lateralmente desde su posición de equilibrio de reposo, está sujeto a una fuerza de restauración debida a la gravedad que lo acelerará de regreso a la posición de equilibrio. Cuando se libera, la fuerza restauradora que actúa sobre la masa del péndulo hace que oscile alrededor de la posición de equilibrio, oscilando hacia adelante y hacia atrás.
La ecuación diferencial que describe la oscilación de un péndulo tiene carácter no lineal. Por lo que su solución exacta no es fácil de resolver e interpretar, y el comportamiento respecto al tiempo es de carácter caótico. Es por eso que debemos recurrir a soluciones de la ecuación original simplificada, aproximaciones y análisis del espacio fase.
METODOLOGÍA
Se consideró el péndulo simple con ángulo x y longitud de la varilla rígida igual a L. Usando la dinámica newtoniana se resolvió la dinámica del sistema, obteniéndose una ecuación no lineal de x. Esta ecuación fue analizada para el caso lineal y no lineal, identificando el dominio del caso lineal (sen x ~x).
Una forma de simplificar la ecuación diferencial que describe al péndulo es usando series de Taylor. La serie de Taylor de una función es una aproximación mediante una serie de potencias. Una de las series más estudiadas es la de la función seno, que es la que le da el carácter no lineal a nuestro sistema, así, para valores de ángulo de desplazamiento pequeños, podemos usar la aproximación se sen (x) = x, esto linealiza la ecuación y su solución es trivial.
Podemos llegar a la precisión que queramos o que podamos computar tomando los siguientes términos después de x en la serie de Taylor de la función, resolvemos la ecuación con la sustitución de los términos finitos que elijamos. Esto se llama método de perturbaciones.
Mediante este método, con ayuda del software de Python, podemos llegar a la solución de la ecuación y graficar su solución en el espacio fase, el cual nos permite estudiar a detalle el comportamiento del sistema considerando los puntos críticos del mismo.
CONCLUSIONES
La solución de la ecuación original tiene 3 constantes indeterminadas. Por lo que un estudio de la familia de curvas es computacionalmente poco conveniente. Aquí destaca entonces la relevancia del espacio fase de x y su primera derivada, donde al graficar esta solución con ayuda del programa de Python, observamos cómo se forma un atractor que, como esperábamos, confirma el comportamiento caótico del sistema.
López Moreno Antonio José, Universidad de Sonora
Asesor:Dr. Víctor Guadalupe Ibarra Sierra, Universidad Nacional Autónoma de México
HAMILTONIANO NO PERIóDICO DE KANAI-CALDIROLA
HAMILTONIANO NO PERIóDICO DE KANAI-CALDIROLA
López Moreno Antonio José, Universidad de Sonora. Asesor: Dr. Víctor Guadalupe Ibarra Sierra, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Los sistemas cuánticos dependientes del tiempo son importantes en muchos campos de la física tales como átomos fríos, estado sólido, óptica cuántica y muchos más. Muchas de sus propiedades están codificadas en el operador de evolución temporal. Encontrar este operador generalmente requiere cálculos muy complejos que a menudo involucran algunas aproximaciones.
METODOLOGÍA
En esta estancia de investigación, analizamos teóricamente el problema del hamiltoniano cuántico no-periódico en el tiempo de Caldirona-Kanai. El cual consiste en sistema disipativo de un oscilador armónico con masa y frecuencia exponencialmente dependiente del tiempo. Para tratar este problema utilizamos el enfoque de álgebras de Lie, el cual consiste en encontrar un conjunto de generadores cuánticos que poseen una álgebra dinámica ante la conmutación. Con ayuda de estos operadores y de unos parámetros dependientes del tiempo, definimos un conjunto de transformaciones unitarias que describen al operador de evolución temporal. Al aplicar cada una de las transformaciones unitarias al operador de Floquet, que depende explícitamente del hamiltoniano de Caldirola-Kanai, hallamos un conjunto de ecuación diferenciales ordinarias para los parametros que definen a dichas transformaciones unitarias. Al resolver este sistema de ecuaciones diferenciales fuimos capaces de obtener la forma completa y exacta del operador de evolución temporal. Con un calculo adicional y gracias al operador de evolución, encontramos la función de Green asociado a este problema, es decir, obtuvimos el propagador cuántico del Hamiltoniano de Caldirona-Kanai.
Como parte final de este trabajo, empleamos el propagador cuántico para estudiar la evolución temporal de un paquete Gaussiano. Esto nos permitió con ayuda del software Mathematica realizar un conjunto de simulaciones computacionales para comprender más de la dinámica de este paquete Gaussiano que es gobernado por este hamiltoniano no-periódico en el tiempo.
CONCLUSIONES
En esta estancia de invetigación, analizamos el problema del hamiltoniano cuántico no-periódico en el tiempo de Caldirola-Kanai. Por medio del enfoque de algebra de Lie, encontramos la forma completa y exacta del operador de evolución temporal. Lo que nos permitio encontrar el propagador cuántico de este sistema y estudiar la evolución temporal de un paquete Gaussiano. Realizamos un conjunto de simulaciones en el software Mathematica, que nos permitió comprender a más detalle la dinámica de ese sistema cuántico en el tiempo.
López Perea Laura Paola, Universidad Autónoma de Sinaloa
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
ANáLISIS DE DATOS SíSMICOS PARA ESTUDIOS DE MICROZONIFICACIóN
ANáLISIS DE DATOS SíSMICOS PARA ESTUDIOS DE MICROZONIFICACIóN
López Perea Laura Paola, Universidad Autónoma de Sinaloa. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La microzonificación sísmica (MS) representa una herramienta para la evaluación de riesgos en el uso de suelo, diseño de edificios o estructuras y para la planificación de emergencias.
Tiene el propósito de identificar condiciones locales que pueden alterar el movimiento sísmico esperado o causar deformaciones permanentes importantes en edificios, estructuras e infraestructuras y proporciona una base de conocimiento de los riesgos sísmicos locales en diferentes zonas y permite establecer jerarquías de riesgos que pueden usarse para planificar medidas de mitigación.
El objetivo general del presente trabajo de investigación es contribuir a la disminución del riesgo sísmico en la región de Puerto Vallarta Jalisco-Bahía de Banderas y la Zona Metropolitana de Guadalajara (ZMG).
Para esto, realizaremos diversas actividades, las cuales incluyen la recopilación y el almacenamiento organizado de datos y el uso de datos de investigaciones nuevas y específicas, comenzando por seleccionar sismogramas registrados en Puerto Vallarta - Bahía de Banderas en diferentes puntos que se encuentren en regiones con diferentes tipos de suelo y algunos del Puente y posteriormente utilizar el programa "GEOPSY" para obtener los espectros de frecuencia de los tres componentes (norte-sur, este-oeste y vertical) y con ello, obtener las imágenes de los espectros y compararlos entre sí.
METODOLOGÍA
Se seleccionaron diferentes sismogramas registrados en Puerto Vallarta - Bahía de Banderas en distintos puntos que se encuentren en regiones con diferentes tipos de suelo y algunos del Puente, y se hizo uso del Software de investigación y aplicación geofísica "GEOPSY", el cual es una herramienta útil y reconocida para el procesamiento de diversos métodos de ondas superficiales, ya que proporciona herramientas para el procesamiento de vibraciones ambientales con la caracterización de sitios, en el cual analizamos los datos registrados y obtuvimos diversas representaciones tales como gráficos e imágenes de los espectros de frecuencia y visualizaciones de la Técnica H/V, con lo que pudimos compararlos entre sí para observar sus diferencias y cambios de un punto a otro. De esta manera, podremos evaluar la vulnerabilidad sísmica ante el efecto de resonancia para los diversos sistemas estructurales presentes en la ciudad y generar los mapas de vulnerabilidad correspondientes.
En nuestro proyecto, se utilizaron dos herramientas principales para el estudio de los datos obtenidos, las cuales son el Análisis Espectral, que se utiliza para obtener espectros de amplitud de Fourier de cualquier tipo de señales de vibración (vibraciones ambientales, terremotos, etc.), y la Relación Espectral H/V, la cual consiste en estimar la relación entre los espectros de amplitud de Fourier de los componentes horizontal (H) a vertical (V) de las vibraciones de ruido ambiental registradas en una sola estación y así obtener relaciones espectrales horizontales a verticales (H / V). En ambas ocasiones, el procedimiento fue el mismo:
Se seleccionaron 3 puntos aleatorios de un mapa de la zona, en los que se registraron los tres componentes para el estudio de la vulnerabilidad sísmica, con los cuales estaríamos trabajando el resto del proyecto.
Posteriormente, llevamos a analizar individualmente los datos seleccionados, utilizando las técnicas antes mencionadas, en el software de aplicación "GEOPSY".
Primeramente, calculamos el espectro, el cual nos muestra la frecuencia con la que se presenta un fenómeno en cierta unidad de tiempo; en este caso, nos representa la magnitud de las vibraciones de la zona y qué tan recurrentes son, para así nosotros poder llevar un análisis detallado de en qué lugares se presenta mayor movimiento y cuáles no, con lo que sabemos los sitios más y también los menos aptos para los distintos tipos de construcciones.
La segunda técnica utilizada fue la Relación Espectral H/V, en la que se utilizan 3 señales: norte-sur, este-oeste y vertical de un mismo registro, y nos arroja una representación de la relación horizontal/vertical de las muestras obtenidas.
Una vez obtenidos estos datos, pasamos a analizarlos a detalle y compararlos entre sí para estudiar sus diferencias, con el fin de entender un poco más el comportamiento del suelo por zona, identificando en qué condiciones se generan más vibraciones (zona de tráfico vehicular, zona turística, etc.), y también cuales regiones de la ciudad se ven menos afectadas; de esta manera, podemos evaluar la vulnerabilidad sísmica ante el efecto de resonancia para los diversos sistemas estructurales presentes en la ciudad y generar los mapas de vulnerabilidad correspondientes.
CONCLUSIONES
Durante nuestro periodo en la estancia, adquirimos los conocimientos necesarios para lograr representar mediante mapas, gráficos e imágenes, la diferencia en la vulnerabilidad sísmica en distintos puntos de la región de Puerto Vallarta - Bahía de Banderas, identificando los factores que propician movimientos más notables y generando evidencia que resultará útil para próximas generaciones; además de que gracias a todo lo aprendido, podremos hacer uso de los conocimientos adquiridos para posibles trabajos y proyectos futuros en el área.
Lugo Reyes Angel Alfonso, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE BLOCK ECOLóGICO ESTRUCTURAL ALIGERADO, EDIFICADO CON PET Y FIBRAS NATURALES DE OCOXAL
PROTOTIPO DE BLOCK ECOLóGICO ESTRUCTURAL ALIGERADO, EDIFICADO CON PET Y FIBRAS NATURALES DE OCOXAL
Lugo Reyes Angel Alfonso, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
La industria de la construcción tiene un efecto en el progreso de las naciones, instituyendo estructuras para el desarrollo de las actividades humanas.
El presente trabajo de investigación se hizo con la finalidad de plantear y crear un prototipo de block ecológico con materiales reciclados como el PET y fibras naturales de ocoxal para perfeccionar sus características mecánicas y emplearlo como un material de la construcción.
El prototipo de block ecológico con materiales reciclados es una gran innovación para la industria de la construcción ya que contribuirá con beneficios para el cuidado del medio ambiente, así como también se podrá reducir la contaminación en los depósitos de basura teniendo en cuenta que el PET tarda hasta 700 años en degradarse.
La elaboración de ladrillo, es uno de los que aporta agentes contaminantes, la obtención del producto final requiere de energía, obtenido por medio del calor, es sometido a temperaturas que oscilan de los 900-1200°C, se emplean hornos sellados.
El combustible que se emplea para el proceso de cocción son: llantas usadas, materiales plásticos, leña, aserrín y viruta de madera, carbón de piedra, petróleo diésel y petróleo residual.
Durante el proceso de producción se tiene emisión de compuestos volátiles, como lo afirma el ex rector de la UAQ, José Alfredo Zepeda Garrido «emiten altas concentraciones de dióxido de azufre, óxidos de nitrógeno y otros compuestos tóxicos».
La sociedad requiere materiales de construcción innovadores y sostenibles, para enfrentar los fenómenos naturales como sismos o huracanes.
Los métodos constructivos necesitan propuestas de materiales de construcción de vivienda rural sustentable, con las características físicas y mecánicas, necesarias para soportar las cargas a los cuales estarán sometidos los elementos estructurales.
METODOLOGÍA
La investigación es de manera documental, la parte experimental se basará en normas oficiales mexicanas, para considerarlo un material de construcción de resistencia a la compresión, se tendrán que realizar pruebas de laboratorio de resistencia de materiales, controlando las variables del prototipo.
Se desarrolló por información, datos y caracteres previos, que fueron realizados por sus respectivos autores.
Se inicia por una explicación fundamentada del problema, por lo cual, se formulan preguntas, causo interés propio, a pesar que no existen normas mexicanas para enriquecer, sin embargo se planea guiar por las normas existentes, sin olvidar la calidad del producto final.
Las fibras naturales son alternativas viables pueden ser una posibilidad real para los países en desarrollo, ya que están disponibles en grandes cantidades y representan una fuente renovable y continua.
Para la producción del ladrillo es indispensable una maquina generadora de eco ladrillos tipo lego, que son de las medidas aproximadas al tradicional, se caracterizan por tener 2 orificios, por donde pueden realizarse varias técnicas de reforzamiento.
Debido a la problemática económica se vive en la mayoría de los estados de la republica pero principalmente en Guerrero se busca ser una alternativa viable, para el desarrollo de los pueblos, que tienen poco acceso a los materiales de construcción más utilizados o de los que se ofrecen en el mercado.
CONCLUSIONES
Durante la estancia de investigación del verano Delfín en su primera edición virtual aprendí principalmente como se realiza un protocolo de investigación y sobre el tema abordado que en este caso fue Prototipo de block ecológico estructural aligerado, edificado con PET y fibras naturales de ocoxal.
El acompañamiento brindado por el investigador, Dr. Demetrio Castelán Urquiza, fue adecuado a las necesidades, se manejó de muy buena manera la tecnología de información, generando así una buena comunicación.
La presente edición del programa delfín no se pudo llevar a cabo de manera presencial por causa de la contingencia generada por el virus Covid-19, de cualquier forma fue enriquecedora ya que tuve la oportunidad de convivir con personas de otros estados pero sobre todo con un investigador consolidado.
Por el momento la presente investigación solo quedara de manera teórica pero será de gran utilidad para investigaciones futuras.
Macías Gutiérrez Diego, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
APLICACIONES DE LOS SUPERCONDUCTORES PARA UNA ENERGíA MáS LIMPIA
APLICACIONES DE LOS SUPERCONDUCTORES PARA UNA ENERGíA MáS LIMPIA
Macías Gutiérrez Diego, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los combustibles fósiles constituyen una parte fundamental de la energía que utilizamos hoy en día, sin embargo, su amplia utilidad y beneficios contrasta con sus altos niveles de contaminantes que generan año con año y como estos impactan con gases como el monóxido de carbono, el benzopireno. Añadiendo a esto que al producir electricidad no se aprovecha al 100% lo que se obtiene debido a que dependiendo el material existe una cierta resistencia al paso de la corriente; algunos materiales como la plata y el oro tienen una baja resistencia al paso de la corriente esto los convierte en materiales conductores, no obstante; el material conductor más utilizado es el cobre debido a que es más económico que el oro y la plata.
Por otro lado, se encuentra la vertiente de energías más limpias y renovables como la energía eólica, solar, estas energías también se utilizan para generar electricidad y no se utilizan al 100%. La energía eléctrica es muy fácil de transportar y de distribuir, satisface necesidades en el hogar y la oficina, permite su accesibilidad a los lugares más alejados, los superconductores nos ofrecen una posibilidad de utilizar esa energía de una forma más efectiva y en consecuencia aprovecharla de una mejor manera.
METODOLOGÍA
METODOLOGÍA
Un superconductor es un material que cuando lo enfrías por debajo de una cierta temperatura conduce electricidad sin disipar energía, una forma de comprender los superconductores es verlos como una transformación de fase, al igual que el agua pasa del estado del estado líquido al estado sólido, hay ciertas sustancias que si las enfrías hasta cierto punto pasan a una especia de cuarto estado de la materia: la superconductividad, en este estado las corrientes se mueven sin resistencia eléctrica, los electrones fluyen sin oposición. Existen dos tipos de superconductores: los superconductores convencionales (teoría BCS) y los no convencionales. Lo que sucede en la superconductividad convencional es lo conocido como emparejamiento de electrones: cuando la temperatura es suficientemente baja y los electrones tienen un menor movimiento estos empiezan a notar las vibraciones del material en el que viven, provocando vibraciones que provocan que los electrones se atraigan a pares en ves de repelerse, dando como resultado los conocidos pares de Cooper, la formación de estos a lo largo del material es lo que provoca la superconductividad. En los superconductores no convencionales, los pares de Cooper no pueden formarse de esa manera ya que las interacciones entre electrones son tan intensas que las vibraciones de la red se vuelven inapreciables y los electrones ya no se pueden emparejar de esa manera, sin embargo, los pares si se forman en estos materiales lo que aún no sabemos es ¿cómo?, este es un problema abierto actualmente de la física de la materia condensada en el que se trabaja día a día, un ejemplo de ello es el reciente descubrimiento de Pablo Jarillo-Herrero, en el que utilizando el Grafeno (material bidimensional obtenido del Grafito) se pudo obtener el Grafeno rotado con ángulo mágico que es precisamente un super conductor no convencional.
La viabilidad de los superconductores para aprovechar de una forma mejor la electricidad radica en las temperaturas a las que trabaja, de esto surgen descubrimientos de materiales que pueden alcanzar la superconductividad a tan solo 70K, y eso no es todo, pues se pude utilizar también el nitrógeno líquido como alternativa para mantener a los materiales en estado de superconductividad.
CONCLUSIONES
De esta forma las aplicaciones de los superconductores son múltiples, desde motores, en la industria, trenes, levitación y en los aceleradores de partículas, ya que hoy en día se sigue trabajando en abaratar los costos y usar mejor la energía apoyando al séptimo ODS en el que se busca energías asequibles, fiables, sostenibles y modernas para todos. De esta forma los resultados que se esperan obtener a futuro es encontrar más materiales que según su ángulo mágico puedan ser superconductores no con convencionales.
Marín Toro Manuela, Universidad Católica de Manizales
Asesor:Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas
ESTUDIO DE LA VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN LA COBERTURA DE PINO ROMERÓN (RETROPHYLLUM ROSPIGLIOSII PILGER ) EN EL CTT DE LA GRANJA
ESTUDIO DE LA VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN LA COBERTURA DE PINO ROMERÓN (RETROPHYLLUM ROSPIGLIOSII PILGER ) EN EL CTT DE LA GRANJA
Cueva Contreras Irma Julieth, Universidad Católica de Manizales. Marín Toro Manuela, Universidad Católica de Manizales. Asesor: Mg. José Alexander Godoy Bautista, Colegio Integrado Nacional Oriente de Caldas
PLANTEAMIENTO DEL PROBLEMA
¿Cuál es la relación de la variabilidad espacial del contenido de materia orgánica y ph del suelo en cobertura del pino romerón (Retrophyllum Rospigliosii . Pilger ) en el CTT de la granja?
METODOLOGÍA
El estudio consiste en tres etapas, se inicia con la fase exploratoria, luego descriptiva y se finaliza con la predictiva. Las actividades desarrolladas en la metodología fueron las siguientes.
1.Sobrevuelo con equipo Dron Dji Phantom 4 V2.0 para levantamiento de orto fotos a detalle sobre las coberturas del CTT la granja.
2. Muestreo de suelo, levantamiento de cuadrícula, mediante el método Zopo; las cuadrículas están a 60 m de distancia y cada cuadrícula representa una unidad de muestreo y se levantaron 100 unidades de muestreo con 900 submuestras en toda el área del CTT la granja. Con una intensidad de muestreo de 21,16 % más que representativo para este tipo de estudio.
3. Construcción de mapa temáticos con curvas a nivel de 2m, a partir del programa arcGis
4. Levantamiento de muestras para análisis de laboratorio de MO, pH, Textura, Elementos mayores y menores.
5.Cálculos estadísticos para construcción de semivariogramas para construcción de mapa de calor de la fertilidad del suelo.
CONCLUSIONES
El proyecto no se puede concluir por cuanto la investigación sigue en marcha.
Este proyecto contribuye al consumo responsable (ODS 12) , en cuanto a la agricultura de precisión, generando retos para hacer más eficiente el uso de insumos, por ello, tal como lo indican muchos estudios desde la agroforestería ,se debe realizar buenas prácticas de producción de alimento desde los sistemas agroforestales y silvo pastoril, asociando árboles con cultivo y ganadería ecológica.
Se tiene documento para la construcción de línea base que sirve de referente para nuevos estudios a nivel de unidades de producción campesina en la cuenca media baja del municipio de Pensilvania (Caldas).
En el presente estudio se realizó como levantamiento de información primaria la caracterización de cobertura y levantamiento de unidades de muestreo de 4,96 % para toma de muestras de campo correspondiente a 1,235366 ha.
Como experiencia del verano virtual se logró compartir los conocimientos del grupo y la destreza de los docentes investigadores como elemento clave en los procesos de investigación, permitiendo crecer en nuestra formación profesional y buscar propuestas futuras como en la agricultura de precisión y silvicultura.
El proyecto actual logra un gran aporte al desarrollo económico y cultural de la región, al proveer información que ayude a mejorar las condiciones de crecimiento y maduración del Pino Romerón para su posterior aprovechamiento y conservación.
Las variables de materia orgánica y pH para la cobertura de Pino Romerón, según los resultados cuentan con un pH ácido (5,15) y un contenido de materia orgánica de (20,5%).
Martinez Avila Syndel Kaheri, Instituto Tecnológico de Zitácuaro
Asesor:Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia
DISEÑO Y SIMULACIÓN DE UN FILTRO DE POTENCIA ACTIVO UTILIZANDO LA TEORÍA P-Q
DISEÑO Y SIMULACIÓN DE UN FILTRO DE POTENCIA ACTIVO UTILIZANDO LA TEORÍA P-Q
Martinez Avila Syndel Kaheri, Instituto Tecnológico de Zitácuaro. Asesor: Dr. José Luis Monroy Morales, Instituto Tecnológico de Morelia
PLANTEAMIENTO DEL PROBLEMA
Con el uso frecuente de los circuitos que emplean la electrónica de potencia y el uso de las cargas no lineales, se ha ido incrementando de manera significativa desde la década de los 60´s, y aún más en la actualidad debido a que muchos procesos industriales y hogares ya son dependientes del uso de esta tecnología.
El uso de este tipo de tecnología provoca deformaciones en las ondas de corriente y de voltaje de los sistemas de potencia, provocando problemas como el sobrecalentamiento de líneas de transmisión o mal funcionamiento de dispositivos y protecciones a distintos niveles, sin embargo, es inevitable el recurrir a este recurso y en consecuencia se han tenido afectaciones en los sistemas de potencia y se teme que el uso progresivo de estas tecnologías sea tal que el problema se agrave aún más teniendo mayores consecuencias.
METODOLOGÍA
Primeramente, se empezó estudiando los principios fundamentales de los armónicos, así como las causas, consecuencias, poniendo principal atención en la teoría P-Q, el uso, funcionamiento y construcción de algunos filtros, posteriormente se realizó una simulación de un sistema de potencia al cual se conectó una carga no lineal, el método de análisis matemático aplicado se basó en la teoría de Akagi para la transformación de los voltajes y corrientes del sistema, generando una corriente de referencia para un control de histéresis, que compara las señales de referencia como la que se mide del APF, resultado de esta comparación se tiene información para el control PI, gracias un IGBT, generando una respuesta para contrarrestar los armónicos, finalmente se traduce el resultado obtenido por el control de forma que se pueda ejecutar el filtrado de manera correcta y esta secuencia de compensación se sigue realizando gracias a la retroalimentación constante.
CONCLUSIONES
Al simular un sistema de potencia, las señales de corriente y de voltaje aparecerán sin anomalías, sin embargo, posteriormente, al pasar por la carga lineal se obtendrán señales contaminadas, es decir con una forma anormal y con irregularidades.
Por parte del APF, se obtienen corrientes que se usan para corregir las irregularidades de las que están contaminadas, tratando de que la onda sea lo más parecida al sinusoidal original, por medio de un control PI y uno de histéresis para corregir la onda contaminada en los diferentes instantes de tiempo.
Martínez Escalona Gael, Instituto Politécnico Nacional
Asesor:Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara
ESTADO ACTUAL DEL REGISTRO DE AERONAVES NO TRIPULADAS Y LA OBTENCIóN DE LA LICENCIA DE PILOTO DE DRONES
ESTADO ACTUAL DEL REGISTRO DE AERONAVES NO TRIPULADAS Y LA OBTENCIóN DE LA LICENCIA DE PILOTO DE DRONES
Martínez Escalona Gael, Instituto Politécnico Nacional. Asesor: Dr. Luis Fernando Luque Vega, Universidad del Valle de México, Campus Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Hoy en día los sistemas de aeronaves no tripuladas o Drones son una tecnología, que en el ámbito aeronáutico y de la sociedad, se necesita integrar y homologar para su uso y operación adecuada. Estas aeronaves pueden ser utilizadas con fines recreativos y/o como una herramienta de trabajo. Actualmente, estos dispositivos representan una fuente de trabajo para muchas personas gracias a las múltiples funciones y tareas que pueden desempeñar. Sin embargo, ante la creciente proliferación de estos aparatos, es necesario tener leyes que controlen y regulen la operación de estas aeronaves, ya que dicha tecnología no está exonerada de causar algún accidente o incidente.
En México principalmente el uso de vehículos aéreos no tripulados se destinan a la vigilancia de las grandes ciudades, fumigación, fotografía y video aéreo y para usos sin fines comerciales pero una serie de incidentes donde se involucraron estos sistemas no tripulados, han llevado a promover la creación de una legislación como lo hizo la Diputada Socorro de la Luz Quintana León (2018)
Erradicar situaciones donde los usuarios operan la aeronave en espacios restringidos como son los aeropuertos o las cárceles. O muy por encima de los límites de altura que especifican los fabricantes así también se han encontrado Drones que participan en actividades ilícitas como es el caso de transporte de mercancías entre la frontera entre los Estados Unidos de América y México; la detección de su operador resulta una tarea muy difícil para las autoridades correspondientes (p, 2)
Trayendo consigo consecuencias legales y provocando accidentes, puesto que muchos usuarios desconocen las medidas de seguridad, restricciones y procedimientos de operación por el hecho de que en cada país se maneja una normativa diferente que regula su uso. En el caso de México, la información relacionada con el registro de aeronaves y la licencia de pilotos es escasa, confusa y no hay espacios de consulta al público, derivado de un proceso de transformación por parte de la Dirección General de Aeronáutica Civil (DGAC); hoy en día Agencia Federal de Aviación Civil (AFAC). Por ello es de gran importancia y necesidad la difusión la información relacionada.
METODOLOGÍA
Este proyecto sigue una investigación documental, ya que se obtiene, selecciona, compila, organiza, interpreta y analiza información sobre registro de aeronaves no tripuladas y obtención de la licencia de piloto de drones.
La solución propuesta a la problemática planteada es difundir la información más actualizada para promover la correcta operación de un Dron en el espacio aéreo de México acorde con el reglamente impuesto por la AFAC. Esto se logra por medio del diseño de infografías para dos temas fundamentales: registro de aeronaves no tripuladas y obtención de la licencia de piloto de drones. Para lograr la construcción de dichas infografías se realizaron las siguientes actividades:
1.Búsqueda de normativas a nivel mundial y nacional.
2.Búsqueda de información y contacto con la DGAC/AFAC.
3.Medidas para obtener información sobre la Licencia de Piloto de Drones.
4.Primer boceto de infografía.
5.Corrección de la infografía y elaboración de 2 versiones.
6.Registro de un Dron DJI PHANTOM 4
7-Segundo boceto de infografía
CONCLUSIONES
Con la investigación realizada y la elaboración de las infografías será posible que los usuarios de Drones puedan estar enterados sobre los procesos de registro de aeronaves no tripuladas y obtención de la licencia de piloto de drones, incluso antes de adquirir un Dron. Con esta herramienta, los usuarios de Drones podrán evitar y prevenir accidentes o incidentes que traigan consecuencias legales y daños a terceros. Cabe mencionar que con la presente investigación se han identificado deficiencias en el tema de acceso y difusión de la información dentro la DGAC/AFAC, tanto en el tema de registro de drones como en el de trámite de obtención de licencias para aeronaves no tripuladas. No existe la información necesaria que satisfaga dudas a los operadores de estas aeronaves Sumado a esto, tampoco existe una vía de comunicación clara, eficiente y eficaz entre la autoridad aeronáutica y el usuario.
Es sorprendente, que, en la actualidad, el registro de un Dron ante la DGAC/AFAC se realiza por medio del envío de información a través de un correo electrónico y con una incertidumbre total sobre el tiempo que tomará dicho proceso. Esta situación es preocupante debido al crecimiento exponencial de estas aeronaves y sus cada vez más novedosas aplicaciones en distintas áreas.
Consideramos que es urgente que se mejore el tema de comunicación de la DGAC/AFAC al público en general y que se establezcan mecanismos para hacer más sencillos los procesos de registro de aeronaves no tripuladas y obtención de la licencia de piloto de drones. Esto propiciará un ambiente de certidumbre sobre el uso de Drones en México y potenciará el desarrollo económico de México.
Martinez Vargas Zaira Carolina, Universidad de Guadalajara
Asesor:Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
REDES NEURONALES PARA PREDECIR DATOS CLIMATOLóGICOS
REDES NEURONALES PARA PREDECIR DATOS CLIMATOLóGICOS
Martinez Vargas Zaira Carolina, Universidad de Guadalajara. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El clima define las condiciones temporales meteorológicas que caracterizan un lugar determinado. Por esto, es un factor que influye de manera significativa en la sociedad. Existen seis componentes importantes del clima: la temperatura, la presión atmosférica, el viento, la humedad, la precipitación y la cantidad de nubes. Teniendo todas estas características es posible saber el tipo de clima que habrá en cualquier momento. Por está razón, se utilizan herramientas basadas en redes neuronales para predecir datos climatológicos y obtener mejores resultados. Las redes neuronales están formadas por un conjunto de nodos capaces de transferir información entre ellos de forma parecida a como lo hacen las neuronas del cerebro. Su entrenamiento se basa en el ajuste de dichas conexiones o de hiperparámetros que son métodos de aprendizaje. Uno de los tipos de neuronas artificiales es el perceptrón desarrollado entre 1950 y 1960 por el científico Frank Rosenblatt. El perceptrón toma varias entradas de información y produce una única salida. Asimismo, una forma de pensar el perceptrón es como un dispositivo que toma decisiones basado en un peso dado a cada característica. Estas redes neuronales están compuestas de neuronas de entrada, neuronas de salida y capas ocultas, donde dependiendo de la cantidad de capas ocultas obtenemos un algoritmo más complicado. Asi pues, siendo el clima un importante campo de investigación en los últimos años, y siendo las redes neuronales la mejor técnica para encontrar las relaciones entre diversas entidades, en este trabajo se utiliza una red neuronal perceptrón para predecir datos de precipitación tomando información de 15 años registrados en las estaciones meteorológicas de México, utilizando los cinco vecinos más cercanos a cada estación para el entrenamiento de la red neuronal.
METODOLOGÍA
I. Preprocesamiento de datos:
Se tomaron datos del Servicio Meteorológico Nacional, específicamente, las normales climatológicas por estado de todo el país. En cada estado había cinco tipos de archivos de los cuales se utilizaron los que se titulaban PROYECTO BASES DE DATOS CLIMATOLÓGICOS y COMISIÓN NACIONAL DEL AGUA. Primero, se hizo una limpieza de datos ya que estos estaban en formato de archivo de texto, es decir, no estaban en formato de tabla y no era posible trabajarlos. Después, se tomó la información de las estaciones : número de estación, nombre, latitud, longitud, altura y lugar de ubicación. Con estos datos se encontraron las cinco estaciones más cercanas a cada estación, utilizando la fórmula haversine que determina la distancia de un círculo máximo entre dos puntos dados sus longitudes y latitudes (esto fue para observar si había correlación entre los datos de las estaciones vecinas). Sin embargo, dada la cantidad de información que había del país, el enfoque de este trabajo se hizo en Aguascalientes, por ello se analizaron los datos de Jalisco y Zacatecas por ser estados colindantes.
Al obtener los vecinos más cercanos, el siguiente paso fue encontrar la relación que había entre las estaciones. Por ello, se utilizó la información de los archivos que se titulaban COMISIÓN NACIONAL DEL AGUA. La mayoría de los archivos contaban con once características: días con granizo, días con niebla, días con tormenta, evaporación mensual, lluvia máxima 24 horas, lluvia total mensual, temperatura máxima extrema, temperatura máxima promedio, temperatura media mensual, temperatura mínima extrema y temperatura mínima promedio. No obstante, había archivos que no tenían datos de evaporación mensual, entre otros. Asimismo, cada característica tenía quince columnas de las cuales se tomaron 13: doce meses y el año al que pertenecían. Ya que había datos que empezaban desde inicios del siglo XX hasta el XXI, se creó una base de datos donde estuvieran el año y mes (a partir del año 2002).
En estas bases de datos se observó que hay archivos nan, estos son los que se buscó predecir y también había estaciones que no tenían ningún dato porque los datos de estas eran muy antiguos o no había datos de esta característica. Se hicieron en total once tablas, que incluía las estaciones de los tres estados ya mencionados, desde el año 2002 hasta el año 2017. Al tener las bases de datos y los vecinos más cercanos, se hicieron matrices de correlación para cada característica. En estas se observan las 63 estaciones de aguascalientes y la correlación con las cinco estaciones más cercanas donde el vecino cero es consigo misma.
II. Red neuronal: multilayer perceptron regressor:
Se escogió la información de lluvia total por su gran correlación para iniciar el modelo, se utilizó un regresor perceptrón multicapa por facilidad de uso y el lenguaje de programación python.
Resultados.
Los parámetros usados fueron dos capas ocultas de 120 neuronas, un entrenamiento del 0.8, un test de 0.2, learning rate de 0.001 y cross validation de k = 5 para evaluar el modelo. Por ello, se utilizaron las paqueterías sklearn models y sklearn metrics con una toleracia de 0.01 y 6000 iteraciones. Asimismo, se tomaron como X los datos de los vecinos más cercanos y y la estación que se buscaba predecir.
CONCLUSIONES
Al observar el error cuadrático medio obtenido en la red neuronal se concluyó que aún hay que mejorar los parámetros de esta para buscar mejores resultados, aunque si se observan las gráficas de los valores reales y obtenidos estas tienen buenos comportamientos. También se experimentó con menos cantidad de neuronas ocultas (20, 10, 5) y (10, 10, 5) y el mejor resultado se obtuvo con 120, ya que las redes neuronales con menos cantidad de neuronas necesitaban más iteraciones. Sin embargo, estas redes tenían buenos scores. Asimismo, al tener esta base de datos se plantea seguir con el trabajo a futuro para buscar mejores hiperparámetros o intentar con otro modelo estas predicciones.
Medina Estrada Brenda Elisa, Instituto Politécnico Nacional
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
¿QUé TANTO HA AVANZADO LA FíSICA DE NEUTRINOS EN LOS úLTIMOS DIEZ AñOS?
¿QUé TANTO HA AVANZADO LA FíSICA DE NEUTRINOS EN LOS úLTIMOS DIEZ AñOS?
Medina Estrada Brenda Elisa, Instituto Politécnico Nacional. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los neutrinos son una partícula elemental subatómica, son la segunda partícula más abundante después del fotón y miles de millones de ellos nos atraviesan cada segundo sin dejar rastro alguno, pero los Físicos saben muy poco de éstos.
Desde que se descubrió el neutrino en 1953, por Frederick Reines y Clyde Cowan, los científicos han realizado investigaciones y experimentos para obtener más información acerca de estas partículas fantasmales, ya que interaccionan muy poco con la materia. Por lo tanto, en este resumen se buscaron experimentos recientes que han otorgado nuevos datos de los neutrinos para responder a la duda "¿Qué tanto ha avanzado la Física de Neutrinos en los últimos diez años?"
METODOLOGÍA
Primero se investigaron los experimentos que han sido más relevantes desde el descubrimiento del neutrino, en 1953 por Frederick Reines y Clyde Cowan, pues con estos se hicieron grandes descubrimientos a cerca de los neutrinos. Como lo fueron "el problema de los neutrinos solares" y las oscilaciones de neutrinos que serán explicados brevemente a continuación.
Problema de los neutrinos solares: Homestake fue el primer observatorio de neutrinos, se construyó en 1955 en de Dakota del Sur en la mina Homestake y fue creado por Raymond Davies para detectar neutrinos provenientes del sol. En 1968 se obtuvieron los primeros resultados que no cuadraban con la cantidad de neutrinos solares predichos (sólo detectaron 1/3). Este déficit observado en el flujo de neutrinos solares se conoce desde entonces como el problema de los neutrinos solares.
Descubrimiento de las oscilaciones de neutrinos: El japonés Takaaki Kajita y el canadiense Arthur McDonald recibieron el Premio Nobel de Física 2015 por el descubrimiento de las oscilaciones de los neutrinos, que demuestra que los neutrinos tienen masa. Kajita desde el detector Super-Kamiokande y McDonald desde el Sudbury Neutrino Observatory (SNO).
El equipo de Kajita observaron que los neutrinos muónicos que llegaban desde el cielo eran más numerosos que los que llegaban desde el suelo. El equipo de McDonald también observó un déficit de neutrinos electrónicos, que es el único tipo de la partícula que debería producir el Sol. Por lo tanto, los neutrinos se tenían que haber transformado, más bien oscilado, en los millones de kilómetros de viaje desde la fuente hasta los detectores.
Posteriormente se investigaron experimentos de neutrinos que se llevan a cabo actualmente y experimentos pensados a futuro. A continuación, se presentan de forma sintetizada los experimentos más importantes actualmente en los cuales se detectan y estudian los neutrinos.
IceCube Neutrino Observatory: El observatorio de neutrinos IceCube está ubicado en el polo sur en la Antártida y está diseñado para observar en cosmos en el fondo del polo sur. Este experimento busca neutrinos provenientes de fuentes astrofísicas como de estrellas explosivas, explosiones de rayos gamma y fenómenos cataclísimicos de agujeros negros y estrellas de neutrones para descubrir más propiedades de los neutrinos.
Super-Kamiokande: El detector está ubicado bajo tierra en la mina Kamioka, ciudad de Hida, Gifu, Japón. Los objetivos del Super-Kamiokande son investigar las propiedades de los neutrinos para comprender cómo se creó la materia en el universo primitivo y mediante las observaciones de éstos mismos, saber más de su fuente de origen (el sol, estrellas y supernovas).
NOvA: El experimento NOvA está estudiando la oscilación de neutrinos muónicos a neutrinos electrónicos con el objetivo de determinar el orden de las masas de neutrinos y descubrir si los neutrinos y antineutrinos oscilan a diferentes velocidades. El experimento NOvA de Fermilab envía un haz de neutrinos a un detector de partículas de 14,000 toneladas a 500 millas de distancia en Minnesota.
DUNE (Deep Underground Neutrino Experiment): El experimento DUNE se llevará a cabo con la Instalación internacional de neutrinos de línea de base larga, LBNF, en Fermilab y la Instalación de investigación subterránea de Sanford en Dakota del Sur. Este experimento tiene como objetivo hacer determinaciones definitivas de las propiedades de los neutrinos, buscar neutrinos que emergen de una estrella en explosión para poder observar cómo surgen los agujeros negros.
Short-Baseline Neutrino Program: El Programa de Neutrinos de Línea de Base Corta en Fermilab buscará un cuarto tipo de neutrino, uno que puede no seguir las reglas de interacciones de neutrinos mostradas por los otros tres conocidos. Se llevará a cabo con una cadena de tres detectores de partículas (ICARUS, MicroBooNE y SBND), se probará un haz de neutrinos creado por los aceleradores de partículas de Fermilab.
El último punto importante que se investigó fue el experimento actual KATRIN (Karlsruhe Tritium Neutrino), el cual busca conocer la masa y peso exactos del neutrino. El experimento KATRIN comenzó a realizar pruebas en octubre de 2016 y se inauguró en junio de 2018 con los primeros resultados obtenidos que revelaron que los neutrinos pesan como máximo 1.1 electronvoltios (eV), KATRIN tiene como objetivo obtener ahora el peso mínimo de los neutrinos.
CONCLUSIONES
Los neutrinos han abierto una puerta a descubrir nueva información sobre el universo y son unos buenos candidatos para lograr explicar por qué el universo es como lo conocemos, ya que los neutrinos al interaccionar muy poco con la materia pueden escapar con facilidad y traer información sobre las fuentes de donde provienen, como de estrellas supernova y agujeros negros.
A pesar de que se han hecho grandes observaciones desde la postulación y descubrimiento del neutrino, los científicos siguen intentando atrapar estas partículas fantasmales con los experimentos más actuales y planeados a futuro investigados en este resumen, para así obtener nueva información acerca de los neutrinos.
Sin embargo, aún quedan algunas incógnitas que los científicos buscan resolver a cerca de los neutrinos, como lo es su masa exacta y su velocidad, pues estas incógnitas están ligadas entre sí.
Mendoza Herrera Howard Alberto, Instituto Politécnico Nacional
Asesor:Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
INTRODUCCIóN A LA GEOMETRíA DE CONJUNTOS CONVEXOS
INTRODUCCIóN A LA GEOMETRíA DE CONJUNTOS CONVEXOS
Mendoza Herrera Howard Alberto, Instituto Politécnico Nacional. Asesor: Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del Problema
La geometría de conjuntos convexos es una rama de la geometría algebraica que implica la compresión de distintos tópicos, además de sus respectivas demostraciones mediante ejercicios, y sus aplicaciones para los mismos referentes, sin embargo, que suman complejidad, para así comprender correctamente los conjuntos convexos, que pertenecen al espacio euclidiano n-dimensional.
Por lo que se comenzó a trabajar con temas introductorios al tópico principal, entre algunos de ellos, fueron la compresión de vectores, rectas, puntos, así como el espacio n-dimensional, métricas, normas, y ortogonalidad. Estos como primer vistazo para introducirnos de lleno a conjuntos convexos. Donde observaríamos el punto interno, los conjuntos convexos y sus propiedades, así como finalmente los hiperplanos y funcionales lineales.
METODOLOGÍA
Metodología
Primeramente, se trabajó con puntos, vectores y rectas, los cuales aplicamos en espacios multidimensionales, en este caso Rⁿ el cual denota espacios coordinados de n-dimensiones. En adición de puntos, vectores y rectas, estos espacios se convierten en espacios vectoriales de n-dimensiones, agregando a esto, podemos obtener las líneas, que son las rectas, sin embargo, para obtener estas necesitamos ecuaciones las cuales definen cual es el significado de líneas rectas en altas dimensiones. Al igual que se pueden describir mediante ‾0‾ (punto inicial), y v (vectores), algebraicamente como el conjunto de todos los múltiplos del punto v:
L = { uv : -∞ < u < ∞ }
Aunque la complejidad aumenta de acuerdo con los valores que se pretende obtener, incluso si se desea obtener otra línea paralela a L, como lo podría ser M. Para eso se necesita en la ecuación la adición del punto p en cada punto de L.
También se puede obtener la distancia entre dos puntos de las rectas o líneas, mediante las métricas y normas, mediante el uso de la distancia euclidiana:
d(x,y) = √ (α1 - β1)² + (α2 - β2)² + … + (αn - βn)²
x = (alpha1, … , phan)y y = (beta1, … , b etan)co
Sin embargo, también existen otras maneras, como lo son la métrica euclidiana, ya sea Manhattan, o Sup metric. Y en cuanto las normas, es la misma de que euclidiana L 2, así como existen la L1 y la L∞. Una aplicación de estas es que pueden ser utilizadas dentro de las bolas y esferas, sin embargo también lleva sus propias ecuaciones con otros planteamientos. Puesto que cada uno de ellos lleva un respectivo procedimiento, además de resultados distintos, sin embargo, cumplen con la debida definición de norma que se establece al principio. En la imagen se puede apreciar los resultados de la elaboración de algunas de las esferas unitarias en diferentes normas de R².
Hablando del producto interno y ortogonalidad, para resolver estas cuestiones, aplicamos ecuaciones que se verán establecidas en R² principalmente, sin embargo, también podemos demostrarlas en R¹, y R³. Si queremos aplicarlo en cada dimensión, debe estar gráficamente planteado de esa manera, la ecuación | x | ≤ 1, dentro de R¹, queda como una recta en la cual se establecen dos puntos y cuyos escalares deben permanecer y cumplir su valor, dentro del rango de ( -1 y 1 ). Y lo mismo ocurre pero dentro de los planos en R² y R³, en donde habrá un plano en dos dimensiones (x,y) y otro donde estarán (x,y,z).
Finalmente se trabajó con los conjuntos convexos, siendo la temática principal del trabajo de investigación, estudiando los cuerpos que son aptos para contenerlos, puesto que, dentro de las condiciones para ser posibles, se crean los conjuntos convexos, además de sus propiedades y características, así como sus funciones para la geometría algebraica. Conociendo parte de los hiperplanos y funcionales lineales.
CONCLUSIONES
Conclusiones generales
Finalmente se logró concluir con los conocimientos básicos esperados del aprendizaje acerca del tema de investigación, a pesar de no haber contado con el tiempo suficiente para una total comprensión, lo aportado por el investigador a cargo, fue basto para poder terminar con lo necesario para poder continuar futuramente con la exploración del tema principal Conjuntos Convexos.
Mojarro Ramirez Miguel Abraham, Universidad Autónoma de Baja California
Asesor:Dr. Víctor Guadalupe Ibarra Sierra, Universidad Nacional Autónoma de México
ESPECTRO DINáMICO DE GRAFENO CON DISTORSIóN KEKULé BAJO RADIACIóN ELECTROMAGNéTICA
ESPECTRO DINáMICO DE GRAFENO CON DISTORSIóN KEKULé BAJO RADIACIóN ELECTROMAGNéTICA
Mojarro Ramirez Miguel Abraham, Universidad Autónoma de Baja California. Asesor: Dr. Víctor Guadalupe Ibarra Sierra, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Desde que se sintetizó el grafeno por primera vez en el año 2004, se han llevado cabo numerosas investigaciones teóricas y experimentales en diversos materiales bidimensionales. Esto ha permitido encontrar propiedades exóticas y novedosas tales como: una alta resistencia, flexibilidad y superconductividad. Dichas propiedades hacen a los materiales bidimensionales como grandes candidatos para el diseño de nuevos electrónicos más eficientes y duraderos.
Dentro de esta familia de materiales bidimensionales, recientemente se ha observado que grafeno depositado en un sustrato de cobre da lugar a una distribución periódica de enlaces fuertes y débiles (distorsión Kekulé). Esto conduce a la formación de dos conos de Dirac en el centro de la zona de Brillouin y que dependiendo de la periodicidad de dichos enlaces, producirán una brecha energética (textura Kek-O), o la superposición de dos conos con diferentes velocidades (textura Kek-Y). Esto es, la presencia grafeno sobre el sustrato de cobre permite un aplicación en la área de investigación denominada Valletronics, es decir, la manipulación de los valles K y K’ del grafeno.
Por otro parte, se han llevado a cabo numerosos estudios sobre los efectos de radiación electromagnética dependiente del tiempo en sistemas bidimensionales (Ingeniería de Floquet). Estos estudios sugieren una drástica modificación de la estructura de bandas y en algunos casos a la aparición de brechas dinámicas de energía (Gap). Lo que sugiere una importante herramienta en el control de dispositivos que requieran un control de sus propiedades electrónicas como es el caso de la conductividad.
METODOLOGÍA
En el estudio de este sistema, consideramos una onda electromagnética en dirección normal a una capa de grafeno con distorsión Kekulé (texturas Kek-Y y Kek-O). Con este fin, utilizamos el acoplamiento mínimo en el Hamiltoniano a bajas energías de este material. Esto nos permitió obtener los cuasiespectros de energía de ambas texturas bajo luz circularmente y linealmente polarizada.
Específicamente en el caso de luz circularmente polarizada, observamos brechas dinámicas energía en el cuasiespectro energético de la textura tipo Kek-Y. En el caso de la textura Kek-O, encontramos que existe un rompimiento de degeneración en el espacio de momentos y esto genera nuevamente brechas dinámicas de energía.
En el caso de luz linealmente polarizada, observamos una deformación en el cuasiesperctro de energía en la textura tipo Kek-Y y que está es perpendicular a la dirección de la luz linealmente polarizada aplicada. En el caso de la textura Kek-O, nuestro estudio mostró que su gap natural se redujo drásticamente tal que para ciertos valores de la frecuencia y de la amplitud del campo aparecen bandas dispersivas.
Finalmente, para comprender más las propiedades electrónicas de este sistema, estudiamos la conductividad tipo dc utilizando el formalismo semiclásico de Boltzmann. Para esto, empleamos un campo eléctrico estacionario adicional a lo largo del plano de la capa de grafeno con distorsión Kek-Y. Esto nos permitió comprender que el comportamiento de la conductividad disminuye aumentando el parámetro de la distorsión de Kekulé. En el caso limite cuando eliminamos dicha distorsión, nuestro estudio recuperó el comportamiento de la conductividad de grafeno puro previamente reportado.
CONCLUSIONES
En esta estancia de investigación, estudiamos los efectos de radiación electromagnética polarizada y periódica del tiempo sobre grafeno con distorsión tipo Kekulé. Dicho estudio, nos permitió encontrar que existe una modificación en el espectro de bandas de energía y que es función del tipo de luz polarizada a la que es sometido este material. También estudiamos las propiedades electrónicas de este material bidimensional analizando la conductividad tipo dc en el enfoque semiclásico de Boltzmann. La importancia de este trabajo radica en la posibilidad de identificar las diferentes texturas tipo Kekulé por medio de mediciones ópticas.
Molina Monteleón Carol Meritxell, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Miguel Angel Valera Pérez, Benemérita Universidad Autónoma de Puebla
ROCA MADRE COMO FACTOR FORMADOR DE LOS SUELOS FORESTALES DE LOS PARQUES NACIONALES IZTACCíHUATL-POPOCATéPETL, MALINCHE Y PICO DE ORIZABA (REVISIóN BIBLIOGRáFICA).
ROCA MADRE COMO FACTOR FORMADOR DE LOS SUELOS FORESTALES DE LOS PARQUES NACIONALES IZTACCíHUATL-POPOCATéPETL, MALINCHE Y PICO DE ORIZABA (REVISIóN BIBLIOGRáFICA).
Molina Monteleón Carol Meritxell, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Miguel Angel Valera Pérez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los parques nacionales Iztaccíhuatl-Popocatépetl, Malinche y Pico de Orizaba presentan andisoles, suelos derivados de Rocas Volcánicas Piroclásticas que se originaron bajo las condiciones climáticas y ecológicas de la región. Siendo resultantes de la acumulación de ceniza volcánica y otros materiales piroclásticos, los andisoles de estos tres parques nacionales estuvieron sujetos a diferentes procesos de intemperización que presentan diferentes condiciones climáticas, relieve, vegetación y material parental.
Se pretende realizar una revisión bibliográfica para comparar las propiedades fisicoquímicas de los suelos de estos tres parques y analizar el efecto que los diferentes procesos y condiciones producen en la estructura y composición de los suelos de un mismo origen.
METODOLOGÍA
Se analizaron la siguientes bibliografías para obtener un concentrado con toda la información posible sobre la formación de los suelos volcánicos en los tres parques nacionales.
Martínez, S. (2012). ACTIVIDAD ENZIMÁTICA DE SUELOS RIBEREÑOS Y SU FERTILIDAD EN BOSQUES DEL PARQUE NACIONAL IZTA-POPO. Tesis de licenciatura, Universidad Nacional Autónoma de México, México, D. F. Recuperado de https://www.zaragoza.unam.mx/wp-content/Portal2015/Licenciaturas/biologia/tesis/tesis_martinez_mialma.pdf
Miguel, J. (2013). Cobertura vegetal, materia orgánica y pH en suelo y su relación con el índice de vegetación de diferencia normalizada (NDVI) en el Parque Nacional IztaccíhuatlPopocatépetl. Tesis de licenciatura, Universidad Nacional Autónoma de México, México, D. F. Recuperado de https://www.zaragoza.unam.mx/wp-content/Portal2015/Licenciaturas/biologia/tesis/tesis_jose_donaciano.pdf
Vela-Correa, G., Vázquez-Martínez, B., Rodríguez-Gamiño, M., & Domínguez-Rubi, I. (2007). CARACTERIZACIÓN EDÁFICA DE SITIOS CON REGENERACIÓN NATURAL DE Pinus montezumae Lamb. EN EL VOLCÁN LA MALINCHE, MÉXICO. Agrociencia, 41(4), 371-383. Recuperado de http://www.scielo.org.mx/pdf/agro/v41n4/1405-3195-agro-41-04-371.pdf
Valera, M. A., & López, M. (2013). Caracterización de la fracción limo por medio de microscopía electrónica de barrido y edax, del andisol de referencia de la región izta-popo, estado de puebla. Simposio de investigación del parque nacional Iztaccíhuatl Popocatépetl. Simposio llevado a cabo en el marco del 9° Congreso de Investigación de la FES Zaragoza, Ciudad de México.
Valera Pérez, M. A. (2015). Mineralogía y geoquímica en condiciones ústicas de dos suelos volcánicos en puebla, méxico. En M. G. Tenorio Arvide, Y. Deng, A. I. Matías Oregán, & E. Torres Trejo (Eds.), Re-descubriendo al suelo y su importancia ecológica y agrícola (pp. 143-148). Ciudad de México, México: UNAM.
Martínez Cruz, Angélica, & Carcaño Montiel, M. G., & López Reyes, L. (2002). Actividad biológica en un transepto altitudinal de suelos de La Malinche, Tlaxcala. Terra Latinoamericana, 20(2),141-146. [fecha de Consulta 9 de Agosto de 2020]. Disponible en: https://www.redalyc.org/articulo.oa?id=573/57320206
CONCLUSIONES
El suelo del Pico de Orizaba posee material parental constituido por andesitas y cenizas dacíticas, este tipo de material parental es responsable de los altos contenidos de minerales primarios tales como los anfíboles, feldespatos y magnetita. Se presenta un proceso de intemperización en condiciones ústicas (presencia de feldespatos en la fracción arcilla y ausencia de filosilicatos), así como también se puede asumir que existe una alta concentración de aluminio y hierro (presencia de magnetita).
En la Malinche, el suelo fue clasificado como Andosol vítrico y Andosol mólico, comunes en suelos con material parental de origen volcánico (cenizas y lapillis). Está constituido por rocas ígneas extrusivas, bajo tovas andesíticas ricas en anfibolita, que se componen de ceniza gris oscura y pómez. Presenta una secuencia de evolución A/C, con una estructura poliédrica subangular, débilmente desarrollada.
El suelo del parque Iztaccíhuatl-Popocatépetl fue determinado como Andosoles vítrico, húmico y asociación húmico/ocrico. El material parental está conformado principalmente por andesita, toba, basalto, dactias y partículas de vidrio volcánico de tipo pómez. Se presentan agregados denominados pseudo-limos de forma esférica, que contienen agua y materia orgánica atrapada en su estructura, dando origen a complejos órgano-minerales. En este parque, el suelo tiene la capacidad de retener fosfatos debido al aluminio activo en los minerales alofánicos, así como la fijación de fosfatos por parte de los agregados pseudo-limos.
Morales Hernández Alfredo, Universidad Mexiquense del Bicentenario
Asesor:Dra. Satu Elisa Schaeffer ---, Universidad Autónoma de Nuevo León
CLASIFICACIóN DE IMáGENES CON APRENDIZAJE A MáQUINA PARA DETECCIóN DE PLAGA EN áRBOLES
CLASIFICACIóN DE IMáGENES CON APRENDIZAJE A MáQUINA PARA DETECCIóN DE PLAGA EN áRBOLES
Morales Hernández Alfredo, Universidad Mexiquense del Bicentenario. Asesor: Dra. Satu Elisa Schaeffer ---, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Las plagas forestales se van expandiendo año con año, afectando la flora en grados muy extremos, además de que hay personas que pueden utilizar esto a beneficio para producir leña o hacer un uso comercial de la misma, pero desafortunadamente no se pueden localizar fácilmente estos, ya que se debería hacer un monitoreo de árbol por árbol, lo cual conlleva a una pérdida de tiempo y recursos.
METODOLOGÍA
Se utiliza el lenguaje python para realizar un clasificador el cual tendrá un modelo de árbol de decisión que es una técnica de aprendizaje automático supervisado muy utilizada en muchos negocios. Como su nombre indica, esta técnica de machine learning toma una serie de decisiones en forma de árbol. Los nodos intermedios (las ramas) representan soluciones. Los nodos finales (las hojas) nos dan la predicción que vamos buscando.
Para comenzar con el aprendizaje se extraen muestras de imágenes de árboles en distintas fases de una plaga, a base de anotaciones manuales realizadas a imágenes capturadas por un dron volando sobre el bosque y se combinan muestras de cinco vuelos distintos que se clasifican en 5 distintos tipos: verdes, sin hojas, suelo, rojos y amarillos
Las muestras extraídas se dividen en dos grupos: 300 muestras para el entrenamiento de un clasificador y 90 para evaluar su desempeño. En la etapa de entrenamiento, el clasificador ajusta su estructura interna al ser presentado una muestra con su etiqueta deseada, mientras en la etapa de prueba se presenta solamente la muestra y el clasificador le asigna una etiqueta. Se busca entrenar un modelo que prediga una etiqueta a partir de reglas de decisión inferidas de las características de cada muestra.
Posteriormente, se definen los parámetros y las rutinas de extracción de características. Las características extraídas se normalizan al intervalo unitario. El conjunto de muestras se divide en dos grupos: 70 por ciento para entrenamiento y 30 por ciento para prueba. Con los datos de entrenamiento, se entrena el modelo clasificador. Teniendo el modelo, se le presentan las muestras de prueba para determinar su desempeño. Al final, se imprimen los datos de desempeño.
CONCLUSIONES
Durante la estancia de verano que se realizó de forma de forma virtual se logró adquirir un conocimiento sobre machine learning python a partir de un clasificador, este podía entrenarse a base de muestras que se extraen de forma manual para que después a través de cualquier método que nos ofrece python hacer una deducción y clasificación propia del programa, en mi caso fue con árboles de decisión el cual tuvo una efectividad de 77% y con un aumento del contraste tuvo una efectividad de 78% donde hubo una mejora del desempeño.
Nandi Tule Pedro Daniel, Universidad Autónoma de Guerrero
Asesor:Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla. Nandi Tule Pedro Daniel, Universidad Autónoma de Guerrero. Ruiz Jimenez Jairo Ismael, Instituto Tecnológico del Valle de Morelia. Asesor: Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
PLANTEAMIENTO DEL PROBLEMA
La necesidad de comprender en forma integral el comportamento de los lagos asociada al acelerado desarrollo de tecnología automatizada para la medida simultánea de múltiples variables ambientales, genera gran cantidad de datos que deben manejarse y analizarse. Este es el caso del embalse Urrá (Córdoba-Colombia), donde su monitoreo en tres puntos a diferentes profundidades, a lo largo de 20 años ha generado una gran cantidad de información que requiere ser analizada, validada y depurada con la finalidad de extraer de ella el máximo beneficio posible y evitar la toma de decisiones equivocadas por su uso sin el tratamiento adecuado. En este contexto, en el XXV Verano de la Investigación Científica y Tecnológica del Pacífico 2020, realizada en la Universidad Pontificia Bolivariana-Seccional Montería, se buscó generar una base de datos útil para el modelamiento de la dinámica de mezcla a largo plazo correspondiente al período 2000 -2016 en el embalse Urrá, Córdoba-Colombia, a partir de información medida en campo.
METODOLOGÍA
Se realizó el reconocimiento de la estructura y contenido de la base de datos original. Ella estuvo constituida por información medida en campo para la calidad del agua del embalse Urrá en el período 2000-2016. Las variables incluidas fueron: fecha y hora de muestreo, profundidad, pH, temperatura y oxígeno disuelto. A partir de ella se generó una base de datos intermedia reducida, en la que se contempló un sólo día de muestreo mensual. El día y hora de muestreo seleccionado para la creación de esta base de datos reducida fue aquél en el que se observó la menor carencia de información. Con base en ella se construyeron gráficos de dispersión -variable de campo versus tiempo-. Ellos se analizaron visualmente para detectar valores extremos o fuera de rango. Los datos erróneos se corrigieron por imputación del valor medio del parámetro correspondiente a la variable y profundidad de medida. Se construyeron mapas de distribución espacio-temporal en la vertical para la temperatura. Ellos se analizaron para determinar la dinámica de mezcla.
CONCLUSIONES
El día y hora seleccionada para crear la base de datos reducida fueron los siguientes: 8:00 a.m., o la hora más cercana a ella; y día 6 de cada mes, o el más cercano a él. Se encontraron pocos valores extremos o fuera de rango en esta base de datos. En términos generales, los mapas de distribución espacio-temporal revelan una termoclina permanente. Ella se ubica a profundidades entre 3.5 m y 7.5 m. A profundidades mayores el agua al interior del embalse parece mezclarse por períodos de tiempo aproximados de de dos meses. El trabajo desarrollado permitió generar una base de datos reducida con defectos no perceptibles en mapas de distribución espacio-temporal. Ello hace suponer que una depuración más refinada de esta base de datos podría utilizarse en el modelamiento matemático de la dinámica de mezcla a largo plazo del embalse Urrá, Córdoba-Colombia.
Nava Bacilio Kristal Guadalupe, Universidad Autónoma de Guerrero
Asesor:Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
DISEñO Y SIMULACIóN DE CASA INTELIGENTE ESTILO COLONIAL MEXICANO CON UNITY 3D
DISEñO Y SIMULACIóN DE CASA INTELIGENTE ESTILO COLONIAL MEXICANO CON UNITY 3D
Nava Bacilio Kristal Guadalupe, Universidad Autónoma de Guerrero. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
En la actualidad los escenarios donde los seres humanos interactúan son inteligentes, es decir, están dotados de un sin número de funciones para su bienestar. La dinámica productiva lleva a las personas e instituciones al desafío de la eficiencia, la velocidad y la ubicuidad en el cumplimiento de actividades diarias. Dentro de esta perspectiva, la automatización de los espacios y su dinamización con la incorporación de herramientas se han convertido en una necesidad.
Tareas como controlar el acceso al hogar, mantener climatizada las habitaciones y actividades como abrir o cerrar una ventana o una puerta para personas con alguna dificultad física, por ejemplo, son arduas de realizar, pero con la implementación de sistemas inteligentes en el hogar se facilitan estos quehaceres. En el mercado actual se cuenta con un gran número de aplicaciones de muy alto nivel, en su mayoría tienen costos elevados y están pensadas más en generar una experiencia de lujo al cliente que en facilitar el desarrollo de una actividad específica.
Las características anteriormente descritas ponen en evidencia un desafío mayor: poder implementar un sistema inteligente orientado a facilitar actividades domésticas asociados al control de acceso y seguridad de los espacios contando con un bajo costo, alto nivel de calidad, confiabilidad y seguridad. Para ello se puede optar por el uso de Arduino.
Se plantea diseñar la simulación de una casa basada en estilo colonial mexicano que contenga un sistema embebido, haciendo uso de Arduino con la finalidad de ofrecer una alternativa más accesible a la sociedad en comparación con las que se encuentran en el mercado actualmente.
Los sistemas que serán simulados son; detector de incendios, iluminación nocturna, ventilación automática, sistema de riego.
Se modelará y programará un entorno virtual en el cual el usuario pueda desplazarse y explorar las habitaciones de la vivienda y percibirá el funcionamiento de los sistemas inteligentes, generando la sensación de un recorrido comandado por él mismo.
METODOLOGÍA
Rhinoceros también conocido como Rhino, es una aplicación de modelado de superficies en 3D. Permite la construcción de superficies orgánicas de forma libre, que son compatibles con la mayoría de los otros programas de modelado en computadora que son utilizados en la industria por lo que la representación de la casa, muebles y objetos necesarios para la simulación se realizarán en esta aplicación.
La realidad virtual permite al usuario interactuar con un entorno simulado dentro de una computadora, es utilizada en la industria y servicio público debido su intuitivo visual y fácil operación. Las animaciones, programación de movimientos y funcionamiento de los sistemas, así como la aplicación de materiales y texturas en los elementos que conformaran la vivienda se insertaran haciendo uso de Unity 3D.
Unity3D es un software de desarrollo de juegos multiplataforma, admite tres lenguajes de secuencias de comandos: JavaScript, C #, y un dialecto de Python llamado Boo. Para este trabajo se utilizará C #, que es un lenguaje de programación simple, moderno, orientado a objetos que combina la alta productividad de los lenguajes de desarrollo rápido de aplicaciones con la potencia bruta de C y C ++.
Arduino es una plataforma electrónica de hardware libre que consiste en una placa con un microcontrolador. Con software y hardware flexibles que son fáciles de utilizar, Arduino está diseñado para adaptarse a las necesidades de todo tipo de público. Se simulará el comportamiento de los sistemas respecto a código funcional de Arduino. Así mismo se introducirán objetos que simulen la presencia de sensores y actuadores.
CONCLUSIONES
Resultados
El modelado de la casa y adecuación de muebles se realizó en Rhinoceros 5, tomando como inspiración el estilo colonial mexicano.
Se importaron los modelos en formato compatible a Unity 3D para la aplicación de textura y material, se programó en lenguaje C# el funcionamiento de los sistemas dentro y fuera de la casa iniciando por la iluminación nocturna de postes de luz con paneles solares. Las luces se encienden con la ausencia del sol.
La simulación también incluye ventilación automática, para ello se introdujo el concepto de un sensor de temperatura y otro de proximidad, el sistema se activa cuando la cámara se acerca a menos de dos metros del sensor y el ambiente registra 28°C.
El sistema de riego toma en cuenta la condición climática a través de un sensor de temperatura ambiente, sensor de humedad en la tierra y un sensor lumínico. Si la humedad en el suelo es igual o inferior al 60%, la luminosidad es inferior al 30% y la temperatura es inferior al 35%, entonces el sistema de riego se activa. En caso de que no se cumpla alguno o ninguno de los 3 requisitos anteriores, el sistema no se activa. Los valores anteriores pueden ajustarse de acuerdo a la especie de planta o estación del año.
Por último, se realizó la simulación de un detector de incendios, modelando un sensor de humo que activa una alarma cuando el humo entra en escena, la alarma no deja de sonar hasta que este se extingue.
Conclusión
En este trabajo se demostró que es posible utilizar software de modelado en 3D para generar representaciones de edificios inteligentes habitables antes de ser construidos, al mismo tiempo crea la opción de que los futuros habitantes de la vivienda tengan la oportunidad de visualizar las instalaciones que se les ofrecen a través de un recorrido virtual, lo cual resulta en un ahorro de tiempo, recursos económicos y humanos, ayudaría a detectar posibles errores antes de proceder a la edificación del inmueble y a la instalación de los sistemas, mismos que se podrán corregir sin generar pérdidas reales, debido a que no se necesitan recursos materiales para probar el funcionamiento de los sistemas, además representa un menor impacto ambiental, puesto que, a diferencia de una representación física tradicional a escala, la simulación en una computadora no genera desechos materiales.
Nava Soto Juan Jose, Universidad Autónoma de Baja California
Asesor:Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
ANALISIS DE SISTEMAS MULTICAPAS DE DICALCOGENUROS DE METALES DE TRANSICION.
ANALISIS DE SISTEMAS MULTICAPAS DE DICALCOGENUROS DE METALES DE TRANSICION.
Nava Soto Juan Jose, Universidad Autónoma de Baja California. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Los materiales dos dimensionales (2D) han logrado llamar la atención de una gran cantidad de científicos alrededor del mundo, pues presentan propiedades muy diferentes a aquellas del material en bulto. Además, estos pueden utilizarse en conjunto con otros materiales 2D para generar una configuración que permita obtener características o comportamientos únicos dada su dimensión, de algunos cuantos nanómetros de espesor, pues es posible construir un nuevo material apilando capas de ambos siguiendo un orden establecido. Algunos de los materiales 2D en los cuales se ha puesto gran atención son los Dicalcogenuros de Metales de Transición, por sus siglas en inglés TMDC's (Transition Metals Dichalcogenides). Los TMDC's tienen la forma MX2, donde M es un metal de transición del grupo VI de la tabla periódica y X denota un calcógeno, como el azufre (S) o el selenio (Se). Las características más importantes de estos materiales es que presentan una gran absorción dentro del espectro de la luz visible, lo que podría posicionarlos dentro del área de la optoelectrónica, en aplicaciones tales como dispositivos fotovoltaicos y fotodetectores. Por tanto, se desean obtener las propiedades ópticas de diferentes sistemas multicapas que se componen de TMDC's, utilizando el método de matriz de transferencia para su análisis. Posteriormente, intentar mejorar la absorción de estos sistemas atómicos, en el rango visible del espectro, incorporando diversos substratos.
METODOLOGÍA
Se obtuvieron las propiedades ópticas de sistemas multicapas que presentan como elemento base una bicapa de diferentes TMDC's. La cantidad de estas bicapas se varió para poder observar cambios en las propiedades, desde cuando se tienen un par de bicapas, hasta varias decenas de estas. Se generaron resultados para todas las combinaciones posibles de TMDC's. El rango de energías de fotón incidente a la muestra va de 1.5 eV (827 nm) a 3 eV (413 nm), que cubre el espectro visible. Para esto, se utilizó el método de matriz de transferencia, implementado con ayuda de Python. La permitividad el'ectrica se calcul'o utilizando el modelo de Lorentz.
Conforme se aumentaron las bicapas se observó un aumento en la absorción y la reflexión, hasta valores límite de alrededor del 60 %. La forma de la curva de la absorción es muy parecida en diferentes casos debido a que las frecuencias de resonancia de uno de los materiales se presenta claramente sin importar con qué otro elemento se encuentre. Esto es consecuencia de cómo depende la permitividad de cada material con la frecuencia de la luz incidente.
Después, dado que las bicapas del material deben apilarse sobre algún medio, se obtuvieron las respuestas ópticas para arreglos de 7 y 55 bicapas de las distintas combinaciones de los cuatro diferentes TMDC's utilizando como substrato dióxido de silicio. En un primer caso, el substrato presenta un grosor de 90 nm y, posteriormente, este se modela de grosor seminfinito. En este caso, se utilizó un valor constante para aproximar la permitividad eléctrica, ya que la variación en el espectro visible es mínimo.
Por último, se obtuvieron las propiedades ópticas de sistemas de 7 y 55 bicapas utilizando las diferentes posibles combinaciones de los TMDC's y un substrato compuesto de una capa de 50 nm de silicio intrínseco y una capa seminfinita de dióxido de silicio.
CONCLUSIONES
Las respuestas ópticas de diversos sistemas multicapas de TMDC's fueron obtenidas utilizando el método de matriz de transferencia. Además, se determinó el efecto que puede tener en la absorción de los sistemas multicapas de TMDC's el hecho de agregar un substrato de las características específicadas con anterioridad.
Al aumentar el número de bicapas de TMDC's, se logró un aumento en la absorción en todo el espectro, aunque es notorio que esta nunca fue mayor al 60 %, ni siquiera utilizando substratos. El análisis de la estructura con substrato de silicio intrínseco y dióxido de silicio presenta algunas mejorías en la estabilidad de la absorción, sin embargo el grosor de la película puede encontrarse comprometido en la mejora de la misma, debido a la sucesivas reflexiones de la luz dentro de este material que llevan a generar resonancias de tipo Fabry-Pérot, por lo que la variación del grosor del mismo en un rango determinado puede dar una visión más completa de este efecto. También, como se ha realizado en algunos estudios anteriores, es posible agregar algún otro material entre las monocapas de TMDC's que componen la bicapa base para la formación de la estructura. Este material intermedio podría ser un metal, que permita obtener una mayor absorción para bajas energías de luz incidente.
Nieves Ayaquica Oscar Adonai, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
OSCILACIONES DE NEUTRINOS.
OSCILACIONES DE NEUTRINOS.
Nieves Ayaquica Oscar Adonai, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En este reporte de investigación recobrará los conocimientos adquiridos en el Programa Delfín con el profesor José García Didino, acerca del tema de investigación Física de Altas Energías, mediante métodos convencionales de investigación se logró entender temas de Física Cuántica, matemáticas básicas para su entendimiento y posteriormente para su divulgación, este reporte se llevó a cabo de manera que el entendimiento de estos temas sea más sencillo, así mismo con fines de investigación, recabando datos en diversas plataformas poder comprender de manera general y matemática las oscilaciones de Nuetrinos y sus propiedades, así como diversos temas acerca de la Física Cuántica.
METODOLOGÍA
Comentamos cuales eran algunos de los temas que debía de recabar para darle seguimiento a la investigación, como lo fueron la lectura de artículos, libros; por la recomendación de páginas para descargar libros y artículos de interés, gracias a la tutela del profesor se logró el entendimiento acerca de los principios del álgebra lineal, dándome una breve introducción a las matrices, operaciones con matrices básicas cómo la multiplicación, matriz inversa, transformaciones de matrices, suma y resta de matrices de 2x2 y 3x3. Cómo se representan los vectores y valores propios dada una matriz.Se comprobó que con solo dos vectores propios pueden definir una base ortogonal comprobándose con procedimientos matemáticos como el método de eliminación de Gauss Jordan, checando en sí los subespacios vectoriales, solo unos ejemplos de estos problemas de Bases de subespacios vectoriales. Se investigó de manera breve lo que es una rotación de matrices en dos dimensiones en un plano cartesiano utilizando coordenadas polares en dos puntos X y Y. Sacando componentes rectangulares de las matrices o de los puntos que se dan. También se dio la forma de que una rotación de matrices se puede dar de manera vertical (columna) y horizontales, tales tienen diferentes formas de ordenarse conforme a su matriz dada, y la dirección de esta matriz es antihoraria si es positivo el ángulo, y es horario si el ángulo es negativo.También se investigó en parte lo que la rotación de neutrinos en sus tres tipos de sabores, los neutrinos electrónicos, muónicos y tauónico, por qué sucede esta oscilación, es causa de sus diferentes masas y velocidades en las que se propagan. Para el entendimiento de este tema, previamente debí de investigar de dónde, cómo y qué son los neutrinos y de que modelo parte para la comprensión de estos temas.
Las oscilaciones de los neutrinos están basadas de dos maneras; en las oscilaciones de 2 neutrinos en el espacio vacío, y las oscilaciones de los 3 tipos de neutrinos en el espacio vacío, cómo lo muestra un estudio realizado por la UNAM, pero también debemos de tomar en cuenta que los neutrinos pueden tomarse de dos maneras:
-Los neutrinos de Dirac, hay un ángulo de mezcla en el vacío θ con 0 ≤ θ ≤ π/2 y ninguna fase de violación de CP (es decir, se conserva CP).
-Los neutrinos Majorana, entonces aparecería una fase de violación CP con dos neutrinos, para tres neutrinos se tendrían que añadir dos fases más a un proceso de oscilación.
Se llevó a cabo una investigación de la oscilación de los kaones una pequeña lectura acerca de cómo estos viólan el CP (la transformación conjunta de conjugación de carga y paridad) pues al tener un Kaón de vida larga ese se divide en dos piones negativos violando la conjugación de estos o el CP.
CONCLUSIONES
Durante la estancia en Delfín, se adquirieron los conocimientos necesarios sobre las leyes que rigen la naturaleza en su aspecto cuántico. Lo anterior, permitió desarrollar objetivos certeros en la investigación que se llevó a cabo, el entendimiento de los temas de la Física Cuántica como la oscilación de Neutrinos, oscilaciones de kaones, el modelo estándar de partículas, las rotaciones en 2 dimensiones, así como leyes generales, son temas de relevancia que se cubren de manera explícita. Basándose en estos temas, las ideas mediante la investigación que la ciencia nos otorga podremos estudiar temas, tales como el origen del universo, la materia y sus propiedades, son temas de relevancia que podemos aprovechar gracias a la recopilación de datos y modelos propuestos a lo largo de la historia; es por eso por lo que alrededor del mundo científicos pasan su vida investigando e innovando. Gracias a estos grandes descubrimientos que a principios del siglo XX grandes científicos nos dieron bases para progresar en esta rama de la ciencia explicita que requiere de comprobaciones, leyes, experimentos, modelos matemáticos e ideas abstractas. Por lo tanto, promover la investigación de esta rama nos llevará al entendimiento y solución de cuestiones complejas que la vida nos ha presentado, así mismo plantearnos objetivos claros para fortalecer conocimientos y profundizar sobre esto. Gracias a la investigación e importancia de la Física Cuántica, la innovación de tecnologías, productos, leyes, modelos y diversas dudas tanto del mundo, del cosmos y la vida; son resueltas gracias a esto. Se lo debemos a la historia y a las aportaciones de personas que fueron capaces de trascender más allá de los conocimientos actuales y de sus épocas; las investigaciones juegan un papel muy notable, por ello en base a esto queremos dar introducciones a nuevos conocimientos fomentando la investigación.
Orozco Alvarez José Carlos, Universidad de Guadalajara
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
INTERACCIóN ENTRE UN PLASMON Y UN PUNTO CUáNTICO PARA LA DESCRIPCIóN DE UN PROCESO DE DISPERSIóN.
INTERACCIóN ENTRE UN PLASMON Y UN PUNTO CUáNTICO PARA LA DESCRIPCIóN DE UN PROCESO DE DISPERSIóN.
Orozco Alvarez José Carlos, Universidad de Guadalajara. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
La mayoría de las características propias de los metales se debe principalmente a la estabilidad de los electrones en el material. Sin embargo, existe un fenómeno muy especial que ocurre en estos materiales, la generación de plasmones. Los plasmones son cuasi-partículas que se forman por el acoplamiento de un campo electromagnético con la nube electrónica del metal por distancias muy cortas; en las cuales, a escala nanométrica, origina oscilaciones de la nube electrónica y, con ello, una mayor intensidad del campo electromagnético.
En nuestro problema se plantea la interacción de un plasmon en un punto cuántico (QD), el cual es una nanoestructura hecha usualmente a base de materiales semiconductores, que confina el movimiento electrónico 3 dimensiones.
La resolución de nuestro problema "Interacción entre un plasmon y un punto cuántico, para entender el proceso de dispersión", se divide en 3 partes:
Descripción y solución del Hamiltoniano, mediante una segunda cuantización de un Punto Cuántico (QD).
Deducción y solución del Hamiltoniano, mediante una segunda cuantización de un plasmon.
Deducción y solución del Hamiltoniano de nuestro sistema.
En donde las soluciones obtenidas en la parte 1 y 2 de nuestro trabajo se desarrollan y juntan en la parte 3, obteniendo la descripción de un sistema conservativo, en el cual generamos un plasmon a través de la desexcitación de un QD y viceversa, se excita un QD a través de la desaparición de un QD.
METODOLOGÍA
Punto Cuántico:
Se desarrolla el Hamiltoniano de un electrón, confinado en un punto cuántico, el cual está sometido a un campo magnético externo, lo que origina que el electrón oscile en un plano transversal al campo magnético, y en la dirección de este campo el electrón puede ser tratado como confinado en un poso de potencial.
Por las características del problema, pudimos separar el Hamiltoniano en dos componentes (Omitiendo la interacción del spin en el problema) una para la sección transversal al campo magnético, en donde nuestro electro oscila, y otra para la dirección del campo magnético.
Se realizaron varias estrategias matemáticas para la solución del problema, y mediante una segunda cuantización del Hamiltoniano, obtuvimos en seguida las funciones de onda correspondientes para los primeros dos estados energéticos.
Solo se calculó la energía de los dos estados más bajos de energía, ya planteamos el sistema de tal manera que solo tiene la capacidad de 1 estado excitado.
2.Plasmon.
Se plantea el problema para la deducción del Hamiltoniano de un plasmon a partir de un sentido semiclasico, pasándolo a interpretaciones cuánticas. La solución de ese problema lo llevamos a cabo en un espacio de momentos, por lo que necesitara una adaptación cuando se junte con nuestros resultados para un punto cuántico.
Una vez obtenido el Hamiltoniano mediante una segunda cuantización se procede a encontrar los estados energéticos de este objeto, para un determinado valor de k.
3.Interacción entre un Plasmon y un Punto cuántico.
Se construye un Hamiltoniano para nuestro sistema, en el cual se presentan los dos estados energéticos del QD que previamente habíamos obtenido, el hamiltoniano del plasmon que generamos en la sección 2 y un término extra, que nos da la interacción entre un plasmon y un QD, el cual nos permite intercambio de energía entre nuestros objetos.
Se llevan a cabo las adecuaciones necesarias para que cada término del Hamiltoniano sea consistente y describirse bajo las mismas variables independientes, y en seguida se procede a encontrar los valores de energías de nuestro sistema.
Para ello, de los posibles estados de nuestro sistema, solo consideramos un subconjunto de estados específicos; Carencia de excitaciones en el QD y ausencia de plasmon, con una excitación en el QD y sin plasmon, y con algún estado excitado para el plasmon y en QD en estado base.
Con ellos pudimos crear las eigenfunciones y con ellos obtener los estados energéticos de sistema, lo cual nos permitirá la descripción de la dispersión de luz.
CONCLUSIONES
Se realizo la descripción de un Punto Cuántico esférico (QD), en donde, por medio de una segunda cuantización del Hamiltoniano y por medio de una rotación sencilla en nuestro sistema de referencia, se obtuvieron las funciones de onda, las cuales eran similares a las de un átomo hidrogenoide, además se obtuvieron los valores de energía de 3 estados de nuestro QD, el estado base, y dos estados excitados subsecuentes, en donde, gracias a la no linealidad de nuestra función, para ciertos valores de la frecuencia ciclotronica, nos fue posible solo tomar en cuenta los dos estados más bajos de energía.
A su vez se realizó la descripción cuántica de un plasmon, en el cual se comenzó a deducir el Hamiltoniano de forma semiclasica por medio de la energía cinética y la energía potencial del sistema, en donde, posteriormente, se pasó a un estudio cuántico y, nuevamente por medio de una segunda cuantización del Hamiltoniano, pudimos ver una semejanza con un oscilador armónico cuántico, con ello se obtuvieron las energías de nuestro plasmon.
Teniendo los resultados mencionados para el Plasmon y el QD, se generó el Hamiltoniano de nuestro sistema QD-Plasmon, haciendo algunas adaptaciones en cada término de nuestra ecuación para que sea una función de las mismas variables independientes, y agregando un término extra que nos da información de la interacción entre nuestros dos objetos de estudio.
A ser un sistema conservativo, definimos un operador que nos indicaba el número de excitaciones del sistema, y a partir de este, por las características de nuestro problema, nos fue posible tomar solo dos subconjuntos específicos de estados excitados, con los cuales, se podía apreciar el intercambio de energía entre el QD y el plasmon, expresando estos valores analítica y gráficamente.
Osornio Plancarte Michell Alejandra, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE LOS DECAIMIENTOS DEL BOSÓN DE HIGGS EN EL MODELO ESTANDAR
ESTUDIO DE LOS DECAIMIENTOS DEL BOSÓN DE HIGGS EN EL MODELO ESTANDAR
Osornio Plancarte Michell Alejandra, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La importancia del estudio de los decaimientos del bosón de Higgs (H0) se debe a la solución de un problema fundamental en el Modelo Estándar (ME): el mecanismo de Higgs. Esta partícula juega un papel fundamental en dicho mecanismo de rompimiento espontáneo de la simetría electrodébil, responsable de proveer de masa a las partículas elementales conocidas. En este mecanismo el único parámetro desconocido es la masa del Higgs, sin embargo, una vez que esta se fija, establecida actualmente a 125 GeV, es posible predecir todas sus propiedades, tales como su tiempo de vida, las razones de desintegración, así como los mecanismos de producción y las respectivas secciones eficaces. La intensidad de los acoplamientos del Higgs a los fermiones y bosones de norma se sujetan directamente a las masas de estas partículas, y dado que estas masas son conocidas, es posible predecir las anchuras parciales de los decaimientos y las razones de desintegración respectivas.
METODOLOGÍA
Las anchuras de decaimiento a pares de fermiones con masa mf son proporcionales a los acoplamientos H f f, los cuales son del tipo escalar; mientras que las anchuras de decaimiento a un par de bosones V con V= W, Z, son proporcionales a los acoplamientos HVV, los cuales se establecen en el ME por el lagrangiano de interacción. En este trabajo se estudiaron los decaimientos del bosón de Higgs del Modelo Estándar (ME) en la Física de altas energías, haciendo uso de la expresión de la regla de oro de Fermi, para obtener el cálculo analítico de los principales modos de decaimiento y las respectivas razones de desintegración de estas partículas, llevando a cabo un análisis numérico de los resultados analíticos en el espacio de parámetros permitido. Se generó un algoritmo en Python capaz de calcular los anchos parciales de decaimiento de quarks y leptones, además de los bosones W y Z, con los que posteriormente se calcularon y graficaron las razones de desintegración correspondientes para someterse a su análisis.
CONCLUSIONES
A partir de los cálculos realizados y las gráficas obtenidas mostramos que, para los fermiones el canal dominante es el H→bb, mientras que a un par de quarks top es cinemáticamente prohibido en la región 50 GeV< mH0 <174 GeV. Para los leptones, el canal de decaimiento que predomina es el H→τ+ τ- y en mucho menor medida a un par de muones. Por otra parte, en el caso de los bosones comprobamos que para los decaimientos del Higgs del ME, con masa de 125 GeV, la anchura del decaimiento H→WW* donde el bosón W* es virtual y se conecta a un leptón cargado y su neutrino, corresponde al mismo orden de magnitud que el canal H→bb, haciéndolo igual de significativo que este mismo.
Padilla Valdez Karolina, Universidad de Guadalajara
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
CONSTRUCCIÓN DE LA ACCIÓN COSMOLÓGICA A PARTIR DEL MODELO FRW
CONSTRUCCIÓN DE LA ACCIÓN COSMOLÓGICA A PARTIR DEL MODELO FRW
Padilla Valdez Karolina, Universidad de Guadalajara. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Tomando como referencia la acción efectiva de un taquión de cuerdas cerradas, se desarrolló una investigación que busca generalizar dicha acción a su formulación invariante bajo las transformaciones de supersimetría, lo cual quiere decir que es necesario encontrar las variables dinámicas de la teoría extendidas a los supercampos y donde las funciones se extienden a variables de superespacio. De tal manera que dicha generalizaión de la acción puede escribirse como:
S = S_{FRW_{SUSY}} + S_{M_{SUSY}}
Las acciones del superespacio son representadas como una expansión de Taylor en las variables de Grassmann. Estas variables de Grassmann nos permiten introducir las variables fermionicas. Es importante resaltar que para dichos cálculos se consideraron las bases del álgebra de Grassmann.
METODOLOGÍA
Algunas de las propiedades utilizadas para los cálculos fueron las del álgebra de Grassmann misma. Con ellas y las propiedades basicas para los conjugados o supercompañeros de las variables utilizadas.
También fue necesario repasar la definición de una derivada supercovariante en este caso tanto para una variable cualquiera heta como para su conjugado o supercompañero.
Para todos los campos escalares se introduce un supercampo con lo cual se obtenien las variables grassmannianas:
A = A(t, eta, ar{eta})
N = N(t, eta, ar{eta})
T = T(t, eta, ar{eta})
phi = phi (t, eta, ar{eta}
Donde finalmente la generalización supersimetrica se cálcula a partir de estas nuevas variables según la ecuación para la acción generalizada.
CONCLUSIONES
El desarrollo del resultado tras utilizar las propiedades del álgebra de Grassmann bajo las integrales queda con muchos terminos que poco a poco se van a eliminando conforme la integracion. De lo cual se deriva el superpotencial para el lagrangiano cosmológicos y supersimétrico en el sector gravedad y el lagrangiano de materia dilatónica. Bastarpa decir que los cálculos se vuelven demasiado engorrosos para la integración. Quedará para investigaciones posteriores derivar los lagrangianos de los campos B, G y A. Y con ello, a partir de ciertas variaciones encontrar todas las variables de Grassmann y obtener el lagrangiano completo.
Palma González Karla Dayana Aylin, Instituto Politécnico Nacional
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PROYECTO DE CANAL DE COMUNICACIÓN DE LAGUNA DE SAN ANDRÉS, TAMAULIPAS
PROYECTO DE CANAL DE COMUNICACIÓN DE LAGUNA DE SAN ANDRÉS, TAMAULIPAS
Palma González Karla Dayana Aylin, Instituto Politécnico Nacional. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En la laguna de San Andrés se presentan distintas problemáticas:
Contaminación: Existe la presencia de agroquímicos y fertilizantes, contaminantes industriales, desechos urbanos y aguas residuales.
Modificación del entorno: Debido a la tala de manglar y dragados. Desforestación cuenca arriba que provoca turbidez, azolvamiento, eutrofización.
Por ello se pretende realizar un proyecto de canal de comunicación y obras de protección de Laguna de San Andrés, Tamaulipas empleando información de los fenómenos oceanográficos y metodologías para el diseño y construcción de dicha obra.
METODOLOGÍA
Se realizaran estudios tecnicos: vientos, oleaje, mareas y corrientes con el fin de determinar la direccion de sedimentos para determinar las obras de proteccion necesarias como una escollera, así como la direccion de la construcción, determinar las dimensiones del canal de intercomunicacion entre la laguna y el mar. Tambien se considerara dragar el canal para mejorar la estabilidad de la laguna de San Andres.
CONCLUSIONES
El proyecto de canal de comunicación y obras de protección de Laguna de San Andrés, Tamaulipas ayudara a frenar el deterioro ecológico y sentar bases para transitar hacia un desarrollo sustentable, estas obras proveerán una mejor calidad de vida para todos aprovechando los recursos pesqueros, sin afectar su capacidad de renovación y la calidad ambiental del hábitat en que se encuentran.
El proyecto desarrollado en la Laguna de San Andrés contará con un canal principal entre la laguna y el mar de 2 486m, 2 canales dentro de la laguna, uno al norte de la laguna con longitud de 7 711m y otro al sur de 12 049m, el material dragado de los canales será distribuido para la rehabilitación de la isla sur que está erosionada y el resto se empleará para la construcción de 6 islas artificiales: 3 al norte y 3 al sur, todas con diámetro de 275m y profundidad de 3.5m.
En el caso de las obras de dragado se asegurará el buen funcionamiento de los bienes y la infraestructura de las comunidades pesqueras asentadas en la cercanía de la Laguna de San Andrés y de la permanencia lo largo del tiempo de las condiciones ecológicas en las que se desarrollan no solo las especies de interés comercial sino de totalidad del entorno ambiental del sistema lagunar.
Para llevar a cabo dichos proyectos se consideraron varios parámetros de diseño como régimen de vientos y oleaje, mareas, corrientes, transportes de sedimentos y la evolución de la línea costera a lo largo de varios años, esto con el fin de evitar que la zona de estudio se vea afectada lo menos posible por fenómenos a lo largo de su vida útil.
Peñaloza Chamu Tomas, Instituto Tecnológico de Chilpancingo
Asesor:M.C. Palmira Bonilla Silva, Instituto Tecnológico de Chilpancingo
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
Peñaloza Chamu Tomas, Instituto Tecnológico de Chilpancingo. Asesor: M.C. Palmira Bonilla Silva, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN
El estado de Guerrero se ubica en el sur de la república mexicana, colinda al norte con los estados de México, Morelos y Puebla al sur con el océano pacífico, al este con Oaxaca y al oeste con Michoacán.
Tiene una extensión territorial de 63794 km2 y los tipos de relieve que más se encuentran son las montañas, las sierras y profundas barrancas esparcidas en 7 regiones: Costa Chica, Costa Grande, Acapulco, La Montaña, Tierra Caliente y la región Centro, las cuales tienen importantes ecosistemas como el acuático, que lo componen las aguas dulces y aguas saladas, y el terrestre que son los arrecifes, selvas y bosques.
La región centro cuenta con 13 municipios y en este proyecto de investigación nos vamos a enfocar en la cabecera municipal del estado, Chilpancingo.
Según los datos recabados por la coordinación general de protección civil de Chilpancingo, la ciudad se encuentra en una situación de riesgo debido a las 54 barrancas de las cuales 13 son consideradas de alto riesgo, 22 de riesgo moderado y 19 de riesgo bajo.
La barranca de Las Calaveras se ubica entre el fraccionamiento cumbres 2 y nuevo horizonte con una longitud aproximada de 593 m. dando inicio aguas arriba en el mercado central Baltazar R. Leyva Mancilla, atravesándolo y desembocando en la zona de la central de autobuses.
En temporadas de lluvia, el principal problema que se presenta es el arrastre de gran cantidad de sedimentos, cascajo y principalmente basura que las mismas personas arrojan a las calles, mismos que generan azolves en el sistema de drenaje y alcantarillado atascándolo y generando inundaciones, caos vial, brote de aguas negras y socavones en las principales avenidas que atraviesa la barranca.
La mancha urbana se ha ido esparciendo sobre estas zonas provocando que las personas vivan en condiciones de alta vulnerabilidad; aproximadamente 800 familias son las que habitan en zonas de alto riesgo en la capital invadiendo el cauce natural de la barranca, afectando la flora y fauna de ese sitio y alterando el ciclo hidrológico.
También los habitantes se arriesgan a que sus casas puedan derrumbarse debido a un socavón o la inestabilidad de las laderas en cada temporada de lluvias. A pesar que los elementos de protección civil realizan operativos y visitas a esas zonas para concientizar a las personas, unos no hacen caso al llamado argumentando que es el único patrimonio que les queda, por otra parte, algunos ciudadanos han hecho caso al llamado y han sido reubicados en el fraccionamiento Nuevo Mirador de esta ciudad.
METODOLOGÍA
METODOLOGÍA
La obtención de información de este proyecto se enfoca principalmente en dos métodos de investigación que son:
Investigación documental: análisis de estructura y contenido de información consignada en los documentos oficiales de organismos relacionados con el tema, así como trabajos académicos.
Analogía de la estructura y contenido de los documentos.
Síntesis de la información.
Investigación de campo:
Cuantificaciones en campo en el momento en que sea posible.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la gestión del medio ambiente en la ciudad de Chilpancingo, mediante análisis y síntesis de información documental. A consecuencia de las condiciones de riesgo por la pandemia de COVID-19 no se desarrolló trabajo de campo.
El material azolvado producto del intemperismo de las rocas o suelos, son arrastrados por el proceso de erosión, el arrastre de este tipo de sedimentos puede llegar a afectar las obras civiles dentro de la barranca las calaveras por lo que es indispensable proponer algún mecanismo de control de azolves.
Esperamos que la información que recopilamos de los distintos autores, sea un fundamento que nos permita contribuir a la restauración de la barranca "Las Calaveras" con el fin de reducir los daños antrópicos producidos por los habitantes de Chilpancingo.
Pérez Arteaga María Fernanda, Instituto Politécnico Nacional
Asesor:Mtro. Gerardo Hernandez Valencia, Universidad Politécnica de Texcoco
MODELO CINEMáTICO DIRECTO BASADO EN CUATERNIONES DUALES DE UN ROBOT SCARA IRB910SC
MODELO CINEMáTICO DIRECTO BASADO EN CUATERNIONES DUALES DE UN ROBOT SCARA IRB910SC
Pérez Arteaga María Fernanda, Instituto Politécnico Nacional. Asesor: Mtro. Gerardo Hernandez Valencia, Universidad Politécnica de Texcoco
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se presenta la solución del modelo cinemático directo de un robot industrial de 4 grados de libertad SCARA IRB910SC, con la finalidad de poder determinar la posición y orientación del extremo a partir de sus coordenadas articulares.
METODOLOGÍA
Los sistemas de coordenadas se asignaron de acuerdo con la convención de Denavit-Hartenberg y se utilizó como herramienta matemática la aplicación de cuaterniones duales para relacionar los sistemas de coordenadas adyacentes de la cadena cinemática abierta y multiplicando de forma secuencial los cuaterniones duales entre sí, se determinó la relación entre el extremo y la base del robot. Posteriormente el modelo obtenido se programó en el software MATLAB como una función simbólica y se implementó una GUI para visualizar el movimiento de cada grado de libertad.
CONCLUSIONES
Finalmente, se verifico que la posición y orientación corresponde con los resultados obtenidos por un modelo del robot basado en matrices de transformación homogénea, validando su uso como una alternativa viable, eficiente y robusta para obtener las ecuaciones de un robot.
Piña Garrido Brandon, Instituto Politécnico Nacional
Asesor:Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PROSPECCIóN GEOTéRMICA DE LA REGIóN DE LA CIéNEGA DE CHAPALA
PROSPECCIóN GEOTéRMICA DE LA REGIóN DE LA CIéNEGA DE CHAPALA
Piña Garrido Brandon, Instituto Politécnico Nacional. Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
México es un país cuyo abastecimiento de energía a su población se basa principalmente en el uso de combustibles fósiles que, como es bien sabido, son un foco de contaminación muy grande, además, tienen las características de que para su generación se requiera del uso de recursos no renovables.
En la actualidad, según la Agencia Internacional de Energía, México generó hasta febrero del año en curso solamente el 23.4% de energía eléctrica total consumida en el país a través de fuentes limpias, porcentaje que debe aumentar al 35% para el año 2024 según lo comprometido en el acuerdo de París y en la Ley de Transición Energética aprobada en el año 2013. Es un caso alarmante debido a que en los últimos años México no ha invertido lo suficiente para investigación y desarrollo de nuevos campos, solo del año 2019 al actual se logró aumentar un 2% el uso de energías limpias. Por otro lado, la energía geotérmica es uno de los más aprovechables tipos de energía en cuanto a la generación de energía eléctrica y tiene ventajas considerables con respecto a los otros tipos de energías limpias.
METODOLOGÍA
Dadas las condiciones de la estancia durante este año, el presente proyecto fue planeado para la elaboración del marco teórico y conceptual de la investigación, mismos que reseñan el estudio de las zonas geotérmicas Ixtlán de los Hervores, Los Negritos y el inicio de la prospección geotérmica en la zona de Pajacuarán, todas pertenecientes a la Ciénega de Chapala en Michoacán. De esta forma se propuso realizar y redactar un conjunto de capítulos con la finalidad de comprender el contexto geológico de la zona de estudio.
Se estudió la Geología regional y se logró comprender que, a grandes rasgos, el contexto geológico estructural se ve principalmente representado por un sistema de fallas que ocupa una gran extensión en el centro del país y que ha configurado la morfología en esta región y el gran vulcanismo.
Posteriormente se realizó una investigación sobre los Métodos geológicos, geofísicos y geoquímicos de prospección geotérmica que permitió seleccionar aquellos métodos que se utilizarían para los estudios en campo para obtener información precisa sobre el potencial geotérmico del área.
Después, se revisaron los Estudios geotérmicos regionales previos y se pudieron identificar recursos en las áreas de Ixtlán de los Hervores y Los Negritos, se conocieron las técnicas utilizadas para poder ser estudiadas y se reconoció la estratigrafía y vulcanismo en toda la zona.
Finalmente, se recopiló información sobre el Caso de estudio en la zona de Pajacuarán, Mich., una zona con manifestaciones termales que ha sido muy poco estudiada y se propuso un modelo teórico y conceptual de la geometría del posible yacimiento y los elementos que lo pudieran conformar.
De estos estudios, se eligieron las técnicas geológicas, geofísicas y geoquímicas que se piensan son convenientes para analizar a detalle la zona y que se emplearán a futuro para determinar el potencial geotérmico de la Ciénega, el cual es el objetivo principal.
De esta manera, se resume lo siguiente:
Los métodos geológicos que se emplearán en un futuro son: la fotogeología que ayudará a determinar y definir las fallas, el mapeo de estructuras volcánicas, la definición de relaciones vulcano-tectónicas y la integración de los mapas geológicos disponibles; con la cartografía se realizarán los levantamientos geológicos pertinentes así como la definición de un mapa geológico de la zona; finalmente, la geología estructural localizará y mapeará las fallas recientes que representan un buen medio para la formación de yacimientos geotérmicos.
Las técnicas geofísicas son análisis por Georadar que nos proporcionarán un dibujo detallado de la estructura del subsuelo a poca profundidad e identificar con muy bajos costos, gran eficacia y alta resolución la distribución de humedad y agua en el subsuelo, así como la identificación de fallas activas.
La técnica geoquímica que se utilizará en esta investigación será lo obtenido del uso del analizador portátil de gases, este es un instrumento que nos permitirá analizar gases volcánicos, fumarolas y vapores que darán como resultado datos de geotermometría, tasas de ebullición, contaminación y detección de fracturamiento y tectonismo.
CONCLUSIONES
Durante la estancia se logró elaborar de manera preliminar el marco teórico y conceptual de la investigación, conociendo de esta manera, la geología regional y local de la Ciénega de Chapala de Michoacán, se determinó la estratigráfica y la geología estructural de la zona según distintos estudios previos realizados en algunas partes de esta región. Se documentaron las manifestaciones termales superficiales reportadas a lo largo de la zona y, finalmente, se propuso un modelo teórico conceptual de la configuración del posible yacimiento geotérmico según la información analizada en la literatura.
Cabe mencionar que, debido a la naturaleza de la presente investigación, que busca el fortalecimiento, desarrollo y uso de energías limpias como alternativa para evitar la contaminación por el uso de combustibles fósiles, se enmarca en el objetivo número 7 Energía asequible y no contaminante de los Objetivos de Desarrollo Sostenible (ODS) de la agenda 2030 de la ONU.
Por otra parte, se pretende continuar con los estudios de exploración en la zona, específicamente realizar la investigación de las distribuciones termales a lo largo de las fallas más importantes de la región y su relación con la distribución de las manifestaciones termales superficiales para ubicar a mayor detalle el posible yacimiento geotérmico. También se desea detallar los rasgos estructurales y características tectónicas en la zona.
Piña Ramírez Leo Yeudiel, Instituto Politécnico Nacional
Asesor:Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
DESARROLLO DE UNA PLATAFORMA WEB PARA LA VENTA DE PRODUCTOS DE REALIDAD VIRTUAL
DESARROLLO DE UNA PLATAFORMA WEB PARA LA VENTA DE PRODUCTOS DE REALIDAD VIRTUAL
Piña Ramírez Leo Yeudiel, Instituto Politécnico Nacional. Asesor: Dr. Alberto Ochoa Ortíz-zezzatti, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Los productos de realidad virtual han dado un gran impacto social desde su venta hacia al público sirviendo en diferentes situaciones como entretenimiento, negocios, simulaciones médicas, construcción u otros lo que han servido a empresas a facilitar su modo de trabajo y aumentar la productividad y a los usuarios, sentir una nueva experiencia en la que puede disfrutar de un ambiente virtual y sentir la sensación de estar dentro de ella.
Sin embargo, este tipo de productos no es accesible para todo público, ya que regularmente es por el precio o por el tipo de tecnología que requieren para poder utilizarlo (Hardware), esto limita su compra e incremento de precio para que las mismas empresas equilibren sus inversiones.
La idea de utilizar un sistema web con un sistema inteligente y un sistema parecido al de trivago pero esta vez enfocado a la Realidad Virtual al usuario se le facilitará la búsqueda y comparación de precios en las tiendas que los ofrecen, lo cual es más cómodo y rápido para la compra del mismo
METODOLOGÍA
Este proyecto se fue basando en un ciclo de vida de desarrollo con un modelo repetitivo en las cuales se va desarrollando de menor a escala en la que cada repetición se va implementando más características al trabajo en sí. Este modelo son varias etapas de desarrollo en la que se incluyen 5 fases las cuales son:
Análisis. Esta fase se encarga del planteamiento del problema para tener en claro un objetivo y un motivo como tal de hacer ese mismo trabajo, también sobre los requisitos funcionales y no funcionales que deberá de llevar el sistema, los programas o tecnologías que se utilizaran durante su elaboración (en la cual se optó en utilizar jsp y MySQL como gestor de base de datos) y los requisitos mínimos que utilizara el cliente.
Diseño. En esta fase se realiza lo que son los diagramas UML como son el de entidad-relación para la elaboración de la base de datos, casos de uso para ver las acciones que realizara el usuario y el comportamiento del mismo, diagramas de clases como guía en las funciones que llevara cada una de ellas, también en esta fase se hace un boceto de la estructura de la pagina y un mapa de navegación.
Codificación. Se empieza con la elaboración del sistema como es la base de datos, el maquetado de la pagina y la funcionalidad del programa basándose en los diagramas ya antes realizados en la anterior prueba.
Integración. Aquí es cuando haces el uso del Modelo Vista Controlador en la que el maquetado lo que es la vista del cliente, funcionalidad parte que se encarga de realizar acciones posibles y la conexión a la base de datos que se encarga de las peticiones y respuestas para el cliente se juntan en el sistema web.
Prueba. Se corrigen cosas como es la seguridad del sistema, validaciones, pruebas, detectando errores y posibles mejorar la plataforma web.
Y estas 5 fases una vez completadas, se pueden repetir haciendo así un ciclo de constante mejora hasta conseguir un resultado satisfactorio.
CONCLUSIONES
Durante esta estancia no se pudo disfrutar totalmente de la experiencia, pero a pesar de eso fue de gran aprovechamiento en cuanto aprender un poco de inteligencia artificial al menos en base a conceptos y ponerlo en práctica, en otros aspectos fortalecí y puse en práctica conocimientos en la elaboración de páginas web con java y JavaScript. sin embargo, no se llegó a implementar el aspecto de añadir un sistema inteligente en el proyecto realizado por el poco entendimiento que se llegó a obtener, también se complicó a obtener una gran variedad de datos para que su funcionalidad sea satisfactoria.
Ponciano Calvo Karen Denisse, Instituto Tecnológico de Chilpancingo
Asesor:Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
Bautista Parra Giovanni, Instituto Tecnológico de Chilpancingo. González Mondragón Cesia Samantha, Instituto Tecnológico de Matamoros. Ponciano Calvo Karen Denisse, Instituto Tecnológico de Chilpancingo. Riaño Martínez Jaime Daniel, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN
El estado de Guerrero se ubica en el sur de la república mexicana, colinda al norte con los estados de México, Morelos y Puebla al sur con el océano pacífico, al este con Oaxaca y al oeste con Michoacán.
Tiene una extensión territorial de 63794 km2 y los tipos de relieve que más se encuentran son las montañas, las sierras y profundas barrancas esparcidas en 7 regiones: Costa Chica, Costa Grande, Acapulco, La Montaña, Tierra Caliente y la región Centro, las cuales tienen importantes ecosistemas como el acuático, que lo componen las aguas dulces y aguas saladas, y el terrestre que son los arrecifes, selvas y bosques.
La región centro cuenta con 13 municipios y en este proyecto de investigación nos vamos a enfocar en la cabecera municipal del estado, Chilpancingo.
Según los datos recabados por la coordinación general de protección civil de Chilpancingo, la ciudad se encuentra en una situación de riesgo debido a las 54 barrancas de las cuales 13 son consideradas de alto riesgo, 22 de riesgo moderado y 19 de riesgo bajo.
La barranca de Las Calaveras se ubica entre el fraccionamiento cumbres 2 y nuevo horizonte con una longitud aproximada de 593 m. dando inicio aguas arriba en el mercado central Baltazar R. Leyva Mancilla, atravesándolo y desembocando en la zona de la central de autobuses.
En temporadas de lluvia, el principal problema que se presenta es el arrastre de gran cantidad de sedimentos, cascajo y principalmente basura que las mismas personas arrojan a las calles, mismos que generan azolves en el sistema de drenaje y alcantarillado atascándolo y generando inundaciones, caos vial, brote de aguas negras y socavones en las principales avenidas que atraviesa la barranca.
La mancha urbana se ha ido esparciendo sobre estas zonas provocando que las personas vivan en condiciones de alta vulnerabilidad; aproximadamente 800 familias son las que habitan en zonas de alto riesgo en la capital invadiendo el cauce natural de la barranca, afectando la flora y fauna de ese sitio y alterando el ciclo hidrológico.
También los habitantes se arriesgan a que sus casas puedan derrumbarse debido a un socavón o la inestabilidad de las laderas en cada temporada de lluvias. A pesar que los elementos de protección civil realizan operativos y visitas a esas zonas para concientizar a las personas, unos no hacen caso al llamado argumentando que es el único patrimonio que les queda, por otra parte, algunos ciudadanos han hecho caso al llamado y han sido reubicados en el fraccionamiento Nuevo Mirador de esta ciudad.
METODOLOGÍA
METODOLOGÍA
La obtención de información de este proyecto se enfoca principalmente en dos métodos de investigación que son:
Investigación documental: análisis de estructura y contenido de información consignada en los documentos oficiales de organismos relacionados con el tema, así como trabajos académicos.
Analogía de la estructura y contenido de los documentos.
Síntesis de la información.
Investigación de campo:
Cuantificaciones en campo en el momento en que sea posible.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la gestión del medio ambiente en la ciudad de Chilpancingo, mediante análisis y síntesis de información documental. A consecuencia de las condiciones de riesgo por la pandemia de COVID-19 no se desarrolló trabajo de campo.
El material azolvado producto del intemperismo de las rocas o suelos, son arrastrados por el proceso de erosión, el arrastre de este tipo de sedimentos puede llegar a afectar las obras civiles dentro de la barranca las calaveras por lo que es indispensable proponer algún mecanismo de control de azolves.
Esperamos que la información que recopilamos de los distintos autores, sea un fundamento que nos permita contribuir a la restauración de la barranca "Las Calaveras" con el fin de reducir los daños antrópicos producidos por los habitantes de Chilpancingo.
Pradel Jimenez Diana Celeste, Instituto Politécnico Nacional
Asesor:Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PICK UP:
TRANSPORTE Y LOGíSTICA INTELIGENTE EN EL EMPORIO TEXTIL DE GAMARRA DEL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020
PICK UP:
TRANSPORTE Y LOGíSTICA INTELIGENTE EN EL EMPORIO TEXTIL DE GAMARRA DEL DISTRITO DE LA VICTORIA, LIMA – PERú, 2020
Pradel Jimenez Diana Celeste, Instituto Politécnico Nacional. Asesor: Dr. Henry Daniel Lazarte Reátegui, Universidad César Vallejo
PLANTEAMIENTO DEL PROBLEMA
Ubicado en el distrito de la Victoria, en la capital del Perú, el Emporio Comercial de Gamarra se considera una fuente de ingresos tan relevante para el país, que tan solo en un mes genera aproximadamente 700 millones de soles, entre sus pequeñas, medianas y grandes empresas. Cada día es visitado por más de 500,000 usuarios que transitan por sus 184 hectáreas, buscando diversos productos por sus más de 5,000 galeras, donde el 77% del comercio encontrado es formal, el resto son comercios encontrados invadiendo las vialidades peatonales de la zona. Debido a esto, las calles peatonales se ven saturadas con 3 principales obstáculos, que son: vendedores ambulantes, transportistas de mercancía y proveedores, y los mismos usuarios que transportan su mercancía por diferentes caminos a través del emporio. Provocando así, grandes aglomeraciones ideales para delincuencia y contagios de diversos virus, entre los que se encuentra el tan importante COVID-19. En los alrededores de Gamarra se halla un equipamiento urbano muy completo, en los que se incluyen: un estadio, parques, hospitales, escuelas, estaciones de tren, rutas de autobuses, entre otros. Facilitando así, el tránsito de usuarios en la zona, ya sean compradores, comerciantes o peatones con otro destino
METODOLOGÍA
Se delimitó un polígono para llevar a cabo el estudio urbano de la zona, que comprende las cuadras encontradas dentro de los límites de Av. Aviación, Parinacochas, Av. México y Av. 28 de Julio, en el distrito de la Victoria, con el fin de comprender la dinámica encontrada en el Emporio Comercial de Gamarra e implementar puntos de pick up para agilizar la mencionada y evitar aglomeraciones dentro de la zona. Se buscaron los puntos estratégicos de mayor afluencia tanto peatonal, como motorizada dentro y alrededor del polígono, incluyendo en estos sitios de taxis, paradas de autobuses y estaciones de tren o tranvía. A su vez, se zonificó el emporio según el tipo de edificio y producto comerciado existente en el polígono analizado, con el fin de encontrar el tipo de servicio adecuado. Esto condujo a la adecuación de espacios e implementación de elementos urbanos que permitan un adecuado almacenamiento temporal en los puntos estratégicamente seleccionados, dependiendo de la zonificación previa. Así se hallaron los puntos pick up necesarios y la ubicación de los mismos en el polígono.
CONCLUSIONES
Con la implementación del servicio de Pick Up en la zona estudiada se reducirá el tránsito de peatones en un 30% después de un año, incentivando, a su vez, el uso e implementación de las tecnologías para impulsar una forma de comercio más higiénica, segura y ágil. Por otro lado, gracias a la minimización de contacto entre los implicados de las transacciones y las medidas implementadas con este servicio se podrá reducir considerablemente el riesgo de contagios del virus COVID-19, que ha afectado a diversos países.
Prado Eustaquio Sayuri, Instituto Politécnico Nacional
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional. Garcia Peralta Jacqueline, Instituto Politécnico Nacional. Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Prado Eustaquio Sayuri, Instituto Politécnico Nacional. Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este es un proyecto multidisciplinario donde colaboran alumnos del Programa DELFIN México (nodo C-51) y estudiantes de diferentes países y nodos de la REDPROPLAYAS (http://www.proplayas.org/), para lograr resultados más integradores.
A pesar de que hay gran cantidad de aplicaciones relacionadas con la playa en las plataformas móviles más comunes, al usuario le genera confusión saber cuáles de ellas realmente le serían útiles para su uso específico. A los investigadores, se les complica también saber cuáles de ellas pueden servir para la gestión de playas porque no están clasificadas.
Esto genera la siguiente incógnita:
¿Qué aplicaciones son las que existen en cada categoría relacionadas con la playa y cuáles de ellas son recomendadas para un uso práctico, que estén disponibles en plataformas móviles, y cómo pueden ser IOS y Android, y que estén relacionadas para
gestión de playas?
Por lo que este trabajo servirá para identificar una mayor cantidad de aplicaciones y hacer una clasificación de éstas y así facilitar tanto a los usuarios para su uso recreativo como a los investigadores como objeto de análisis para gestión de playas; además de ayudar a los desarrolladores de apps a identificar cuáles son los puntos fuertes y débiles generales de cada aplicación.
Por lo que los objetivos de la investigación son los siguientes:
Identificar la mayor cantidad de apps relacionadas con la playa y categorizarlas según su uso y/o contenido.
Probar cada aplicación para así obtener un análisis particular y general de todas las aplicaciones, que contenga principalmente; utilidad, calidad, disponibilidad, así como fortalezas y debilidades.
Analizar las funcionalidades de las apps registradas en un marco de gestión y certificación de playas.
METODOLOGÍA
Se muestra a detalle el proceso de obtención y análisis de datos, el tipo de investigación, instrumento de evaluación y la base del análisis de los datos.
Obtención de datos:
Se realizaron equipos de trabajo que se encargaron de buscar en las plataformas móviles todas las aplicaciones que estuvieran relacionadas con las playas, elaborando un listado de todas ellas y de igual manera se dividió equitativamente a cada uno de los participantes para su descarga y evaluación. Se adquiere la mayor cantidad de datos posible desde la plataforma en la que se encuentra la app, como: desarrollador, descripción, número de descargas, etc. Cuando el integrante haya completado la
obtención de datos cuantitativos procede a probar la app agregando datos cualitativos en la ficha de registro, como: interacción con el usuario, fortalezas y debilidades.
Tipo de investigación:
El enfoque de esta investigación es cuantitativo, ya que lo importante es generar resultados. Según Pita Fernández, S., Pértegas Díaz, S.(2002) La investigación cuantitativa trata de determinar la fuerza de asociación o correlación entre variables, la
generalización y objetivación de los resultados a través de una muestra para hacer inferencia a una población de la cual toda muestra procede. Tras el estudio de la asociación o correlación pretende, a su vez, hacer inferencia causal que explique por qué
las cosas suceden o no de una forma determinada.
Instrumento de evaluación:
La actividad en la cual se obtuvieron resultados se fundamentó en la elaboración de fichas técnicas donde se establecieron características o atributos que serían evaluados; como: la
fecha de creación, el país de origen, categoría, número de descargas, puntuación/calificación, plataforma, etc. Al integrar dichos datos se realizó una evaluación del uso de cada aplicación, valorando según sus fortalezas y deficiencias y al final proporcionar una retroalimentación mencionando sus puntos débiles en cada una de ellas, y propuestas para mejorarla.
Análisis de datos:
Una vez aplicado el instrumento de evaluación, se realizarán gráficos y se presentarán los resultados de cada nodo en un webinar a nivel internacional donde participarán estudiantes e investigadores de varios países.
Para realizarlo se elaborarán herramientas visuales para interpretar los datos que se presentarán como: mapas donde se colocarán la ubicación del país de origen de cada aplicación, crear una gráfica de barras u otras para hacer el conteo de la plataforma que maneja más apps relacionadas a la playa, el país que desarrolla más apps, un ranking de apps más descargadas y su calificación, el porcentaje de aplicaciones gratuitas, así como la cobertura que hay en distintos países. También identificar cuáles van dirigidas a mejorar/apoyar la gestión de playas.
CONCLUSIONES
Los resultados integrales que se esperan del nodo C-51 es un libro de Excel que contenga las fichas de todas las posibles apps identificadas, un análisis general de las categorías de las apps registradas y una presentación que posteriormente será expuesta
en un Webinar internacional ante toda la red de Proplayas para entregar resultados.
Los resultados parciales que lleva hasta el momento el nodo C-51 es un libro de Excel con alrededor de 40 apps registradas junto con una parte mayoritaria del análisis de las categorías de las aplicaciones mencionadas. Por ahora se está trabajando en la
conclusión del análisis y en la presentación para el Webinar.
Prado Gonzalez Karla Diana, Universidad Autónoma de Guerrero
Asesor:Dr. Fernando Victor Iriarte Rodriguez, Universidad Juárez Autónoma de Tabasco
SISTEMA ACUAPóNICO PARA EL CULTIVO DE JAMAICA (HIBíSCUS SABDARIFFA) Y CARPA DORADA (CARASSIUS AURATUS AURATUS) EN LA ZONA URBANA DE ACAPULCO, GUERRERO, MéXICO.
SISTEMA ACUAPóNICO PARA EL CULTIVO DE JAMAICA (HIBíSCUS SABDARIFFA) Y CARPA DORADA (CARASSIUS AURATUS AURATUS) EN LA ZONA URBANA DE ACAPULCO, GUERRERO, MéXICO.
Prado Gonzalez Karla Diana, Universidad Autónoma de Guerrero. Asesor: Dr. Fernando Victor Iriarte Rodriguez, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
La Acuaponía es un método que nos permite asegurar la inocuidad de nuestros alimentos, garantizando la seguridad alimentaria al ser cultivos libres de pesticidas y fertilizantes.
Además, fomenta el desarrollo social con la independencia alimentaria, es económicamente viable y sobre todo ecológicamente apropiado. La acuaponía presenta una alternativa para la agricultura convencional que ha sido un factor principal de la contaminación del agua, de la deforestación, la desecación de tierras y el empobrecimiento del suelo provocando la disminución de espacios para cultivar.
El sistema acuapónico puede impulsar la producción de cultivos de tradición cultural que impactan económicamente un estado como por ejemplo en Guerrero, entidad en la que más se produce la flor de la Jamaica y que es de gran demanda comercial en el mercado nacional e internacional gracias a sus diversas utilidades culinarias y medicinales.
METODOLOGÍA
Se propuso el cultivo de Jamaica (hibíscus sabdariffa) por la importancia comercial que tiene en el estado de Guerrero y los peces de ornato Carpa dorada (Carassius auratus auratus) que son ideales para tener en una pecera dentro de una vivienda.
Se comenzó a germinar las semillas de Jamaica en sustrato de humus de lombriz, se colocó el semillero en un sitio que no recibe luz directa.
Después se recopilaron los materiales a utilizar para la estructura del sistema, se reciclaron algunos como una pecera de 60 lts , botellas de PET para las macetas, tapas de botellas para los filtros biológicos, tubos de pvc de 4 pulgadas, abrazaderas, codos, cubetas, bomba sumergible y para el sustrato se utilizará grava fina.
Posteriormente se acondiciona el espacio en donde se establecerá el sistema, en este caso para la estructura NFT (tubos de pvc) las medidas para colocar los tubos serán de 1.50 de alto x 1.50 de ancho, contarán con 7 orificios para las macetas y serán distribuidos en 4 hileras de 37 cm de espacio entre ellas, los tubos serán fijados a la pared con tornillos y abrazaderas de 4 pulgadas y se conectaran los tubos con los codos.
Se requiere de una tina para eliminar el exceso de sedimentos en el agua, se utilizará una cubeta de 20 lts. Después esta tina de sedimentación se conecta con un filtro biológico también se ocupará una cubeta de 20 lts, en donde se almacenarán tapas de botella de refresco que sirvan para que las bacterias nitrificantes se adhieran y se reproduzcan mejor. Cabe mencionar que estas bacterias Nitrosomonas son esenciales en el sistema ya que generan la oxidación de amonio a nitrito y la segunda reacción es la oxidación del nitrito por las bacterias nitrobacter que convierte los nitritos en nitratos que sirven de nutrientes para las plantas. A su vez las plantas filtran el agua para retornar un agua limpia hacia los peces y posteriormente repetir el curso.
Después del llenado de la pecera, se incorporarán 10 peces juveniles de carpa dorada y se colocarán las macetas con las plantas de Jamaica.
Una vez en función el sistema se deberá verificar la calidad del agua, se tomarán parámetros fisicoquímicos como pH, la temperatura y la conductividad,se puede utilizar un multiparamétrico.
En función del paso del tiempo se espera que el sistema vaya madurando y se estabilice, lo que ofrecerá una mejor calidad del agua y control de parámetros para el buen funcionamiento del mismo.
CONCLUSIONES
Durante el periodo del verano de investigación se logró adquirir conocimientos teóricos sobre los sistemas acuapónicos de baja intensidad.
En este sistema ambos cultivos se benefician con base en principios de reciclaje de agua y aprovechamiento de nutrientes de los desechos acuícolas para las plantas, ello constituye una ventaja sobresaliente de la acuaponía, pues reduce la contaminación y aumenta la eficiencia del agua, además de reducir el impacto ambiental.
Cabe destacar que la acuaponía es una técnica de cultivo de alimentos que permite realizar objetivos de la agenda 2030 para el desarrollo sostenible del planeta, ya que permite brindar salud y bienestar, aporta crecimiento económico, ayuda a combatir la pobreza, permite tener una alimentación sostenible, una producción y consumo responsable y coadyuva al cuidado del medio ambiente.
Se espera llevar a la práctica el modelo propuesto para conocer los resultados de la producción acuapónica de Jamaica y carpa dorada. Si el desarrollo de los organismos es favorable se podría proponer este sistema de cultivo en otros municipios de Guerrero.
Como por ejemplo en Tecoanapa, Ayutla, Juan R. Escudero y San Marcos que son los principales productores de Jamaica en el estado, en donde además se viven situaciones de hambre y pobreza. También se podría adecuar el sistema acuapónico con peces comestibles para asegurar la alimentación de las familias.
Reyes Alvarez Arturo Aldahir, Instituto Tecnológico de Morelia
Asesor:Dr. Stanley Eugene Kurtz Smith, Universidad Nacional Autónoma de México
INSTRUMENTACIóN VIRTUAL PARA MEDIR LA VARIANZA DE ALLAN EN OSCILADORES PARA LA RADIOASTRONOMíA
INSTRUMENTACIóN VIRTUAL PARA MEDIR LA VARIANZA DE ALLAN EN OSCILADORES PARA LA RADIOASTRONOMíA
Reyes Alvarez Arturo Aldahir, Instituto Tecnológico de Morelia. Asesor: Dr. Stanley Eugene Kurtz Smith, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Los osciladores son dispositivos esenciales en varios equipos electrónicos. Estos dispositivos producen una señal periódica a una determinada frecuencia. Cuando se hablade caracterizar un oscilador, la estabilidad de frecuencia y la exactitud son valores importantes.
Muchos equipos de medición para la radioastronomı́a utilizan osciladores de altasfrecuencias, los cuales también se requiere conocer su estabilidad en frecuencia. Esto ayuda a tener un mayor grado de confiabilidad de las mediciones realizadas con dichos equipos.
Uno de los proyectos en el que la UNAM está involucrada, consiste en convertir una antena de comunicaciones ubicada en Tulancingo para poder usarse como radio telescopio. Para ésto, se desarrolla un receptor de radiofrecuencia, en el que se hace uso de osciladores. Debe tomarse en cuenta la relación entre diferentes factores como el costo, eficiencia y calidad, por lo que también es importante caracterizar los osciladores para conocer su estabilidad y seleccionar el modelo indicado.
METODOLOGÍA
Si inició realizando un programa en C++ el cual leyera datos de frecuencia de un documento de texto y realizará, sobre estos datos, la varianza de Allan Superpuesta para un rango de valores de τ , y enseguida graficar los resultados utilizando librerı́as de ROOT.
Se realiza un programa en Python con el cual poder comparar los resultados del programa realizado en C++. Se toma un paquete de datos de prueba con las mediciones de frecuencia y fase de un oscilador de 2 MHz, con una frecuencia de muestreo de 122 Hz durante 10 minutos. Se decide si se trabajará con los datos de fase o los de frecuencia (éstos requieren un procesado para utilizar un algoritmo más eficiente). Para diferentes valores de τ se realiza el cálculo de la varianza de Allan Superpuesta, elcual, a diferencia de la varianza de Allan estándar, consiste en la realización del cálculo utilizando todas las combinaciones posibles del conjunto de datos para cada tiempo τ. Ésto último permite mayor confiabilidad en el resultado de la estimación de estabilidad.
Al graficar los valores de varianza de Allan contra τ en una escala logarı́tmica podemos ver la pendiente que tiene la curva en diferentes secciones. Es posible determinar varios tipos de ruidos que tiene la señal, observando la pendiente de la curva en diferentes puntos. También, observando el tiempo τ a partir del cual la curva se aplana, se puede determinar la estabilidad del reloj. Siendo que si la curva se aplana en un valor de τ mayor, el reloj es más estable, y podrı́a ser usado para realizar mediciones continuamente durante no más allá de ese tiempo, antes de reiniciar la toma de datos de un ADC, por ejemplo.
Otra forma de la varianza de Allan que se utiliza es la varianza de Allan Modificada. Este tipo de varianza tiene la ventaja de ser capaz de distinguir entre el ruido WPM y el FPM. Esta ventaja muchas veces resulta útil, a costa de un mucho mayor tiempo computacional. Al momento de identificar el tipo de ruido en la señal, también es posible, utilizar un algoritmo de identificación de ruido usando la autocorrelación de primer orden, utilizando un promediado de los datos de frecuencia para cada tiempo de promediado.
Los datos de la medición de frecuencias se pueden obtener con alguno de los dispositivos NI4070 (multı́metro digital) o NI6255 (convertidor analógico a digital). La señal del oscilador bajo prueba se mezcla con la señal de un oscilador de referencia el cual debe ser de mayor presición. Se utiliza un filtro pasa-bajas para conservar la componente de menor frecuencia, y ésta, si es necesario se amplifica y alimenta al sistema de adquisición.
El multı́metro digital NI4070 permite medir la frecuencia de una señal de forma directa contando el número de cruces por cero de la señal usando un reloj de referencia de 28.8 MHz. Utilizando un programa en LabView se realizan las mediciones de frecuencia del reloj durante un intervalo de tiempo y se guardan las mediciones para después hacer el análisis de estabilidad con las varianzas de Allan.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos sobre el acondicionamiento de la señal de un oscilador para su procesamiento en el análisis de frecuencia, y sobre los métodos para caracterizar un oscilador, conocer su estabilidad, exactitud, ası́ como los tipos de ruidos a los que es susceptible. Haciendo comparaciones entre las diferentes formas de varianza para determinar la estabilidad, se encuentra que cada una de éstas es capaz de detectar diferentes tipos de ruido o mostrar una caracterı́stica especı́fica sobre el comportamiento del oscilador. Como resultado se han desarrollado las herramientas necesarias para caracterizar la estabilidad de osciladores bajo consideración para el proyecto en Tulancingo.
Reynoso Contreras Edmundo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
ENFOQUE GEOMÉTRICO EN LA RESOLUCIÓN DE PROBLEMAS DE CINEMÁTICA
ENFOQUE GEOMÉTRICO EN LA RESOLUCIÓN DE PROBLEMAS DE CINEMÁTICA
Reynoso Contreras Edmundo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
En los cursos de mecánica en la educación superior, los temas de cinemática recurren a soluciones analíticas idealmente, y, por otro lado, los enfoques geométricos y visuales que son igualmente validos se atenúan a un segundo plano. El uso de los enfoques geométricos y visuales en el aprendizaje resulta importante, ya que pueden ser más intuitivos con la visión de los conceptos básicos. En este proceso los estudiantes deben ser capaces de abstraer la información de los problemas, por lo cual es primordial que manejen estos enfoques para un buen aprendizaje de los contenidos de cinemática, que les permitan describir con exactitud los fenómenos físicos.
La cinemática, en particular su enseñanza y aprendizaje a través de enfoques geométricos y visuales ha sido abordado en eventos de trascendencia internacional en el campo de la Física como Diálogos sobre los Sistemas del Mundo (Galilei, 2010), (Marshall, 2013), entre otros. Diferentes investigadores como Lorenzen (1989), entre otros, han aportado estrategias y metodologías para contribuir a la compresión y aprendizaje de esta temática en las carreras de física.
La presente investigación asume como marco teórico: la resolución de problemas, enfoques geométricos y visuales en el aula, uso de tecnología en el aula, y el proceso de enseñanza y aprendizaje de la cinemática. En este trabajo se establece como problema de investigación ¿cómo favorecer el proceso de enseñanza y aprendizaje de la resolución de problemas de cinemáticas en estudiantes del primer semestre de la carrera de Física en la Benemérita Universidad Autónoma de Puebla?
El objetivo de la investigación radica en elaborar un sistema de actividades para la resolución de problemas de cinemática, basado en enfoques geométricos y visuales, en los estudiantes del primer semestre de la carrera de Física en la Benemérita Universidad Autónoma de Puebla.
En aras de dar cumplimiento al objetivo y lograr resolver el problema planteado, así como para guiar el curso del proyecto se proponen las siguientes tareas de investigación:
Determinar el estado del arte sobre la enseñanza y aprendizaje de la resolución de problemas en cinemática, en particular a través de enfoques geométricos y visuales.
Determinar el marco teórico sobre la enseñanza y aprendizaje de la resolución de problemas en cinemática a través de enfoques geométricos y visuales.
Elaborar un sistema de actividades basado en problemas y en enfoques geométricos y visuales, para favorecer el proceso de comprensión de contenido y conceptos de cinemática.
Analizar los resultados del sistema de actividades.
METODOLOGÍA
La investigación se realiza con un enfoque de investigación mixto y un diseño de investigación acción. Con respecto al diseño de investigación acción Hernández Sampieri, Fernández Collado, & Baptista Lucio (2014, p. 496) expresan que Su precepto básico es que debe conducir a cambiar y por tanto este cambio debe incorporarse en el propio proceso de investigación. Se indaga al mismo tiempo que se interviene. Por lo que se infiere que este diseño permite transformar, mejorar y enriquecer el quehacer docente en el aula.
La población está conformada por los estudiantes de la Licenciatura de Física de la Benemérita Universidad Autónoma de Puebla y la muestra está formada por los estudiantes del primer año de la carrera. La investigación se lleva a cabo a través de cuatro fases: Diagnóstico del tema, revisión de la literatura y concreción del Marco teórico, diseño e implementación y análisis de resultados.
En las actividades se enfatiza en construcciones que identifiquen los conceptos de límite, velocidad instantánea, aceleración, movimiento rectilíneo y aceleración uniforme. Es clave que sea posible identificar un análogo geométrico, sea un vector o alguna esquematización visual que asocie los conceptos, por ejemplo, saber identificar un movimiento rectilíneo en un sistema resulta adecuado con exactamente una línea recta. De igual manera, la representación del límite se estudia en calculo, sin embargo, identificar los limites correspondientes en un sistema físico resulta útil y beneficioso para el alumnado.
CONCLUSIONES
Se encontró que las soluciones analíticas son favorecidas en el primer año de educación superior, sin embargo, los estudiantes son capaces de asociar sistemas geométricos a cada una de estas soluciones.
Los estudiantes aun cuando ven conveniente el uso de este tipo de técnicas optan por el proceso analítico, pues tiende a ser menos laborioso. Pero con las actividades propuestas es notable que obtienen mayor certeza de los conceptos, cuando se les da una interpretación.
Es posible que aun cuando las soluciones del enfoque geométrico son hechas a un lado, se introduzcan métodos de resolución de problemas que impliquen esta perspectiva, ya que tienden a acercarse más a nuestra percepción del entorno, para un mejor proceso de enseñanza y aprendizaje de los conceptos de cinemática.
Reynoso Perez Karla Fernanda, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
BúSQUEDA DE INFORMACIóN EN DIFERENTES FUENTES ACERCA DE LA FíSICA DE DETECTORES DE PARTíCULAS.
BúSQUEDA DE INFORMACIóN EN DIFERENTES FUENTES ACERCA DE LA FíSICA DE DETECTORES DE PARTíCULAS.
Reynoso Perez Karla Fernanda, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Partículas a detectar
El mundo material que nos rodea esta compuesto de partículas estables (larga vida):Protón (p)Neutrón (n) (casi estable ya que tiene una vida media de ~ 15 min.) ( n → p e-ne )Neutrino (n)Electrón negativo (e-)Fotón (g) (la única partícula con masa cero ; energía = momento)Pero hay un riquísimo espectro de otras, elementales o no y que provienen: De la radiación cósmica y su interacción con la atmósfera ( muones (m) )De la radiactividad natural terrestre (por ejemplo, positrones (e+) ).•....de la fabricación a la carta en los aceleradores (por ejemplo, el antiprotón el J/Y, Z0, W0 y eventualmente el Higgs...) ...y de otras actividades ,como la fisión nuclear. Una clasificación adecuada es compleja y no se intentará aquí.Nuestra tarea es mostrar cómo detectarlas y asignarles un máximo de propiedades que ayuden al estudio de las leyes físicas.En la práctica, trataremos con p, p, n, n, e-, e+, m+, m-, K+, K-, g..ç
METODOLOGÍA
Clasificación de los detectores de partículas
Reconstrucción de las trayectorias (Tracking)- Detectores de vértice.- Tracking lejos del vértice de colisión. (Internal Tracking System, ITS),etc.,- Ionización y recolección.- Principio de la cámara de hilos. (Wire Chamber, WC)- La cámara proporcional multihilos. (Multi Wire Proportional Chamber, MWPC)- La cámara de deriva (Drift Chamber, DC)- Cámaras de proyección temporal. (Time Projection Chamber, TPC)Identificación de las particulas- Por la medida de pérdida de energía por unidad de longitud : dE/dx- Por el efecto CerenkovDetectores Cerenkov de umbral.Detectores Cerenkov diferenciales.- Detectores de tiempo de vuelo (Time Of Flight, TOF)- Detectores de Radiación de Transicion (TRD)- Calorímetros.Las avalanchas (showers)Calorímetros Electromagnéticos. (ElectroMagneticCALorimeters, EMCAL)Calorímetros Hadrónicos. (Hadronic Calorimeters , HCAL)- Detectores de luz.Plásticos de centelleo.El fotomultiplicador. (Photo Multiplier Tube, )Qué hacemos con los muones ?
Detectores de tracking
Hay que reconstruir las trayectorias en amplios volúmenes.
Estos pueden instrumentarse con:
Cámaras de hilo (Wire Chambers, WC)Cámaras multihilos proporcionales (MWPC)Cámaras de deriva. (Drift Chambers, DC)Cámaras de proyección temporal. (Time Proyection Chambers, TPC)
Ionización y recolección
Sea un recipiente lleno de gas entre dos electrodos planos entre los que se establece una diferencia de potencial.Una partícula cargada atraviesa el gas y deposita energía produciendo ionización a lo largo de la trayectoria.Los iones emigran hacia sus respectivos electrodos depositandosu carga que ́puede ser medida.
Detectores de luz
Detectores de centelleo-fotomultiplicadores.Son esenciales para la - Calorimetría - Triggers basados en la detección de luz (Double Chooz, ICARUS)- En los experimentos de radiación cósmica.
Detectores de radiación de transición
Transition Radiation Detector (TRD) de ALICE
La radiación de transición es emitida por una partícula cargada relativista que atraviesa una interfase con constantes dieléctricas distintas.
Destinado a la identificación de electrones de alta energía
CONCLUSIONES
En física de partículas experimental, un detector de partículas, también conocido como detector de radiación, es un dispositivo usado para rastrear e identificar partículas de alta energía, como las producidas por la desintegración radiactiva, la radiación cósmica o las reacciones en un acelerador de partículas.
Los detectores diseñados para los aceleradores modernos son enormes en tamaño y costo. El término «contador» se usa a menudo en lugar de «detector» cuando el dispositivo cuenta las partículas detectadas pero no determina su energía o ionización. Los detectores de partículas suelen poder también rastrear la radiación ionizante (fotones de alta energía o incluso luz visible). Si su finalidad principal es la medida de la radiación, se les llama detectores de radiación, pero como los fotones pueden verse también como partículas (sin masa), el término «detector de partículas» sigue siendo correcto.
Riaño Martínez Jaime Daniel, Instituto Tecnológico de Chilpancingo
Asesor:Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
MODELO DE RECUPERACIóN DE ESCURRIMIENTOS EFíMEROS EN ZONAS URBANAS. CASO BARRANCA LAS CALAVERAS.
Bautista Parra Giovanni, Instituto Tecnológico de Chilpancingo. González Mondragón Cesia Samantha, Instituto Tecnológico de Matamoros. Ponciano Calvo Karen Denisse, Instituto Tecnológico de Chilpancingo. Riaño Martínez Jaime Daniel, Instituto Tecnológico de Chilpancingo. Asesor: Mtro. José Espinosa Organista, Instituto Tecnológico de Chilpancingo
PLANTEAMIENTO DEL PROBLEMA
PLANTEAMIENTO DEL PROBLEMA DE INVESTIGACIÓN
El estado de Guerrero se ubica en el sur de la república mexicana, colinda al norte con los estados de México, Morelos y Puebla al sur con el océano pacífico, al este con Oaxaca y al oeste con Michoacán.
Tiene una extensión territorial de 63794 km2 y los tipos de relieve que más se encuentran son las montañas, las sierras y profundas barrancas esparcidas en 7 regiones: Costa Chica, Costa Grande, Acapulco, La Montaña, Tierra Caliente y la región Centro, las cuales tienen importantes ecosistemas como el acuático, que lo componen las aguas dulces y aguas saladas, y el terrestre que son los arrecifes, selvas y bosques.
La región centro cuenta con 13 municipios y en este proyecto de investigación nos vamos a enfocar en la cabecera municipal del estado, Chilpancingo.
Según los datos recabados por la coordinación general de protección civil de Chilpancingo, la ciudad se encuentra en una situación de riesgo debido a las 54 barrancas de las cuales 13 son consideradas de alto riesgo, 22 de riesgo moderado y 19 de riesgo bajo.
La barranca de Las Calaveras se ubica entre el fraccionamiento cumbres 2 y nuevo horizonte con una longitud aproximada de 593 m. dando inicio aguas arriba en el mercado central Baltazar R. Leyva Mancilla, atravesándolo y desembocando en la zona de la central de autobuses.
En temporadas de lluvia, el principal problema que se presenta es el arrastre de gran cantidad de sedimentos, cascajo y principalmente basura que las mismas personas arrojan a las calles, mismos que generan azolves en el sistema de drenaje y alcantarillado atascándolo y generando inundaciones, caos vial, brote de aguas negras y socavones en las principales avenidas que atraviesa la barranca.
La mancha urbana se ha ido esparciendo sobre estas zonas provocando que las personas vivan en condiciones de alta vulnerabilidad; aproximadamente 800 familias son las que habitan en zonas de alto riesgo en la capital invadiendo el cauce natural de la barranca, afectando la flora y fauna de ese sitio y alterando el ciclo hidrológico.
También los habitantes se arriesgan a que sus casas puedan derrumbarse debido a un socavón o la inestabilidad de las laderas en cada temporada de lluvias. A pesar que los elementos de protección civil realizan operativos y visitas a esas zonas para concientizar a las personas, unos no hacen caso al llamado argumentando que es el único patrimonio que les queda, por otra parte, algunos ciudadanos han hecho caso al llamado y han sido reubicados en el fraccionamiento Nuevo Mirador de esta ciudad.
METODOLOGÍA
METODOLOGÍA
La obtención de información de este proyecto se enfoca principalmente en dos métodos de investigación que son:
Investigación documental: análisis de estructura y contenido de información consignada en los documentos oficiales de organismos relacionados con el tema, así como trabajos académicos.
Analogía de la estructura y contenido de los documentos.
Síntesis de la información.
Investigación de campo:
Cuantificaciones en campo en el momento en que sea posible.
CONCLUSIONES
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la gestión del medio ambiente en la ciudad de Chilpancingo, mediante análisis y síntesis de información documental. A consecuencia de las condiciones de riesgo por la pandemia de COVID-19 no se desarrolló trabajo de campo.
El material azolvado producto del intemperismo de las rocas o suelos, son arrastrados por el proceso de erosión, el arrastre de este tipo de sedimentos puede llegar a afectar las obras civiles dentro de la barranca las calaveras por lo que es indispensable proponer algún mecanismo de control de azolves.
Esperamos que la información que recopilamos de los distintos autores, sea un fundamento que nos permita contribuir a la restauración de la barranca "Las Calaveras" con el fin de reducir los daños antrópicos producidos por los habitantes de Chilpancingo.
Rios Gutierrez Sebastian, Universidad Católica de Manizales
Asesor:Esp. Nixon Cueva Marquez, Colegio Integrado Nacional Oriente de Caldas
VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN COBERTURA DE GUADUA (GUADUA ANGUSTIFOLIA KUNTH) EN EL CTT DE LA GRANJA
VARIABILIDAD ESPACIAL DE PH Y MATERIA ORGÁNICA EN COBERTURA DE GUADUA (GUADUA ANGUSTIFOLIA KUNTH) EN EL CTT DE LA GRANJA
Rios Gutierrez Sebastian, Universidad Católica de Manizales. Asesor: Esp. Nixon Cueva Marquez, Colegio Integrado Nacional Oriente de Caldas
PLANTEAMIENTO DEL PROBLEMA
El suelo es un componente indispensable para los sistemas de producción, el cual está
compuesto por partículas de origen mineral y partículas sólidas formadas a partir de la
materia orgánica que sirven como fuente de nutrientes dependiendo de la
composición química, física y biológica de la cobertura. De este modo, el presente
trabajo permitirá la gestión, planificación y administración de manera eficiente del
recurso suelo en el CTT la Granja.
Los análisis del suelo implican, además, la determinación de carbono, ya que este
participa en promedio con el 48%, oxígeno (40 %) e hidrógeno (6-8 %) de la materia
orgánica. H.W. Fassbender (1993).
Georges Matheron fue un francés matemático y geólogo, conocido principalmente
por ser el fundador de la geoestadística y co- fundador de la morfología matemática
(1962); además es reconocido por la contribución en Kriging y la morfología
matemática. El estudio de fenómenos con correlaciones espaciales, por medio de
herramientas geo estadísticas surgió en la década de los años 70 con el objetivo de predecir y analizar variables en sitios que no han sido muestreados.
Teniendo en cuenta el objetivo número 15 de los ODS Gestionar sosteniblemente los bosques, luchar contra la desertificación, detener e invertir la degradación de las tierras y detener la pérdida de biodiversidad PNUD. (2020), se pretende realizar un aporte a nivel local que pueda ser escalable a nuevos contextos de la región rural del territorio del oriente de Caldas.
Basados en las cifras de las naciones unidas PNUD. (2020), alrededor de 1600 millones de personas en el mundo, dependen de los bosques para su sustento; en este conjunto están implícitos los culmos de guadua y los cientos de familias colombianas (y de otras regiones en donde esta especie se desarrolla). Lo cual, entrando en contexto, hace que sea necesario realizar el análisis de las propiedades del suelo para el desarrollo de la especie en estudio, teniendo en cuenta las principales características del suelo y la afectación que estas tienen directamente en la misma.
De igual manera, se ha demostrado que las propiedades fisicomecánicas y la cantidad de lignina presente en los culmos, son atributos que dependen de las condiciones propias del suelo, además que son estas características, condiciones requeridas en el mercado (Sánchez, 2019). Lo que significa que, para el agricultor, es necesario conocer estudios de este tipo, que le permitan obtener un producto de calidad que mejore sus ingresos y ayude al desarrollo de las comunidades con construcciones hechas en este elemento.
A lo cual puede atribuirse entonces, incidencias en los objetivos 8, 9 y 12 de los ODS:
Objetivo 8: Promover el crecimiento económico sostenido, inclusivo y sostenible, el empleo pleno y productivo y el trabajo decente para todos.
Objetivo 9: Construir infraestructuras resilientes, promover la industrialización inclusiva y sostenible y fomentar la innovación.
Objetivo 12: Garantizar modalidades de consumo y producción sostenibles. PNUD. (2020)
METODOLOGÍA
La metodología del presente estudio comprende tres etapas así: exploratoria, descriptiva y predictiva. Las actividades desarrolladas en la metodología fueron las siguientes.
Sobrevuelo de alta precisión a detalle sobre el CTT la granja, con el cual se apoyó la construcción de cartografía base.
Posteriormente, se realizó el muestreo del suelo, basados en los puntos de interés definidos mediante las herramientas cartográficas; este muestreo se realizó mediante el método Zopo; en el cual se definieron cuadrículas a 60 m de distancia y en las cuales, cada cuadrícula representó una unidad de muestreo para realizar un levantamiento total de 100 unidades con 900 submuestras.
La intensidad de muestreo fue de 21,2 % más que representativo para este tipo de estudio.
Una vez obtenidas las muestras, se realizó la construcción de mapas temáticos.
Por último, se realizó el análisis estadístico descriptivo de la información levantada a partir de geo estadística.
CONCLUSIONES
Las conclusiones por ahora no se manifiesta por cuanto el estudio está en marcha. Sin embargo.
La cobertura de guadua presenta los valores más bajos de pH y materia orgánica de todas las coberturas estudiadas; estos valores (principalmente los de materia orgánica) son atípicos teniendo en cuenta las referencias estudiadas, no obstante, esto puede deberse a la profundidad de excavación y a los procesos naturales y antrópicos desarrollados en años anteriores durante el crecimiento del guadual. De igual manera, los valores de pH están en un rango que no afecta negativamente el desarrollo de la planta.
Siendo entonces una zona que permite el crecimiento del rizoma pero que posee alteraciones muy pronunciadas en las zonas circundantes al guadual, lo cual puede ser un factor limitante en su crecimiento más allá de la zona ya dominada, pero podría ser un factor facilitador para la expansión de otras especies presentes en la zona.
El documento servirá de base para nuevos estudios a nivel de producción rural en la cuenca media baja del municipio de Pensilvania, Caldas. Así mismo, servirá para aquellas regiones con condiciones similares en su clasificación de zona de vida.
La experiencia en el verano investigativo, fomentó la capacidad crítica de quienes participamos en este proyecto, aumento nuestro enfoque profesional y enriqueció diversas áreas del conocimiento que eran totalmente desconocidas. Así mismo, nos dio herramientas importantes entender el contexto rural de la actividad forestal en la región.
Rivero Díaz Diana Marlene, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
EVALUACIóN DEL CAUDAL DE PLAYA ESMERALDA UBICADA AL NORTE DEL MUNICIPIO DE SOLIDARIDAD, QUINTANA ROO
EVALUACIóN DEL CAUDAL DE PLAYA ESMERALDA UBICADA AL NORTE DEL MUNICIPIO DE SOLIDARIDAD, QUINTANA ROO
Couoh Gomez Maria Alondra, Consejo Quintanarroense de Ciencia y Tecnología. Rivero Díaz Diana Marlene, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En muchos de los casos cuando se realiza un proyecto se evalúa la zona de estudio, sin embargo no en todas las situaciones se hace una investigación exhaustiva que examine hasta qué punto se puede confiar en que una fuente sea utilizable durante un período de varios años. Por ello la falta de información hidrológica que deriva del desinterés y dado que playa del carmen se encuentra entre las zonas turísticas más importantes del país, es de fundamental importancia realizar una caracterización del sitio de la playa punta esmeralda por posible afectación del medio proveniente de actividades antropogénicas.
METODOLOGÍA
Material y equipo
Correntómetro
Varillas de madera
cronómetro
Multiparamétrico
CTD
Procedimiento
Identificación y delimitación del área de estudio
Se realizó visita del lugar para delimitar la zona de estudio e identificar las nacientes con mayor flujo a lo largo de la extensión del canal, ya que esta tiene una salida al mar , misma en la que se puede apreciar la pluma de descarga entre la mezcla de agua dulce proveniente del cenote y el agua de mar con altos niveles de salinidad.
La zona de estudio cuenta con 2,351 m2 y el largo del canal mide 72m2
Ubicación de los transectos
Durante el periodo de un mes se dividió el canal en dos transectos a lo largo del canal y estos a su vez en segmentos de 50 centímetros , de tal manera que permitiera la medición del caudal.
El transecto denominado Entrada B se ubicaba a 30 m de la salida al mar.
El transecto denominado Azul marino se encontraba a 15 metros aproximadamente de la salida al mar dado que se consideró con mayor velocidad por lo angosto del área transversal.
Mediciones del caudal
Se colocó el correntómetro en las secciones de 50 centímetros posicionado en contra del flujo para poder tener una lectura lo más certera posible.
Se tomó nota de las vueltas que realizaba el correntómetro en un periodo de 40 segundos. Lo anterior se repitió en cada segmento a lo largo de cada transecto.
Mediciones de CTD
Las mediciones que se realizaron con el CTD fueron para obtener especialmente datos de salinidad con respecto a la profundidad , por lo que estos datos se tomaron aproximadamente en el mismo horario que se hacían las mediciones del caudal para saber cómo variaba con respecto al flujo volumétrico.
Se tomaron mediciones de salinidad en el cenote, en las nacientes con mayor flujo, a lo largo del canal y en el mar a un radio de 15 metros.
Mediciones de pH
Por otro lado, las mediciones de pH de igual manera se realizaron a lo largo del canal, en el cenote principal , en las nacientes y en el mar con un radio de 15 metros , se realizó una toma.
Los resultados en cuestión de la salinidad a pesar de que resultaron ser los datos que se esperaban por la combinación entre el agua salada y el agua dulce, se reafirmó que conforme la distancia era mayor y más cercana al mar los valores de salinidad aumentaban, sin embargo dentro del mar se identificaron ojos de agua que tienen conexión con los cenotes del área , por lo tanto al introducir el CTD se observó cómo descendían estos valores notablemente con la profundidad.
CONCLUSIONES
A lo largo del verano en la modalidad estancia virtual se logró adquirir conocimientos teóricos - prácticos por lo que se llevaron a cabo estudios de caracterización en Playa Esmeralda ubicada al norte de la ciudad de Playa del Carmen como la del caudal, pH, batimetría, por lo que en este sitio no se habían realizados estudios previos. No obstante, la actividad antropogénica tales como las actividades de recreación por la alta afluencia turística afectan considerablemente en los datos del caudal, ya que la velocidad es una de los principales parámetros físicas que presenta mayor variabilidad. Sin embargo, los estudios se realizaron en Julio y Agosto por ello al ser un proyecto extenso se requiere como mínimo 6 meses para poder demostrar el comportamiento del canal a lo largo de las estaciones del año.
Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional
Asesor:Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
EVALUACIóN MUNDIAL DE APPS PARA GESTIóN DE PLAYAS.
Alcantar García Cristian Alexis, Instituto Politécnico Nacional. Garcia Peralta Jacqueline, Instituto Politécnico Nacional. Keb Méndez Adrián Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Prado Eustaquio Sayuri, Instituto Politécnico Nacional. Rodríguez Hernández Araceli Noemi, Instituto Politécnico Nacional. Asesor: Dra. Maria Elena Gonzalez Ruelas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Este es un proyecto multidisciplinario donde colaboran alumnos del Programa DELFIN México (nodo C-51) y estudiantes de diferentes países y nodos de la REDPROPLAYAS (http://www.proplayas.org/), para lograr resultados más integradores.
A pesar de que hay gran cantidad de aplicaciones relacionadas con la playa en las plataformas móviles más comunes, al usuario le genera confusión saber cuáles de ellas realmente le serían útiles para su uso específico. A los investigadores, se les complica también saber cuáles de ellas pueden servir para la gestión de playas porque no están clasificadas.
Esto genera la siguiente incógnita:
¿Qué aplicaciones son las que existen en cada categoría relacionadas con la playa y cuáles de ellas son recomendadas para un uso práctico, que estén disponibles en plataformas móviles, y cómo pueden ser IOS y Android, y que estén relacionadas para
gestión de playas?
Por lo que este trabajo servirá para identificar una mayor cantidad de aplicaciones y hacer una clasificación de éstas y así facilitar tanto a los usuarios para su uso recreativo como a los investigadores como objeto de análisis para gestión de playas; además de ayudar a los desarrolladores de apps a identificar cuáles son los puntos fuertes y débiles generales de cada aplicación.
Por lo que los objetivos de la investigación son los siguientes:
Identificar la mayor cantidad de apps relacionadas con la playa y categorizarlas según su uso y/o contenido.
Probar cada aplicación para así obtener un análisis particular y general de todas las aplicaciones, que contenga principalmente; utilidad, calidad, disponibilidad, así como fortalezas y debilidades.
Analizar las funcionalidades de las apps registradas en un marco de gestión y certificación de playas.
METODOLOGÍA
Se muestra a detalle el proceso de obtención y análisis de datos, el tipo de investigación, instrumento de evaluación y la base del análisis de los datos.
Obtención de datos:
Se realizaron equipos de trabajo que se encargaron de buscar en las plataformas móviles todas las aplicaciones que estuvieran relacionadas con las playas, elaborando un listado de todas ellas y de igual manera se dividió equitativamente a cada uno de los participantes para su descarga y evaluación. Se adquiere la mayor cantidad de datos posible desde la plataforma en la que se encuentra la app, como: desarrollador, descripción, número de descargas, etc. Cuando el integrante haya completado la
obtención de datos cuantitativos procede a probar la app agregando datos cualitativos en la ficha de registro, como: interacción con el usuario, fortalezas y debilidades.
Tipo de investigación:
El enfoque de esta investigación es cuantitativo, ya que lo importante es generar resultados. Según Pita Fernández, S., Pértegas Díaz, S.(2002) La investigación cuantitativa trata de determinar la fuerza de asociación o correlación entre variables, la
generalización y objetivación de los resultados a través de una muestra para hacer inferencia a una población de la cual toda muestra procede. Tras el estudio de la asociación o correlación pretende, a su vez, hacer inferencia causal que explique por qué
las cosas suceden o no de una forma determinada.
Instrumento de evaluación:
La actividad en la cual se obtuvieron resultados se fundamentó en la elaboración de fichas técnicas donde se establecieron características o atributos que serían evaluados; como: la
fecha de creación, el país de origen, categoría, número de descargas, puntuación/calificación, plataforma, etc. Al integrar dichos datos se realizó una evaluación del uso de cada aplicación, valorando según sus fortalezas y deficiencias y al final proporcionar una retroalimentación mencionando sus puntos débiles en cada una de ellas, y propuestas para mejorarla.
Análisis de datos:
Una vez aplicado el instrumento de evaluación, se realizarán gráficos y se presentarán los resultados de cada nodo en un webinar a nivel internacional donde participarán estudiantes e investigadores de varios países.
Para realizarlo se elaborarán herramientas visuales para interpretar los datos que se presentarán como: mapas donde se colocarán la ubicación del país de origen de cada aplicación, crear una gráfica de barras u otras para hacer el conteo de la plataforma que maneja más apps relacionadas a la playa, el país que desarrolla más apps, un ranking de apps más descargadas y su calificación, el porcentaje de aplicaciones gratuitas, así como la cobertura que hay en distintos países. También identificar cuáles van dirigidas a mejorar/apoyar la gestión de playas.
CONCLUSIONES
Los resultados integrales que se esperan del nodo C-51 es un libro de Excel que contenga las fichas de todas las posibles apps identificadas, un análisis general de las categorías de las apps registradas y una presentación que posteriormente será expuesta
en un Webinar internacional ante toda la red de Proplayas para entregar resultados.
Los resultados parciales que lleva hasta el momento el nodo C-51 es un libro de Excel con alrededor de 40 apps registradas junto con una parte mayoritaria del análisis de las categorías de las aplicaciones mencionadas. Por ahora se está trabajando en la
conclusión del análisis y en la presentación para el Webinar.
Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
SIMULACIóN DE DETECTOR DE PARTíCULAS USANDO FAIRROOT Y GEANT
Bojórquez Vega Leslie Maribel, Universidad de Sonora. Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla. Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Una de las más grandes interrogantes de la humanidad es el origen del universo. De los primeros en dar una respuesta a ello fue Demócrito (siglo V a.C.), él expresó la idea de que toda la materia estaba formada por muchas partículas pequeñas e indivisibles. En su teoría, el universo estaba conformado por átomos y vacío. Al paso del tiempo, en 1804, Dalton interpreta que los átomos son indivisibles, pero distintos para cada elemento químico. A partir de entonces se empezó a poner más atención a la composición del universo, llegando con el tiempo la creación de la tabla periódica, rayos x y muchos experimentos que fueron remodelando la idea que tenía demócrito, descubriéndose así partículas más elementales y llegar al Modelo Estándar de Partículas, este describe a las partículas subatómicas, sus propiedades, y sus interacciones. El Modelo Estándar es en la actualidad la referencia en física de altas energías para la observación y medición de nuevas partículas, sin embargo se considera posible la existencia de partículas más allá de este modelo, las cuales pueden dar respuesta a predicciones teóricas no observadas y fenómenos no explicados por el Modelo Estándar, cuyo entendimiento y estudio yace en nuevas teorías. Un ejemplo de estos fenómenos no explicados son: La gravedad cuántica, la materia y energía oscura, la masa del neutrino, la simetría materia-antimateria entre otros. Algunas de estas teorías Más Allá del Modelo Estándar son los modelos de supersimetría, teoría de la Gran Unificación, Gravedad Cuántica de Bucles, Teoría M y modelos de cuerdas. Para comprobar estas teorías, se necesitan construir nuevos laboratorios como el Futuro Colisionador Circular (FCC). Sin embargo, los costos de construcción de nuevos laboratorios son muy grandes y el tiempo de desarrollo de estos es largo, es por eso que se hace uso de herramientas de simulación para determinar con exactitud la arquitectura y diseño de nuevos detectores capaces de medir observables y así confirmar la existencia de nueva física. En las primeras semanas de la estancia, nos centramos en la parte teórica de la física de partículas y altas energías adentrándonos en temas como: Antecedentes históricos, introducción a física de partículas y altas energías, aceleradores y detectores de partículas, obtención y procesamiento de datos obtenidos. También se realizó una introducción a temas en el área de la física de partículas y altas energías de particular interés en años posteriores; nuevos colisionadores, necesidades de desarrollo tecnológico etc. Una vez que se comenzó a aterrizar en estos temas, se formaron equipos que empezaron a trabajar en simuladores de aceleradores, detectores, observables, etc.
METODOLOGÍA
Nuestro equipo participa en la simulación de detectores de partículas para lo cual se usaron recursos virtuales como el sistema operativo Ubuntu. Se instalaron programas como Geant, Root, Fairsoft y Fairroot. Previo a su instalación, se descargaron e instalaron todas las dependencias y librerías necesarias, se otorgaron permisos, se aplicaron parches y se definieron variables de entorno. El asesor brindó ayuda técnica durante el proceso y se hizo uso de plataformas de asesoría en foros del CERN, documentación sobre ROOT, y páginas oficiales del software para resolver problemas de instalación. Después, se procedió a correr ROOT y ejecutar el Tutorial 1, consistente en implementar un detector simple de partículas usando una interfaz ASCII y generar 10 eventos de piones usando Geant3. Usando el navegador implementado en ROOT, se estudió la estructura de los archivos .root. Estos archivos preservan no solo la información de la simulación, sino también la semilla con la que se genera la simulación por métodos Monte Carlo, la geometría del detector, las observables físicas de las partículas como lo son masa, energía, número de eventos, momento en los distintos ejes coordenados, los encabezados de la simulación, y más importante aún, se preserva la estructura del archivo en forma de árbol, para así poder estudiar la información sin necesidad de implementar o establecer de nuevo los programas, así como de acceder a la información de manera eficiente. Se procede a modificar el tutorial 1, cambiando el número de eventos, esta vez usando Geant4. Se analizan los distintos cambios entre las dos versiones de Geant y se crea un macro para leer la información. El tutorial 2 consiste en la simulación de un detector simple, leer los datos de la simulación, parámetros de digitalización y crear los datos digitalizados. Posteriormente se estudian estos datos, y se modifica el tutorial aumentando el número de eventos, y se usa Geant4. Finalmente, el tutorial 4 usa la geometría de ROOT como entrada de datos para un detector, esta se guarda en un .root desde un macro y es leído por las clases del detector desde el simulador.
CONCLUSIONES
ROOT es una versátil herramienta para simulaciones, así como preservar la estructura de experimentos en forma de árbol, visualizarla y modificarla fácilmente a través de su interfaz, o crear macros para leer información de nuestro experimento. Sin embargo, para manipular este y otros software se debe tener experiencia en lenguajes de programación como C y C++, así como de la estructura de los archivos .root y su sintaxis; y también sobre manejo de linux para la interpretación de problemas y errores que se presentan en la descarga e instalación de programas. Se seguirá trabajando en el desarrollo del plástico centellador capaz de detectar partículas, pues se necesitan buenos conocimientos en los lenguajes de programación mencionados anteriormente. La versatilidad de esta herramienta es útil para el diseño de nuevos detectores, así como mejoras y optimizaciones en los modelos de partículas existentes. Esto es de utilidad para predecir teóricamente la existencia de nueva física de partículas, que puede ser corroborada en un futuro por los nuevos laboratorios en construcción.
Rodriguez Ramirez Karla Sharai, Universidad Autónoma de Baja California
Asesor:Dra. Ma. Isabel Hernández X, Centro de Investigación en Matemáticas (CONACYT)
GRUPOS DE SIMETRíA
GRUPOS DE SIMETRíA
Rodriguez Ramirez Karla Sharai, Universidad Autónoma de Baja California. Asesor: Dra. Ma. Isabel Hernández X, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Los grupos son herramientas matemáticas muy importantes para la física. En particular el grupo de Lorentz tiene importantes aplicaciones en problemas relativistas; uno es la condición de invarianza de la norma del vector espacio-temporal de cuatro dimensiones definifo para el espacio de Minkowski.
Durante este curso se planea revisar el capitulo 1 del libro Introducción a la geometría de los grupos de Lie, donde si incluyen los temas de grupos y homeomorfismos, acciones de grupos, isotropías, formas bilineales, formas sesquilineales, grupos clásicos del plano, etc. se pretende, además, investigar sobre las aplicaciones que hay en la física.
El curso está planeado para siete semanas e incluye una participación en el verano de CIMAT Mérida 2020.
METODOLOGÍA
En la primera semana se dió la definición de grupo y grupo abeliano; se vieron algunos ejemplos tales como los números enteros con operación la suma; los números reales con operación la suma; los números reales con operación la multiplicación, etc. también se definió al grupo ortogonal, especial lineal y lineal general, además se demostró que, en efecto, estos son grupos. Asimismo, se introdujo el concepto de simetría por sí solo para después mostrar la relación entre esta y grupos. Por último se vio la definición de homomorfismo y se vieron algunos ejemplos.
En la segunda semana se repasaron conceptos del álgebra lineal (e.g espacios vectoriales, transformaciones lineales, independencia lineal, bases, matrices asociadas a transformaciones lineales). Estos vinieron acompañados de ejemplos. También se abordaron las formas bilineales simétricas y antisimétricas haciendo uso de definiciones formales y ejemplos.
Durante la tercera semana del verano asistí a la escuela de verano CIMAT Mérida 2020. En esta escuela tomé los cursos de Una visión local de los grupos finitos y La música de las esferas: una introducción al análisis de Fourier a cargo del Dr. Jose María Cantarero López y el Dr. Matthew Glenn Dawson, respectivamente. También asistí a la conferencia de El lenguaje de las matemáticas impartida por el Dr. Raúl Rojas.
En la cuarta semana se cubrieron las definiciones de acciones de grupos (izquierda y derecha) y órbitas; para esto último fue necesario un breve repaso de relaciones de equivalencia.
En la quinta semana se introdujo al grupo de isotropía, a las formas canónicas de las formas bilineales (simétrica y antisimétrica) y los grupos de simetría en el plano; grupo ortogonal, grupo de Lorentz y grupo simpléctico, junto con sus representaciones topológicas.
En las sesiones de la sexta semana se introdujeron los conceptos de formas sesquilineales y formas canónicas Hermitianas, esto con el fin de construir a los grupos unitarios en el plano complejo. También se hizo una revisión de la topología de estos grupos.
Por último, en la séptima semana se trabajó en el resumen y en la revisión de aplicaciones del grupo de Lorentz en la física, en particular en el área de relatividad especial.
CONCLUSIONES
El curso fue llevado a cabo de manera grata y se cumplieron los objetivos planteados al principio del verano. Además ofreción nuevas perspectivas que seguramente serán de gran utilidad en la comprensión de varios problemas físicos.
Rosas Pinzón Manuel, Universidad Autónoma de Guerrero
Asesor:Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
EL CAMPO DE LOS NúMEROS P-áDICOS
EL CAMPO DE LOS NúMEROS P-áDICOS
Rosas Pinzón Manuel, Universidad Autónoma de Guerrero. Asesor: Dr. Edwin León Cardenal, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El campo de los números racionales Q no es completo. Es decir, existen sucesiones de Cauchy de números racionales que no convergen a un número racional, entonces desarrollaremos nuestro trabajo empezando con los enteros s-ádicos hasta llegar al conjunto Qs y después con Qp el cuerpo de los números p-ádicos que es la completación de respecto a la norma p-ádica.
METODOLOGÍA
Como primer tema estudiamos la definición de congruencias en Z así como también algunas de las propiedades y relaciones de equivalencia en los enteros.
Para nuestro tema posterior incluimos las definiciones de anillo con unidad y campo; y analizamos las propiedades a cumplir y algunos ejemplos, incluyendo la definición del conjunto de unidades U(R) de un anillo R. Siguiendo con nuestro trabajo nos centramos en el tema de los desarrollos s-ádicos, es decir, dado un número natural podemos representarlo en cualquier base s>1 o, dicho de otra forma: Sea s en N, s>1, para todo n en N, existe una expresión polinomial en s, llamado el desarrollo s-ádico de n, y además es único.
Después analizamos como es que se realizan las operaciones: suma, resta, multiplicación y división con los desarrollos s-ádicos y al finalizar con este tema se resolvieron unos ejercicios y se probó que los desarrollos s-ádicos pueden efectuarse para valores s<0.
Dado que ya podemos representar un número natural en su desarrollo s-ádico para s<0 y s>0 ahora se extiende el desarrollo s-ádico para los enteros negativos y se hace formal que el desarrollo s-ádico de un entero negativo es infinito. Además, con la ayuda de un lema que dice: Si (atat-1...a1a0)s es el desarrollo en base s de un número entero positivo a, entonces el desarrollo de -a está dada por: (...(s-1)(s-1)[(s-1)-at][(s-1)-at-1]...[(s-1)-a1](s-a0))s. Como consecuencia tenemos el siguiente conjunto de todas las sucesiones cuyos coeficientes son enteros positivos menores que s: Zs={(...a3a2a1a0)|0<=ai<s} el anillo de enteros s-ádicos. Así, N es subconjunto de Z y Z es subconjunto de Zs y como sabemos los naturales están representados en Zs como las sucesiones que tienen sólo finitas cifras no nulas y Zs es un anillo conmutativo.
Analizamos también el proceso de como determinar los inversos multiplicativos de los elementos de Zs, es decir las unidades del anillo Zs y la condición para que estos existan (si la primera entrada es nula no tiene inverso), dicho de otra forma: U(Zs)={(...a3a2a1a0) en Zs|(a0,s)=1} y por una observación se deduce que no todo elemento de Zs tiene inverso, entonces se tiene que construir un cuerpo que contenga a Zs introduciendo el resto de los inversos.
Una vez introducidas los inversos de las potencias de s y además tomando la convención de admitir infinitas cifras a la izquierda y finitas a la derecha después de la coma y también podemos seguir operando de la misma forma con las operaciones que se mencionaron anteriormente. Entonces se tiene el siguiente conjunto Qs={(...a3a2a1a0,a-1...a-t)|0<=ai<s y a-t es no cero} lo llamamos el anillo de los números racionales s-ádicos. Por lo tanto, se obtiene que: N es subconjunto de Z, Z es subconjunto de Zs y Zs es subconjunto de Qs y además el conjunto Qs es un anillo conmutativo. Dado que, si para la primera cifra es nula de un entero s-ádico no tiene inverso, entonces, para la prueba del siguiente lema nos dice que para cualquier entero s-ádico si su primera cifra es nula se prueba que se puede calcular su inversa.
Lema: Todo entero s-ádico cuya primera cifra no nula es coprima con s tiene inverso en Qs. En particular; Qs es un cuerpo si y sólo si s es primo.
Como consecuencia de lo mencionado entonces ahora llegamos a Qp con p primo, el cuerpo de los números p-ádicos. Enseguida se trabajó en la representación de un numero racional en su desarrollo s-ádico.
En base a todo lo ya mencionado, también se trabajó con las definiciones de distancias y normas y sus respectivas condiciones, así como también sobre una norma no arquimedeana y resolviendo unos ejercicios utilizando lo anterior. Después se analizó el orden p-ádico y algunos ejemplos incluyendo algunas propiedades y enseguida se definió la norma p-ádica de cualquier elemento de Q. Para la demostración del teorema de Ostrowski se utilizó lo relacionado a las normas y distancias, así como también la definición de una sucesión de Cauchy.
Finalmente concluimos con la completación de Q. Dado que no toda sucesión de Cauchy converge a Q, entonces para construir completaciones de Q se utilizó el método de Cantor, pero las siguientes definiciones fueron fundamentales:
Definición. Sea K un cuerpo y ||•|| una norma en K. Decimos que una sucesión {an}n en N es convergente a un elemento de a en K si para todo número real c>0 existe N en N tal que ||an-a||<c para todo n>=N.
Definición. Un cuerpo K se dice completo con respecto a una norma ||•|| sí toda sucesión de Cauchy en K es convergente con respecto a la norma ||•||.
Ahora bien, una vez que se completó Q se analizó la demostración del siguiente teorema:
Teorema. Dado un cuerpo K con una norma ||•||, existe un cuerpo K´, único salvo congruencia, llamado la completación de K, tal que K´ es completo respecto a la norma inducida por la norma ||•|| y K es denso en K´.
Con lo anterior se llega a la definición: La completación del cuerpo de los números racionales Q con respecto a la norma p-ádica se denomina el cuerpo de los números p-ádicos y se denota por Qp.
CONCLUSIONES
En el transcurso del verano de investigación se lograron comprender las definiciones, teoremas, lemas y observaciones de nuestro contenido, con la ayuda de algunos ejemplos y resolviendo los ejercicios propuestos como un extra y además con la elaboración de algunos ejemplos como material de apoyo se pudieron entender los temas establecidos, pero, dado que nuestra investigación era más amplia y profunda, nos quedamos solamente con la base, el cuerpo de los números p-ádicos sobre el teorema del Lema de Hansel que es sumamente interesante para el estudio de la solución de ecuaciones polinómicas en el universo p-ádico.
Ruiz Jimenez Jairo Ismael, Instituto Tecnológico del Valle de Morelia
Asesor:Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
DINáMICA DE MEZCLA EN EL EMBALSE URRá, CóRDOBA-COLOMBIA (PERíODO 2000 – 2016)
FASE 1: CREACIóN DE BASE DE DATOS
Cruz Sánchez Beatriz Isabel, Benemérita Universidad Autónoma de Puebla. Nandi Tule Pedro Daniel, Universidad Autónoma de Guerrero. Ruiz Jimenez Jairo Ismael, Instituto Tecnológico del Valle de Morelia. Asesor: Post-doc Tomás Ramón Florville Alejandre, Universidad Pontificia Bolivariana
PLANTEAMIENTO DEL PROBLEMA
La necesidad de comprender en forma integral el comportamento de los lagos asociada al acelerado desarrollo de tecnología automatizada para la medida simultánea de múltiples variables ambientales, genera gran cantidad de datos que deben manejarse y analizarse. Este es el caso del embalse Urrá (Córdoba-Colombia), donde su monitoreo en tres puntos a diferentes profundidades, a lo largo de 20 años ha generado una gran cantidad de información que requiere ser analizada, validada y depurada con la finalidad de extraer de ella el máximo beneficio posible y evitar la toma de decisiones equivocadas por su uso sin el tratamiento adecuado. En este contexto, en el XXV Verano de la Investigación Científica y Tecnológica del Pacífico 2020, realizada en la Universidad Pontificia Bolivariana-Seccional Montería, se buscó generar una base de datos útil para el modelamiento de la dinámica de mezcla a largo plazo correspondiente al período 2000 -2016 en el embalse Urrá, Córdoba-Colombia, a partir de información medida en campo.
METODOLOGÍA
Se realizó el reconocimiento de la estructura y contenido de la base de datos original. Ella estuvo constituida por información medida en campo para la calidad del agua del embalse Urrá en el período 2000-2016. Las variables incluidas fueron: fecha y hora de muestreo, profundidad, pH, temperatura y oxígeno disuelto. A partir de ella se generó una base de datos intermedia reducida, en la que se contempló un sólo día de muestreo mensual. El día y hora de muestreo seleccionado para la creación de esta base de datos reducida fue aquél en el que se observó la menor carencia de información. Con base en ella se construyeron gráficos de dispersión -variable de campo versus tiempo-. Ellos se analizaron visualmente para detectar valores extremos o fuera de rango. Los datos erróneos se corrigieron por imputación del valor medio del parámetro correspondiente a la variable y profundidad de medida. Se construyeron mapas de distribución espacio-temporal en la vertical para la temperatura. Ellos se analizaron para determinar la dinámica de mezcla.
CONCLUSIONES
El día y hora seleccionada para crear la base de datos reducida fueron los siguientes: 8:00 a.m., o la hora más cercana a ella; y día 6 de cada mes, o el más cercano a él. Se encontraron pocos valores extremos o fuera de rango en esta base de datos. En términos generales, los mapas de distribución espacio-temporal revelan una termoclina permanente. Ella se ubica a profundidades entre 3.5 m y 7.5 m. A profundidades mayores el agua al interior del embalse parece mezclarse por períodos de tiempo aproximados de de dos meses. El trabajo desarrollado permitió generar una base de datos reducida con defectos no perceptibles en mapas de distribución espacio-temporal. Ello hace suponer que una depuración más refinada de esta base de datos podría utilizarse en el modelamiento matemático de la dinámica de mezcla a largo plazo del embalse Urrá, Córdoba-Colombia.
Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México
Asesor:Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
ANáLISIS DE DATOS SíSMICOS PARA ESTUDIOS DE MICROZONIFICACIóN
ANáLISIS DE DATOS SíSMICOS PARA ESTUDIOS DE MICROZONIFICACIóN
Saavedra Jaimes Cindy Mireya, Universidad Autónoma del Estado de México. Asesor: Dr. Christian Rene Escudero Ayala, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La microzonificación sísmica representa una herramienta para la evaluación de riesgos en el uso de suelo, diseño de edificios o estructuras y para la planificación de emergencias.
Tiene el propósito de identificar condiciones locales que pueden alterar el movimiento sísmico esperado o causar deformaciones permanentes importantes en edificios, estructuras e infraestructuras.
Proporciona una base de conocimiento de los riesgos sísmicos locales en diferentes zonas y permite establecer jerarquías de riesgos que pueden usarse para planificar medidas de mitigación.
METODOLOGÍA
Se seleccionar sismogramas registrados en Puerto Vallarta - Bahía de Banderas en diferentes puntos que se encuentren en regiones con diferentes tipos de suelo y utilizando el programa GEOPSY, Se debió obtener los espectros de frecuencia de los tres componentes y con eso, obtener las imágenes de los espectros y compararlos entre sí.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la microzonificación sísmica y conocimientos teóricos sobre el uso del programa GEOPSY, obtuviendo el espectro y H/V de las estaciones.
Salazar Ramos Manuel Alejandro, Universidad de Guadalajara
Asesor:Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
RESOLUCIóN DE ECUACIONES DE MOVIMIENTO
RESOLUCIóN DE ECUACIONES DE MOVIMIENTO
Salazar Ramos Manuel Alejandro, Universidad de Guadalajara. Asesor: Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
La física de partículas basa parte de su aparato matemático en las ideas generadas en la mecánica clásica, en especial en la formulación Hamiltoniana.
Dado el gran peso que tienen estas ideas en la física más avanzada, es de suma importancia el poder comprender estas herramientas matemáticas para su posterior aplicación a problemas reales.
Las ecuaciones de movimiento nos permiten comprender la evolución de los sistemas físicos en el tiempo, permitiendonos predecir sus estados futuros y pasados.
En la mecánica cuántica se continuan utilizando algunas ideas fundamentales generadas por la física clásica, por lo que es de gran importania su domino si se desea resolver problemas en el dominio de la física de partículas.
Así que se planteó el desarrollo teórico de estos modelos para poder resolver y obtener ecuaciones de movimiento de osciladores armónicos, de esta forma estos resultados pueden ser llevados a sistemas cuánticos y permitirnos de esta forma, comprender el comportamiento de objetos muy diminutos.
METODOLOGÍA
Dadas las condiciones de pandemia en las que nos encontramos en estos momentos se decidió por una revisión semanal virtual de los avances en el tema.
Para tal propósito se brindo el libro de "Classical Mechanics" de John R. Taylor, en este libro se exploró la teoría de las fomrmulaciones Hamiltoninanas y Lagrangianas para un sistema de Oscilador Armónico Simple.
Mediante la resolución de ecuaciones diferenciales se procedió a examinar de una forma más general las leyes de movimiento clásico en las formulaciones porpuestas por Lagrange y Hamilton y observar cuales aun eran válidas en otras áreas de la física moderna.
De estas formulaciones nos enfocamos en el uso y obtención del Hamiltoniano y Lagrangiano del sistema, pues estos elementos son transladados a la física de particulas y son de alta importancia.
CONCLUSIONES
Mediante el apoyo de la investigadora se logró comprender de una forma más aplicable los conocimientos matemáticos vistos en clase, de esta forma se generó una exposición a problemas reales que se enfrentan en las investigaciones en el área de ciencias básicas.
Además de la solidificación y expansión del conocimiento, se logró despertar un interes más grande por esta área de la física, gracias al cambio de visión proporcionado por la investigadora.
Salazar Villanueva Lissett Barucha, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla
OPTIMIZACIóN GEOMéTRICA DE LA HISTIDINA: UN ANáLISIS POR MEDIO DE MECáNICA MOLECULAR.
OPTIMIZACIóN GEOMéTRICA DE LA HISTIDINA: UN ANáLISIS POR MEDIO DE MECáNICA MOLECULAR.
Salazar Villanueva Lissett Barucha, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Martín Salazar Villanueva, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La histidina es un aminoácido esencial que no puede ser sintetizada por el cuerpo humano así que debe ser ingerida en la dieta. Es uno de los 20 aminoácidos que forman parte de las proteínas codificadas genéticamente. La histidina por la enzima descarboxilasa se convierte en histamina que es una sustancia fisiológica muy importante en el ser humano que se encarga de ser una vasodilatadora y es está involucrado en reacciones alérgicas, como urticaria e inflamación.
Esta sustancia al ser convertida en histamina es muy importante en usos terapéuticos debido a que es utilizada en tratamientos de artritis reumatoide, enfermedades alérgicas, ulceras y anemia, se utiliza para la desintoxicación de metales pesados, mejora el funcionamiento del sistema inmunológico y es necesaria para la producción tanto de glóbulos rojos como blancos en la sangre, protege al organismo de la radiación y reduce la presión arterial. Debido a esto es muy importante el conocer molecularmente más a fondo esta sustancia para la comprensión completa de la misma.
METODOLOGÍA
Principalmente se utilizó el programa Forcite Tools para la observación molecular de la sustancia e interacción con otra sustancia, pero para comprender como se utiliza el programa tuvimos que leer previamente 3 lecturas que se dividieron por semana que fueron:
Mecánica molecular y campos de fuerza
Clasificación de materiales
Código comercial Forcite Tools
Después se optimizo la molécula de la sustancia e hicimos tablas y guardamos imágenes en las cuales pudimos observar que campo de fuerza se adaptaba más a la observación e investigación de nuestra sustancia.
Al final hicimos una reacción con otra sustancia la cual fue Oxido de Zinc, para esto depositamos histidina en una capa de Óxido de Zinc y se pudo observar que la histidina lo absorbió. Y con esto pudimos comprobar que satisfactoriamente se puede depositar en una superficie incompatible.
CONCLUSIONES
Se establecieron los principios de la mecánica molecular para predecir nuevos compuestos y aleaciones de materiales tanto orgánicos como inorgánicos. El modelado computacional puede aplicarse en generación de nuevos los fármacos, que son de interés por la formación que tengo. Por otro lado, durante la estancia virtual de verano, se lograron reforzar conceptos previos y adquirir nuevos acerca de otra carrera y correlacionar ambos conocimientos para lograr un conocimiento más completo, se espera poder poner a prueba lo aprendido en un futuro no muy lejano específicamente en el transcurso de mi carrera.
Salmeron Lopez Brandon Carlos, Instituto Politécnico Nacional
Asesor:Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
LA INCIDENCIA DEL PENSAMIENTO VISUAL EN LA RESOLUCIÓN DE LA PROBLEMAS MATEMÁTICOS.
LA INCIDENCIA DEL PENSAMIENTO VISUAL EN LA RESOLUCIÓN DE LA PROBLEMAS MATEMÁTICOS.
Salmeron Lopez Brandon Carlos, Instituto Politécnico Nacional. Asesor: Dr. Osvaldo Jesús Rojas Velázquez, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
Este estudio desde la teoría se sustenta en la resolución de problemas, y en los referentes sobre el pensamiento visual para la enseñanza y aprendizaje de la matemática. En la presente investigación se potencializa el pensamiento visual como una herramienta didáctica, que ayuda a mejorar el proceso de resolución de problemas en los estudiantes, para garantizarle la habilidad de percibir de manera rápida y precisa este proceso. En este estudio se asume como problema investigación ¿cómo potenciar la incidencia del pensamiento visual en el proceso de resolución de problemas matemáticos en estudiantes de sexto grado de la preparatoria?
El objetivo de la investigación radica en diseñar un conjunto de actividades para potenciar la incidencia del pensamiento visual en la resolución de problemas matemáticos en estudiantes de sexto grado de preparatoria. En aras de dar cumplimiento al objetivo y lograr resolver el problema planteado, así como para guiar el curso del proyecto se proponen las siguientes tareas de investigación:
Determinar el estado del arte sobre el proceso de pensamiento visual en la resolución de problemas matemáticos.
Determinar el marco teórico sobre el pensamiento visual en la resolución de problemas matemáticos.
Elaborar un conjunto de actividades para potenciar el pensamiento visual en la resolución de problemas matemáticos para alumnos de sexto grado de preparatoria.
Analizar los resultados del conjunto de actividades.
METODOLOGÍA
En el trabajo se asume un enfoque de investigación cualitativo, con un diseño de investigación acción. Hernández Sampieri, Fernández Collado, y Baptista Lucio, (2014, p. 469) expresan que el diseño de investigación acción Se basa en las fases cíclicas o en espiral de actuar, pensar y observar, con las cuales se llega a la solución adecuada del problema investigado.
La población se integra por estudiantes de la carrera técnica de Sistemas Digitales del Instituto Politécnico Nacional de nivel medio superior y la muestra está formada por alumnos de sexto semestre de la carrera técnica.
Dentro de las prácticas a realizar, se busca diseñar actividades donde los problemas algebraicos, aritméticos, geométricos, entre otros, se engloben en diversas manifestaciones del pensamiento visual, para poder así llegar a una solución que satisfaga el problema planteado, ya que es fundamental. La investigación se lleva a cabo en cinco fases: Preparatoria, planificación, trabajo de campo, análisis y redacción de informe, informativa.
CONCLUSIONES
Mejoramiento de la incidencia del pensamiento matemático en estudiantes de sexto grado del Instituto Politécnico Nacional.
Capacidad de percibir diferentes puntos de vistas para la resolución de problemas matemáticos.
Contribuir al desarrollo del pensamiento visual para favorecer, el proceso de enseñanza aprendizaje de la resolución de problemas, donde se logre un conocimiento significativo de los contenidos matemáticos en los estudiantes de sexto semestre.
Resultados:
Diagnosticar el desarrollo del pensamiento visual en el proceso de enseñanza aprendizaje de la resolución de problemas en los estudiantes de sexto semestre.
Conjunto de actividades para potenciar la incidencia del pensamiento visual en la resolución de problemas matemáticos en estudiantes de sexto grado de preparatoria.
El trabajo con el pensamiento visual permite estimular el pensamiento matemático en toda su complejidad al enfrentar problemas matemáticos retadores y por ende alcanzar resultados satisfactorios en competiciones matemáticas y pruebas nacionales e internacionales.
Sanchez Arrieta Daniel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
BúSQUEDA INDIRECTA DE MATERIA OSCURA A TRAVéS DE EMISIóN DE RAYOS GAMMA PROVENIENTES DE GALAXIAS ENANAS ESFEROIDALES
BúSQUEDA INDIRECTA DE MATERIA OSCURA A TRAVéS DE EMISIóN DE RAYOS GAMMA PROVENIENTES DE GALAXIAS ENANAS ESFEROIDALES
Sanchez Arrieta Daniel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Mientras que la evidencia de la materia oscura (DM) es amplia, aún quedan bastantes interrogantes de su composición. En el modelo cosmológico la DM de tipo CDM (cool dark matter) se ha desacoplado del equilibrio térmico con el plasma durante el inicio del universo, e interactúa con el modelo estándar (SM) de partículas a lo más con la fuerza débil, sin embargo, interactúa gravitacionalmente. Ciertos modelos predicen que la DM puede aniquilarse en partículas del SM, pudiendo ser éstos procesos radiativos por leptones cargados, o producción directa de rayos gamma.
En el universo hay muchos lugares para la búsqueda de DM, sin embargo, las galaxias enanas esferoidales (dSphs) están entre los mejores candidatos para la búsqueda de DM. Se sabe que estas galaxias son ricas en DM y que tienen una luminosidad muy baja, con poca o ninguna producción de rayos gamma de fuentes bariónicas y es posible observar cualquier exceso hasta cierto valor de significancia.
En este trabajo se estudia la posibilidad de obtener evidencia indirecta de la existencia de DM a partir de la observación de emisiones de rayos gamma provenientes de dSphs debidas a aniquilaciones de partículas de DM. Se pretende predecir lo anterior a partir del cálculo de los factores J para algunas galaxias del grupo local para un modelo particular de partículas elementales asumiendo diferentes perfiles de densidad del halo.
METODOLOGÍA
En primera instancia se instaló el programa CLUMPY, para ello es necesaria una distribución de GNU-Linux, y se tuvo que aprender un poco del funcionamiento de este tipo de sistemas dónde el poder y la practicidad del software recae en la terminal.
Se aprendió un poco de física de partículas, en particular el modelo estándar, las 3 fuerzas fundamentales que abarca (electromagnética, fuerte y débil), las partículas que interactúan con las fuerzas, así como los intermediarios de la fuerza (quarks, leptones, y bosones). También se revisó como se dan las interacciones entre estas partículas y su representación con diagramas de Feynman que ayudan para los cálculos, además de conceptos más teóricos como los lagrangianos del modelo, los grupos de norma bajo los cuáles los lagrangianos son invariantes o el rompimiento espontáneo de la simetría (que explica cómo adquieren masa las partículas).
En la parte de cosmología se revisaron temas como la historia térmica del universo, las características del universo (isotropía, homogeneidad y dinamismo del espacio), y la ley de Hubble. Se exploraron un poco las ecuaciones de Einstein que describen la dinámica del espacio-tiempo, y las diferentes soluciones para distintos tipos de universo, que ayudan a comprender la evolución del universo ya que algunas soluciones corresponden a diferentes épocas como aquella dominada por radiación o la época actual que es dominada por materia y energía de vacío. Por supuesto se tuvo en cuenta como es que se mide en el universo, con las coordenadas galácticas esféricas y las coordenadas comóviles ancladas a la expansión del universo.
Después se revisaron los conceptos propiamente de la materia oscura, las evidencias observacionales de la DM, las diversas limitaciones del SM, una de ellas es que no considera la materia oscura, y de ahí la necesidad de estudiar física más allá del SM considerando grupos de norma que tengan al SM o con modelos efectivos para la materia oscura. Además de las propiedades de la DM y los posibles candidatos de DM (los WIMPs, neutrinos estériles, axiones, etc.), así como la formación de la reliquia de la DM. Lo anterior es necesario para considerar el decaimiento y la aniquilación de materia oscura dando como resultado partículas del SM como fótones de alta energía (rayos-gamma) los cuales podemos detectar y de hecho son los que se toman en cuenta para este trabajo.
Posteriormente se construyeron teóricamente las cantidades que nos interesan calcular con el programa CLUMPY; dónde necesitamos tomar en cuenta los modelos astrofísicos de la distribución de densidad de DM y modelos de física de partículas para la sección eficaz de las aniquilaciones; el factor astrofísico J que describe la distribución de DM en un sistema astrofísico, que en conjunto con la sección eficaz y el espectro de partículas, definen el flujo de rayos gamma por la aniquilación de DM de cierto halo de galaxia. Y también se obtiene el espectro de energía de las partículas neutras.
Para los cálculos realizados por CLUMPY se tomaron los datos de 13 dSphs, tomando en cuenta sus coordenadas, la distribución de la densidad, el radio del halo, el ángulo de integración y los parámetros del perfil de densidad, la sección eficaz de la aniquilación promediada térmicamente (3e-26 cm^3/s), así como la masa del candidato la cual fue de 100 Gevs. Con todo esto se obtuvieron los factores J de las 13 galaxias y con este factor se calculó el espectro de energía esperado. Además, se empleó la ayuda del lenguaje Python para hacer unos pequeños cálculos de conversión y obtener algunos parámetros, y compararlos con los datos de HAWC.
CONCLUSIONES
Durante la estancia virtual de verano se logró adquirir conocimientos teóricos de la materia oscura, física de partículas y cosmología, necesarios para entender los parámetros que definen un modelo en CLUMPY; además del conocimiento teórico y práctico de programas de código abierto en un SO diferente del que normalmente estamos acostumbrados, tanto en su instalación como en su uso, complementado con programación en Python, ambas herramientas necesarias para el análisis de datos (uno de sus tantos usos), en el ámbito de la investigación. Comparando los factores J de las 13 dSphs con los datos del campo de visión de HAWC, pudimos notar que no hubo gran diferencia, la diferencia relativa promedio es de 1.01%. Para el flujo de fotones se obtuvo el espectro de energía que pueden tener estos fotones.
Sánchez Sánchez Felipe de Jesús, Universidad de Guadalajara
Asesor:M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo
OPTIMIZACIóN DE CICLO DE POTENCIA DE GENERACIóN DE ENERGíA GEOTéRMICA EN "LOS NEGRITOS".
OPTIMIZACIóN DE CICLO DE POTENCIA DE GENERACIóN DE ENERGíA GEOTéRMICA EN "LOS NEGRITOS".
Sánchez Sánchez Felipe de Jesús, Universidad de Guadalajara. Asesor: M.C. Iván Vera Romero, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
Introducción: En la actualidad los ingenieros cuentan con un enorme desafío al intentar encontrar la manera de satisfacer el exponencial aumento de la demanda energética de la sociedad contemporánea en la cual la energía eléctrica cada vez toma un rol más importante por no decir el protagónico.
Todos nosotros contamos con infinidad de objetos eléctricos y los que no lo son, están en proceso de hacer la transición. La mayoría de las personas razona que la utilización de equipos eléctricos es la manera de satisfacer sus necesidades y cuidar el medio ambiente sin darse cuenta que en realidad el verdadero desafío radica en la generación de la energía eléctrica.
Problemática: La región Ciénega de Chapala de Michoacán de Ocampo, lugar donde se encuentra nuestra institución de investigación es una región de aproximadamente 150 mil personas, la cual no cuenta con ningún método de generación de energía eléctrica para su autoabastecimiento dejando a un lado claro está los casos aislados de sistemas fotovoltaicos para negocios y hogares.
Justificación: Debido a su proximidad con el lago de Chapala, ésta región cuenta con importante recursos hídricos, pero también debido a éstos accidentes geológicos es que se cuenta con actividad geotérmica importante, y es que en el municipio de Villamar, ubicado a 15 min del municipio de Sahuayo se encuentra un área de actividad geotérmica aún sin explotar conocido como los negritos.
METODOLOGÍA
La metodología a seguir para poder obtener energía en ésta región es la utilización clásica de sistemas de generación geotérmica a partir de ciclos de potencia.
Definimos la energía geotérmica como: es una energía renovable que aprovecha el calor del subsuelo para climatizar y obtener agua caliente sanitaria de forma ecológica. Aunque es una de las fuentes de energía renovable menos conocidas, sus efectos son espectaculares de admirar en la naturaleza.
Por la definición anterior es que podemos delimiter su importancia y es que el cambio climático nos demanda alternativas ante los métodos clásicos de generación de energía.
Lo curioso es que las plantas termoeléctricas tienen un Sistema de funcionamiento similar al de las geotérmicas. Las primeras utilizan combustibles fósiles que son utilizados como fuente de energía para proporcionarle calor al agua que a su vez al convertirse en vapor proporciona la energía a las turbinas para utilizer su energía cinética para generar energía.
Lo mismo pasa con las plantas geotérmicas, con la diferencia de que en este caso no es necesario porporcionarle energía al agua puesto que obtenemos del subsuelo vapor sobrecalentado de manera directa, o en su defecto agua en estado de transición con una calidad importante; la anterior es canalizada también a turbinas que asu vez utilizan esa misma energía cinética para producer energía.
En nuestro caso utilizamos el simulador termodinámico EES para analizar el problema. Con anterioridad la casa de estudios ya había realizado una investigación correspondiente la cuál fue proporcionada por el investigador en jefe de éste verano de inbvestigación.
Durante semanas estuvimos familiarizándonos con el software mediante la resolución de dirversos problemas de menor complejidad como el que comparto a continuación:
library USERPROC;
{$N+}
cons Example =-1;
type
ParamRecPtr=^ParamRec;
ParamRec=record
Value:extended;
Next:ParamRecPtr;
end;
function Count Values (P:ParamRecPtr): integer;
var N: integer;
begin
N:=0;
while (P<>nil) do begin
N:=N+1;P:=P^.next
end;
Count Values:=N;
end;{Count Values}
procedure MDAS (varPString: string; Mode:integer;Inputs,Outputs:ParamRecPtr);export;
procedure MyDearAuntSally;
var P1,P2:extended;P:ParamRecPtr;
begin
PString :=;
P1 :=P^.Value;
P :=P^.next;
P2:= Outputs;
P^.Value:=P1*P2;
P :=P^.next;
P^.Value=P1/P2;
P :=P^.next;
P^.Value:=P1/P2;
P :=P^.next;
P^.Value=P1+P2;
P :=P^.next;
P^.Value=P1-P2;
End;{doCall}
Begin {MDAS}
If (Mode=Example) then
Pstring:= 'MDAS (In1,In2:Out1,Out2, Out3,Out4) '
Else begin
If (Count Values (Inputs)<>2) then begin
PString:= 'Wrong numbre of outputs for MDAS. ';exit;
end;
MyDearAuntSally
end
end; {MDAS}
A partir del análisis del estudio previo es que encontramos que mediante la utilización de un ciclo de potencia determinado y con definido dentro de específicas condiciones termodinámicas es que encontramos la viabiliadad en la explotación del área geotérmica.
CONCLUSIONES
En resumen existen diversos ciclos de potencia utilizados a lo largo de los años dentro de las plantas termoeléctricas, pero en el caso que analizamos encontramos que si damos con un análisis termodinámico acertado, lograremos proporcionar energía a una región entera.
De manera concluyente podemos afirmar que mediane la utilización de un ciclo Rankine con cogeneración es que podemos optimizer la obtención de energía y es que mediante éste método es que se extrae o drena el vapor de la turbina en diversos puntos. Este vapor, que podría producir más trabajo si se expandiera aún más en la turbina, se utiliza en cambio para calentar el agua de alimentación.
La regeneración no sólo mejora la eficiencia del ciclo, también proporciona un medio conveniente de desairear el agua de alimentación (al eliminar el aire que se filtra al condensador) para evitar la corrosión en la caldera. Asimismo, ayuda a controlar el gran flujo volumétrico del vapor en las etapas finales de la turbina (debido a los grandes volúmenes específicos a bajas presiones).
Por consiguiente, la regeneración se utiliza en todas las centrales eléctricas de vapor modernas desde su introducción a principios de la década de 1920.
Esperando que éste trabajo de investigación sea de utilidad agradezco su atención.
Sandoval Bustos Miriam, Universidad Autónoma de Guerrero
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
IMPACTO DE CICLONES TROPICALES EN ZONAS TURÍSTICAS EN LAS COSTAS DEL ESTADO DE GUERRERO, MÉXICO.
IMPACTO DE CICLONES TROPICALES EN ZONAS TURÍSTICAS EN LAS COSTAS DEL ESTADO DE GUERRERO, MÉXICO.
Sandoval Bustos Miriam, Universidad Autónoma de Guerrero. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las costas de Guerrero son mayormente afectadas por los diferentes acontecimientos meteorológicos, particularmente por ciclones tropicales ya que estas provocan exposición a peligros en las diferentes ciudades de las costas de Guerrero; las afectaciones por inundaciones, desbordamientos de ríos, pérdidas humanas y de infraestructura, pérdida de comunicación en algunas localidades son grandes ya que las ciudades más vulnerables no están lo suficientemente preparadas para los grandes ciclones tropicales que se han establecido en Guerrero.
Por otra parte, el estado ha sufrido de grandes pérdidas económicas, a pesar que las ciudades de Acapulco y Zihuatanejo son los sitios más visitados por sus playas y bellezas naturales, estas ciudades son las que más sufren en pérdidas económicas por la baja afluencia hotelera, inundaciones en la zona céntrica de la ciudad, deslizamientos que ocasionaron las lluvias en las carreteras federales y esto causa que los viajeros queden varados e incomunicados.
Otro de los aspectos que sufre a causa de los riesgos hidrometeorológicos son las pérdidas de infraestructuras hoteleras que se sitúan a las orillas de las playas gracias al aumento del nivel del mar y el alto oleaje, esto puede ocasionar el desbordamiento más allá de las playas.
METODOLOGÍA
Para la elaboración del contenido del trabajo a presentar se dividió en 7 etapas, los cuales se indican a continuación:
1. Se realizó una exhaustiva investigación especializada de la bibliografía para almacenar información adecuada con relación con tema a bordar.
2. Se elaboró un análisis de los eventos hidrometeorológicos que han afectado la zona de estudio durante de 1990 hasta la fecha mediante la base de datos gubernamentales. Centro Nacional De Huracanes NHC, SMN Servicio Meteorológico Nacional Centro Nacional De Prevención Del Desastre CENAPRED.
3. Elaboración de una base de datos de estudio socioeconómico donde se abordó los principales impactos generados por los fenómenos hidrometeorológicos en el área de estudio. 4. Se cuantificó la precipitación asociada a los eventos hidrometeorológicos que han afectado la región de estudio y con la ayuda de cartografía, y de esta forma determinar la relación entre frecuencia e intensidad.
5. Se determinó el tipo de vegetación afectada en la zona de estudio mediante SIG tras el impacto de los eventos hidrometeorológicos mencionados anteriormente.
6. Se elaboró la cartografía necesaria sobre las trayectorias de estos fenómenos naturales hacia el océano pacífico y su impacto en el sector turístico.
7. Se realizó una serie de análisis socioeconómicos de los principales eventos hidrometeorológicos en la zona costera de guerrero, principalmente en los municipios cercanos al océano.
CONCLUSIONES
Es un hecho que algunos de estos fenómenos, cuando suelen ser muy intensos, son los que provocan mayores desastres en cada temporada y no solamente donde impacta el centro del huracán, ya que en muchas ocasiones son mayores las afectaciones en las zonas aledañas a lo largo de su trayectoria en tierra firme,, se observó que todos habían afectado al estado en lo más mínimo, pero analizando y observando la trayectoria Ciclones Tropicales resultaron que han sido los que más afectaron a los municipios de las costas: Pauline 1997 causó grandes desastres en las costas de Guerrero, en ese año a causa de la Tormenta Tropical hubo pérdidas económicas muy grandes, decenas de damnificados por los desbordamientos de los ríos; Odile 2008 causó pérdidas humanas, inundaciones causando la disminución del turismo, hubo daños en 70 viviendas, se abrieron albergues temporales; Max 2017 ocasionó inundaciones a más de 300 viviendas, dañando negocios de la zona costera.
Santana Ruiz Ricardo Abdiel, Universidad de Guadalajara
Asesor:Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PREDICCIóN DE HOMICIDIOS POR ARMA DE FUEGO MEDIANTE LA IMPLEMENTACIóN DE REDES NEURONALES
PREDICCIóN DE HOMICIDIOS POR ARMA DE FUEGO MEDIANTE LA IMPLEMENTACIóN DE REDES NEURONALES
Santana Ruiz Ricardo Abdiel, Universidad de Guadalajara. Asesor: Dr. Sergio Ivvan Valdez Peña, Centro de Investigación en Geografía y Geomática Ing. Jorge L. Tamayo, A.C. (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Realizar predicciones de homicidios dolosos por arma de fuego mediante el uso de redes neuronales en las zonas metropolitanas más importantes de México. Se utilizaron los datos abiertos del Secretario Ejecutivo sobre la incidencia delictiva del país y se eligieron los 20 delitos con más correlación con los homicidios por arma de fuego como variables de entrada para hacer predicciones para los años 2019 y 2020 y ver la precisión con la que se daba la predicción.
La delincuencia es uno de los problemas más grandes a los cuales se enfrenta en México, y delitos tales como los homicidios dolosos han ido en alza en los últimos años, siendo los homicidios dolosos por arma de fuego nuestro principal interés en este trabajo para hacer una predicción mediante el uso de redes neuronales.
METODOLOGÍA
Se hizo uso de los Datos Abiertos de Incidencia Delictiva dados por el gobierno en la liga https://www.gob.mx/sesnsp/acciones-y-programas/datos-abiertos-de-incidencia-delictiva?state=published, en particular las Cifras de Incidencia Delictiva Municipal que van de enero de 2015 a abril de 2020 (y después hasta junio de 2020 una vez que fueron actualizados los datos en la página) para tener una visión más precisa de los lugares con mayor incidencia delictiva. Se hicieron uso de los datos de julio de 2016 hasta abril de 2020 debido a que se encuentra una discrepancia muy grande entre los datos registrados de robos desde 2015 hasta julio de 2016 sin ninguna razón aparente más que elecciones gubernamentales en ciertos estados de la república pero que siguen sin explicar la alza tan grande de robos y su tendencia constante en los años a seguir.
La primera etapa de este proyecto fue la recolección y filtro de datos, de donde se utilizaron en un principio los datos de la Zona Metropolitana de Guadalajara (ZMG) para hacer pruebas iniciales sobre esta zona y ver los resultados que obtenemos para después aplicar este mismo procedimiento para más zonas metropolitanas y municipios del país. Así, se hicieron varios archivos csv con los datos para cada año (2015, 2016, 2017, 2018, 2019, 2020) de los municipios de la ZMG.
Una vez obtenidos los datos de estos municipios, se procedió a filtrar por los subtipos de delitos y sus modalidades con el fin de tener la mayor precisión posible con los datos. Así, se agrupó cada modalidad de delito para no repetir los datos para cada estado y, con esto, tendríamos nuestros primeros datos que empezamos a preprocesar para utilizarlos en la red neuronal.
Para la siguiente etapa se calcularon las correlaciones con el método de spearman (mediante el uso de la librería Scipy de Python) entre delitos con respecto a los homicidios dolosos por arma de fuego, estos últimos delitos siendo incluidos una segunda vez pero en esta ocasión estando adelantados por un mes, dos meses y tres meses con respecto a los otros delitos; esto es, empezábamos con nuestros delitos del año 2016 en enero mientras que los datos de homicidios por arma de fuego empezaron en febrero, abril y marzo de ese mismo año. Con esta información se hizo un mapa de calor para una mejor representación de las correlaciones, enfocándonos en particular en la correlación que tenían los homicidios con arma de fuego adelantado por uno, dos y tres meses con respecto a los demás, ordenándolos de mayor a menor.
En esta etapa empezamos a hacer una selección más específica de los datos para nuestra red neuronal, pues pudimos notar que es a partir de los tres meses de diferencia cuando las correlaciones empiezan a hacerse menores, tanto positivas como negativas, por lo que nos quedamos con los datos que estaban adelantados por uno y dos meses. Después, seleccionamos el 25% de los delitos con correlación más positiva y 25% de los delitos con correlación más negativa. Una vez hecho esto, contamos las veces que aparecían cada delito en cada año y finalmente se tomaron los 20 delitos que más se repetían.
Una vez llegada a esta parte, se procedió a entrenar siete redes neuronales con estos datos y se comenzaron a hacer predicciones, tomando como datos de entrenamiento desde junio de 2016 hasta diciembre de 2018 y dejando de enero de 2019 a junio de 2020 como nuestros datos para hacer las pruebas de la red. Así, se hicieron predicciones para los 5 municipios más importantes de las 5 zonas metropolitanas más importantes del país con cuatro redes neuronales con distintos números de capas y de neuronas dentro de estas capas. Para escoger una red neuronal se calculó el error absoluto medio entre los valores predichos y los valores reales y así se eligieron las tres redes que nos daban los errores más bajos en general.
CONCLUSIONES
Finalmente se eligieron las redes neuronales con un arreglo de capas de (1, 20, 80, 180, 1), (80, 40, 20, 10, 1) y (40, 20, 10, 7, 5) debido a que fueron los que dieron errores más bajos en general, teniendo errores mínimos y máximos de 1.661904 y de 9.748412 para el primer modelo, 1.661877 y 7.980742 para el segundo modelo y 1.907095 y 8.057179 para el tercer modelo, respectivamente para los 5 cinco municipios elegidos (Guadalajara, Puebla, Monterrey, Ecatepec de Morelos y Toluca), dando predicciones cercanas a los valores reales.
El hacer uso de las correlaciones entre delitos para tomar predictores para el entrenamiento de nuestra red neuronal resultó ser un método efectivo para nuestro objetivo de este proyecto, pues daba valores cercanos a los reales, por lo que se espera poder tener mejores resultados haciendo uso de distintas técnicas para la obtención de nuestras variables de entrada y manipulando características de la red para así obtener errores menores en nuestras predicciones.
Silva Aviña Alejandro, Instituto Politécnico Nacional
Asesor:Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa
ENLACE UPSIN
ENLACE UPSIN
Silva Aviña Alejandro, Instituto Politécnico Nacional. Asesor: Dra. Vanessa Guadalupe Félix Aviña, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Hola, mi nombre es Alejandro, lo que en esta investigación observamos es que diversas plataformas como Zoom, Meet, etc. tienen diversos deficits tanto para los alumnos como para los docentes, por lo que queriamos desarrollar una plataforma que promoviera y mejorara los problemas que tienen estás aplicaciones.
METODOLOGÍA
Durante el trabajo de investigación utilizamos diversas aplicaciones como Xampp y Mysql server para poder desarrollar nuestra base de datos, como tambien Visual Studio Code para realizar el código, utilizando PHP, JavaScript, CSS y HTML, y entre pocas más (como páginas como GITHUB).
CONCLUSIONES
Lo que obtuvimos fue una pequeña muestra de como podria quedar una pagina con los horarios de clase con docentes, mas a parte una seccion de tarea o investigación dejadas por los maestros para tener un orden y evitar consuiones entre maestros y alumnos, donde pueden checar en: https://luisenriquefrailepaez.000webhostapp.com/Verano/index.html?fbclid=IwAR2waNxTmPIKuuLb_1eED4lsb_cwCmvoXG7pe9PAjNz0ASDbKQqRP4mdbiU
donde solo se muestra la posibilidad de entrar a la pagina como alumno y checar los trabajos que tiene por realizar
Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla
ANáLISIS ESTRUCTURAL DE óXIDO DE TUNGSTENO MEDIANTE DIFRACCIóN DE RAYOS X PARA LA DETERMINACIóN DE PROPIEDADES ELECTROCRóMICAS
ANáLISIS ESTRUCTURAL DE óXIDO DE TUNGSTENO MEDIANTE DIFRACCIóN DE RAYOS X PARA LA DETERMINACIóN DE PROPIEDADES ELECTROCRóMICAS
Solares Lara Eduardo Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Maria Josefina Robles Aguila, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En los últimos años la tendencia del sector de la construcción ha sido diseñar casas y edificios cada vez más eficientes y sostenibles, debido al efecto de la luz solar que provoca un aumento de la temperatura en el interior de los edificios o casas, que se ve reflejado en costos de mantenimiento y operación. Por ello, la búsqueda de nuevos materiales que ayudan a controlar la entrada de la luz y puedan ahorrar energía es de vital importancia.
En México solo hay pocos edificios que contemplan el uso de nuevos materiales para que las edificaciones como la torre BBVA en ciudad de México. Sean eficientes en cuanto al uso de energía. Entre las innovaciones que traerán este tipo de proyectos están los materiales de construcción, como películas que cubren los cristales de los edificios, que permiten la entrada gradual de la luz del sol, para no afectar la temperatura interior y reducir el uso de aire acondicionado.
Numerosas investigaciones muestran que los óxidos metálicos semiconductores son componentes clave para el desarrollo de dispositivos inteligentes y materiales con funcionalidades avanzadas, algunos de ellos presentan propiedades electrocrómicas al inducir una corriente (voltaje) para el cambio en las propiedades ópticas, esto ha despertado un gran interés, debido a que, se emplean en dispositivos conocidos como ventanas inteligentes; dentro de la variedad de materiales que presentan estas propiedades se encuentra el óxido de tungsteno. Este material presenta un cambio de coloración al inducir corriente eléctrica, lo que permite reducir la cantidad de luz solar y de calor dentro de un edificio.
METODOLOGÍA
Para realizar el análisis estructural del óxido de tungsteno, primero discutimos el estado del arte acerca del material y conocimientos básicos de cristalografía, como lo son parámetros de red, tipo de sistema cristalino, fases cristalinas presentes en las muestras, redes de Bravais, acomodo, disposición de átomos y difracción de rayos X entre otros conceptos.
Se procedió al aprendizaje y manejo de softwares para el manejo y tratamiento de los datos de las muestras, los programas empleados fueron FullProf, QualX, Vesta, Origin Pro, WindPlotr 2006 y la base de datos cristalográficos COD (Crystallography Open Database)
Los datos fueron graficados en Origin Pro para identificar los picos de mayor intensidad que hacen al material único puesto que son picos característicos al igual que una huella digital, una vez identificados, se procedió a utilizar el software QualX, dicha herramienta nos sirve para comparar el patrón o patrones con una base de datos cristalográficos (COD), y de esta forma, poder saber o corroborar que tenemos oxido de tungsteno en fase cristalina monoclínica tomando en cuenta los parámetros y tratamientos aplicados en la síntesis, se tomó la ficha cristalográfica de mayor coincidencia que nos muestra la intensidad y grados (2tetha) a los que la muestra difracta.
Posteriormente, se calculó el tamaño de cristalito a partir de la ecuación de Scherrer dicha ecuación es una linealización de algunos parámetros como la fuente ocupada para realizar la difracción de rayos X, una constante de Scherrer de 0.89 para nuestro material y el valor del ancho medio de pico (FWHM) en radianes, para obtener estos valores fue necesario utilizar Origin o QualX, el procedimiento consistió en tomar los valores de FWHM de los picos de difracción característicos y por último realizar un tratamiento matemático por mínimos cuadrados y obtener valores de alrededor de 46.36 nm, el dato obtenido fue comparado con los datos experimentales de tamaño de cristalito similares en la teoría y artículos para el óxido de tungsteno.
Por último, se realizó un refinamiento Rietveld, esta es una técnica que permite realizar análisis cuantitativos a partir de patrones de difracción de rayos-x por el método de polvos, además de permitir determinar parámetros cristalográficos y microestructurales. Para llevar a cabo el refinamiento se empleó el programa FullProf, este es un software especializado que ajusta los patrones de difracción con los datos de la ficha contra la que fue comparada para determinar el material, para ello obtuvimos el archivo en formato CIF, este se cargó de manera anticipada y se creó un archivo en formato dat de nuestro patrón original, una vez llevados a la plataforma de FullProf se ajustaron parámetros para obtener valores de Chi cuadrada que sirvan para indicar un buen refinamiento, estos valores deben ser menores o iguales a 10, sin embargo, nuestra muestra no dio un valor menor a 60 y el parámetro de vibración fue negativo en la cuarta corrida de refinamiento, estos resultados nos indicaron que existen posibles defectos en el material que interfirieron para hacer un buen refinamiento.
CONCLUSIONES
A través de los análisis llevados a cabo en la estancia se logró identificar los picos de difracción característicos para todas las muestras, también se identificó la presencia del óxido de tungsteno, sin embargo, para la fase cristalina de una de ellas no coincidió con la fase monoclínica de acuerdo a la síntesis empleada.
El cálculo de tamaño de cristalito, no coincidió con el teórico de 29 nm, una de las causas pudo ser que la ecuación de Scherrer presenta un margen de error, que puede causar discrepancias en el resultado. La ecuación de Scherrer no siempre puede ser idónea para algunos materiales.
Los problemas presentados en el refinamiento pueden deberse al comportamiento anisotrópico del material y posibles defectos puntales de vacancias de Oxígeno en nuestro material.
La conclusión general sobre el análisis estructural del óxido de tungsteno nos da una probabilidad de la existencia de propiedades electrocrómicas debido a la inconsistencia obtenida en el refinamiento y su posible causante asociado a vacancias de oxígeno, que darían paso a la existencia de dichas propiedades.
Tapia Ramírez Adriana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PROCESAMIENTO DE IMÁGENES BIOMÉDICAS OBTENIDAS POR MEDIO DE TOMOGRAFÍA DE COHERENCIA ÓPTICA SENSIBLES A LA POLARIZACIÓN
PROCESAMIENTO DE IMÁGENES BIOMÉDICAS OBTENIDAS POR MEDIO DE TOMOGRAFÍA DE COHERENCIA ÓPTICA SENSIBLES A LA POLARIZACIÓN
Tapia Ramírez Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La Tomografía de Coherencia Óptica (OCT) es una técnica no invasiva la cual hace uso de luz parcialmente coherente para crear tomogramas tridimensionales del tejido biológico como pueden ser la retina, piel, esófago y la arteria coronaria. La técnica OCT es una técnica destacada en área de la óptica biomédica debido a su capacidad para visualizar tejido biológico con imágenes que tienen una resolución del orden de micrómetros. Algunas técnicas relacionadas con el OCT que pueden mejorar el contraste de las imágenes son el Doppler-OCT y la tomografía de coherencia óptica sensible a la polarización (PS-OCT). Mediciones recientes realizadas por el Prof. Cense en colaboración con la Universidad de Indiana indican que la Diatenuación y la depolarización desempeñan un papel importante en la detección temprana de la Degeneración Macular relacionada con la Edad (AMD). Desafortunadamente, PS-OCT no puede cuantificar con precisión la Diatenuación, de tal manera que se requiere un método más elaborado para diagnosticar con precisión a los pacientes. Una mejora que se ha hecho a la técnica PS-OCT es la Jones-matriz-OCT la cual proporciona propiedades polarimétricas de la muestra que están relacionadas con la estructura anisotrópica local de la muestra bajo prueba. Los cambios en los fotorreceptores son causados por enfermedades de la retina como la retinitis pigmentosa o AMD. Sin un diagnóstico eficaz y una pronta intervención, los pacientes pueden tener pérdida severa de la visión o ceguera. Por esta razón, un examen eficiente de los fotorreceptores de la retina es esencial. La terapia de aumento de genes es uno de los tratamientos más recientes para tratar este tipo de enfermedades. Al medir la diatenuación con Jones-matriz -OCT, podemos identificar fotorreceptores que aún funcionan y fotorreceptores que están dañados. Esto a su vez ayudará a los médicos a identificar los pacientes que son adecuados para la terapia de aumento de genes.
Según el Instituto Nacional de Estadística, Geografía e Informática (INEGI) la discapacidad que ocupa el segundo lugar en el país es la pérdida de visión causada por diabetes y presión arterial alta. Las personas con enfermedades retinianas a veces no pueden cuidar de sí mismas y el soporte que se les puede proporcionar es costoso. El tejido retinal que se pierde debido a estas enfermedades no puede ser reparado por lo que su detección temprana es importante. Este proyecto ayudará en el diagnóstico temprano de las enfermedades de la retina que afectan la salud de los fotorreceptores.
METODOLOGÍA
Se utilizaron imágenes obtenidas por medio de un equipo OCT en el dominio espectral (PS-OCT). En el arreglo experimental se utilizó una fuente de luz con un ancho de banda de 80 nanómetros con la luz centrada en 840 nanómetros, se diseñó un espectrómetro para la detección de la luz retro dispersada por la muestra que en este caso consistió en tejido de una retina. El espectrómetro se construyó con una rejilla holográfica de 1200 líneas por milímetro, una lente para poder enfocar la luz en el fotodetector que en este caso consistió en una cámara de línea de 2024 pixeles, un galvanómetro se utilizó para podes escanear la muestra transversalmente, finalmente se utilizó un modulador electro-óptico para generar dos estados de polarización perpendiculares entre ellos. Se tomaron 1024 A-escaneos en dirección axial y se formaron 100 B-scans que consistieron en imágenes de la retina de 1024 por 500 pixeles. La resolución de cada B-scan fue de aproximadamente 8 micrómetros.
Para cada B-scan se formaron cuatro archivos que contenían la información de la luz polarizada horizontal y verticalmente. De los 100 B-scans se analizaron solo dos debido a que el tiempo de procesamiento fue de aproximadamente cuatro horas. Para el análisis de las imágenes se utilizó la aproximación de las matrices de Jones-Müller. Los parámetros obtenidos consistieron en diatenuación y retardación. Para el procesamiento de las imágenes su utilizo Matlab y un modelo matemático que consistió en resolver un sistema de ecuaciones no lineal de dos ecuaciones y tres variables. El algoritmo se aplicó a cada pixel de la imagen razón por la cual el procesamiento tomó demasiado tiempo.
Una vez analizada la imagen se puede cuantificar la retardación y la diatenuación mediante una barra de colores, idealmente estos dos parámetros deberían de ser cero. Los resultados experimentales obtenidos muestran valores muy cercanos a cero. Existen dos posibilidades para poder mejorar estos resultados, una es en le hardware y la otra es mejorar el algoritmo matemático.
CONCLUSIONES
Durante la estancia se adquirió conocimiento de la teoría de polarización para poder entender, analizar y procesar las imágenes con un algoritmo basado en las matrices de Mueller-Jones de la luz polarizada. Se procesaron dos B-scans donde se obtuvieron parámetros de diatenuación y retardación. Debido a la cantidad de información obtenida y al algoritmo matemático el procesamiento de las imágenes tomó alrededor de 4 horas cada una.
Tavera Alvarez Beatriz Ximena, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
ANáLISIS DE LA VARIABILIDAD CLIMáTICA Y EL TURISMO EN CANCúN
ANáLISIS DE LA VARIABILIDAD CLIMáTICA Y EL TURISMO EN CANCúN
Tavera Alvarez Beatriz Ximena, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Poder predecir y comprender como el cambio climático impactará en las zonas costeras del país, es de suma importancia para identificar su vulnerabilidad y realizar la planificación de programas de adaptación ante la variabilidad climática y el cambio climático. Es necesario tomar medidas de prevención y planificación socioeconómicas de acuerdo al estudio y análisis del clima en los principales destinos de playa del país, ya que desempeñan un papel clave dentro de la oferta turística, pues el turismo aporta el 8.7 % del PIB en México (INEGI, 2019). En el 2018 de acuerdo al Consejo Mundial de Viajes y Turismo (WTTC), Cancún ocupó a nivel mundial el primer lugar de ciudades con mayor porcentaje de su Producto Interno Bruto (PIB) y generación de empleos, debido a la actividad turística.
El clima de una región es parte de su oferta turística, pues determina las actividades que se pueden realizar en el lugar de acuerdo a la temporada. Aunque en los destinos ubicados en zonas tropicales, esta variabilidad climática a lo largo del año suele ser pequeña, para los turistas que planean sus vacaciones es muy importante saber en qué momento del año y a que ciudad hacerlo, tomando en cuenta el clima y el estado del tiempo para decidir el destino y fecha de su viaje (Carrillo, 2018) .
METODOLOGÍA
Se realizó estadística descriptiva y un análisis de correlación entre la variabilidad de la temperatura superficial promedio de la ciudad de Cancún desde 2008 a 2018 con la afluencia turística. Se usaron los datos recabados por la Estación Meteorológica Automática 23155 de Cancún perteneciente al Sistema Meteorológico Nacional y CONAGUA que cuenta con datos históricos desde el 1 de abril de 1988 hasta el 31 de diciembre de 2012, los cuáles se descargaron de la Base de Datos Climatológica Nacional (Sistema CLICOM) para el análisis de 2008 a 2012 y los datos de 2013 a 2018 se obtuvieron de la base de datos de Meteored. Los datos de turismo se obtuvieron del compendio estadístico 1998-2018 de Actividad Hotelera por Entidad Federativa del Sistema Nacional de la información estadística del Sector Turismo de México (DATATUR).
Se uso información del Sistema NOAA para hacer un análisis cualitativo sobre posibles interacciones entre la variabilidad de la temperatura en Cancún y algunos índices climáticos como el NAO, MEI, ONI y AMO. Se obtuvieron y graficaron las anomalías del MEI y las anomalías de la temperatura en Cancún para el periodo de estudio 2008-2018.
Para el manejo y correlación de datos se uso el programa Excel de la paquetería Office, se aplicó el coeficiente de correlación de Pearson entre variables: temperatura con ocupación turística y temperatura con afluencia turística, así como de sus anomalías, para ello se resta el promedio mensual correspondiente a cada dato, para quitar la señal del comportamiento anual en la temperatura, así como las temporadas de altas en los datos turísticos, permitiendo así analizar más aisladamente su variabilidad. Se realizó el análisis de los datos mensuales de todos los 11 años (series de 132 datos cada una) y por promedio mensuales (series de 12 datos cada uno).
CONCLUSIONES
El registro histórico del clima en Cancún y su monitoreo es muy breve para poder llegar a conclusiones sobre una tendencia de aumento de temperatura a nivel local como consecuencia del cambio climático.
Se puede descartar la influencia del AMO en la variabilidad de la temperatura registrada en Cancún durante periodo de análisis de datos del presente estudio pues desde 1990 prevalece la fase cálida sin ninguna variación.
Los efectos del cambio climático que se pueden esperar en las costas de México en el lado del Pacífico y del Atlántico son muy diferentes así como su variabilidad climática.
Se observa un aumento de la temperatura promedio en las últimas décadas del siglo pasado que coincide con el predominio de la fase positiva del fenómeno NAO, esta tendencia parece continuar, llegando a una temperatura máxima de 27.3 °C en la década del 2000, y cae a su punto más bajo registrado con una temperatura promedio de 26.02 °C en la segunda década del siglo XXI.
Se observó también que la amplitud térmica en Cancún tendía a ir en aumento, contrario al caso de Puerto Vallarta donde se mostró una reducción. Pasó de 6.5 °C en la década de 1980 a 8.1 °C en la década de 1990, alcanzando un máximo de 10.6 °C en la primera década del 2000 y parece estar reduciéndose o estabilizandose con un resgistro de 10.3 °C en el periodo de 2010 a 2018.
El 33 % de las anomalías en la afluencia nacional coinciden con la anomalía de la temperatura y con la afluencia extranjera el 29.7 %, Al igual que en el estudio realizado en Puerto Vallarta la afluencia y ocupación nacional son las que coinciden mayormente con las anomalías de la temperatura mientras que la afluencia y ocupación extranjera tienen una correlación más baja, aunque en el caso de Cancún esta correlación es mayor y ambas son relaciones con coeficientes de correlación de Pearson negativos, es decir, la relación de la ocupación y afluencia turística tiene una relación inversa con el comportamiento de la temperatura.
La recomendación general es continuar con el registro y análisis de datos meteorológicos y turísticos, pues con una mayor cantidad de datos se podrá llegar a conclusiones más generales y certeras, para poder realizar mejores predicciones del comportamiento de fenómenos meteorológicos y tendencias en el turismo, lo cual resulta crucial en la planificación y previsión de las actividades socioeconómicas.
Toquillas Gastelum Yolanda Guadalupe, Universidad Autónoma de Sinaloa
Asesor:Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
CARACTERIZACIóN DE UNA ANTENA ESTáNDAR PARA SU IMPLEMENTACIóN EN LA DETECCIóN DE SEñALES COSMOLOGICAS
CARACTERIZACIóN DE UNA ANTENA ESTáNDAR PARA SU IMPLEMENTACIóN EN LA DETECCIóN DE SEñALES COSMOLOGICAS
Toquillas Gastelum Yolanda Guadalupe, Universidad Autónoma de Sinaloa. Asesor: Dra. Olga Guadalupe Félix Beltrán, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La antena es aquella parte de un sistema transmisor o receptor diseñada específicamente para radiar o recibir ondas electromagnéticas, generalmente metálica, es la estructura de transición entre el espacio libre y un dispositivo de guía como puede ser líneas de trasmisión o guías de onda. El proyecto consiste en conocer los principales parámetros de caracterización de una antena estándar, observar el comportamiento que toma una señal en el dominio del tiempo, comprendiendo el marco Cosmológico y la importancia del estudio de la señal del hidrógeno neutro (HI) en la línea de los 21 cm (1420 MHz) de los primeros objetos luminosos del Universo.
En este trabajo se estudia los diferentes tipos de antenas, así como poder describir las señales obtenidas del experimento, además se estudian los parámetros de caracterización de la antena como el diagrama de radiación, ancho de banda, directividad, la ganancia de la antena, eficiencia, impedancia de entrada, apertura de haz, etc. que se realiza mediante simulaciones de diferentes tipos de antenas empleando el software FEKO y MATLAB.
METODOLOGÍA
Primero se investigó el hidrógeno interestelar, el hidrógeno es el elemento químico más abundante del Universo, creado durante los procesos que sucedieron al Big Bang, particularmente durante la recombinación de los núcleos atómicos. Los átomos de hidrogeno solo pueden emitir luz en el espectro visible cuando son excitados por radiación energética (particularmente emisión ultra violeta emitida por estrellas masivas, enanas blancas y otros procesos violentos).
En 1944 el astrónomo holandés Hendrik van den Hulst, estudió el comportamiento del hidrógeno frío y mostró que los átomos de este gas deberían emitir suficientes ondas de radio con una frecuencia muy bien definida (1420.405751769 mega Hertz, equivalente a una longitud de onda de 21 centímetros) como para ser detectables con radio antenas. Esta emisión de radio se debe a que el protón y el electrón que forman cada átomo de hidrógeno pueden imaginarse como dos pequeños imanes, los cuales pueden estar alineados entre sí o invertidos. Cuando el protón y el electrón pasan de estar alineados a estar invertidos se emiten una pequeñísima cantidad de energía que corresponde a ondas de radio de 21 centímetros. La primera detección de hidrógeno frío en nuestra galaxia, la Vía Láctea, abrió una nueva ventana para el estudio de la estructura de la galaxia que habitamos.
Posteriormente se investigaron los tipos de antena, así conocer y describir las señales obtenidas de cada una de ellas, con el objetivo de detectar las señales Cosmológicas. Así mismo se estudiaron los parámetros de caracterización de la antena como el coeficiente de reflexión (describe la intensidad de onda reflejada), impedancia de entrada (terminales de la antena), ancho de banda (rango de frecuencias en el que trabaja la antena), diagrama de radiación y ancho de haz.
Por último, se elaboró la antena en FEKO que es un software de onda completa, una herramienta de cálculo electromagnético de alta frecuencia ampliamente utilizada en sectores como telecomunicaciones, automoción, aeroespacial y defensa. Principalmente se utilizó para la interacción y elaboración de dicha antena, para observar el comportamiento que toma una señal en el dominio del tiempo, de esta forma se comprende mejor el marco Cosmológico, dando así resultados y cumpliendo los objetivos esperados.
CONCLUSIONES
Se estudiaron los conceptos del marco Cosmológico en la detección de línea de los 21 cm de hidrógeno neutro, la posibilidad de la detección de HI, marca una nueva era en la exploración del Universo temprano.
Se ha comprendido la importancia de las antenas, están diseñadas principalmente para llevar información de un lugar a otro, sin necesidad de cables. Entre sus tipos, la antena dipolo que es la más elemental y más usada entre nosotros. Se estudiaron y comprendieron los parámetros de caracterización de una antena como el diagrama de radiación, impedancia de entrada, la ganancia, directividad y ancho de banda, para poder caracterizar la antena.
Se hicieron simulaciones de diferentes antenas en FEKO, los datos obtenidos se pasaron a MATLAB para visualizar mejor los resultados, se llevaron a cabo las mediciones en SolidWork para crear la antena. En lo general, fueron mis herramientas de trabajo, también aprendí lo básico en Python.
Torres Favela Torres Favela Carolina, Instituto Tecnológico Superior Purépecha
Asesor:Lic. Yunuen Vidal Sánchez, Instituto Tecnológico Superior Purépecha
IDENTIFICACIóN DE LOS PRINCIPALES FACTORES ACADéMICOS QUE INFLUYEN EN EL BAJO APRENDIZAJE DE LAS MATEMáTICAS EN EL INSTITUTO TECNOLóGICO SUPERIOR P’URHéPECHA
IDENTIFICACIóN DE LOS PRINCIPALES FACTORES ACADéMICOS QUE INFLUYEN EN EL BAJO APRENDIZAJE DE LAS MATEMáTICAS EN EL INSTITUTO TECNOLóGICO SUPERIOR P’URHéPECHA
Torres Favela Torres Favela Carolina, Instituto Tecnológico Superior Purépecha. Asesor: Lic. Yunuen Vidal Sánchez, Instituto Tecnológico Superior Purépecha
PLANTEAMIENTO DEL PROBLEMA
El ingreso a la educación superior universitaria representa para un gran número de estudiantes una experiencia que genera diferentes expectativas, pues se enfrentan a un cambio académico hacia un sistema más riguroso, con un entorno distinto, mayor independencia y responsabilidad, sin tutela de los padres y madres de familia y con nuevas personas con las cuales relacionarse (Cortés, 2017).
Este cambio implica, en muchos casos, el surgimiento de algunas dificultades en el alumnado, como problemas de adaptación al sistema universitario, desinformación sobre la carrera matriculada, escasa preparación y herramientas para afrontar los estudios universitarios, en general, y la creciente presión por obtener buenas calificaciones; en este sentido, es común que estudiantes de nuevo ingreso presenten obstáculos en su rendimiento académico, reprueben o incluso deserten de la universidad, ante un sistema que califican como hostil (Cortés, 2017; Gonzáles, 2015; Mamani, 2015).
En México, la investigación sobre las actitudes en general, y de forma particular hacia las matemáticas, se ha trabajado poco. Independientemente de las condiciones socioeconómicas favorables así como el origen familiar, por citar dos variables asociadas con el bajo desempeño, en matemáticas este fenómeno persiste; en razón de ello los aspectos actitudinales resultan de interés para profundizar en la comprensión del problema.
A nivel superior la Unidad Académica Multidisciplinaria Zona Media Universidad Autónoma de San Luis Potosí ha realizado un estudio para buscar los factores que se asocian al rendimiento académico de los estudiantes de nivel superior de la ciudad de Rio verde, en el estado de San Luis Potosí, México.
METODOLOGÍA
El interés de particular de este estudio radica en conjuntar ambas dimensiones: la cognitiva y la afectiva. El Objetivo principal de esta investigación es, Identificación de los principales factores académicos que influyen en el bajo aprendizaje de las matemáticas en el Instituto Tecnológico Superior P’urhépecha
Para lograr tal fin se establece como objetivo analizar los factores internos, utilizando los procedimientos que establece la investigación-acción de Kurt Lewin que propuso en 1946 como base para la mejora de los procesos de enseñanza aprendizaje en la práctica educativa y el papel que tienen en el desempeño de matemáticas de estudiantes en el ámbito educativo referido
La actitud hacia las matemáticas se entiende aquí como un conjunto de disposiciones que manifiesta el individuo para aceptar o no, familiarizarse o no, con determinados contenidos. El factor actitudinal puede estar determinado por circunstancias, episodios o incidentes críticos para la configuración de un juicio general, por ejemplo, la reprobación de la materia.
CONCLUSIONES
A la espera de resultados ya que este estudio se realizará en dos partes
La primera consiste en la investigación de la situación actual del problema en México (Estado del arte) y la formulación de un cuestionario como herramienta de muestreo para la recolección de datos, en la segunda parte se tiene previsto aplicar cuestionarios a los alumnos de tercer semestre de todas las ingenierías que oferta el ITSP para recabaran datos, analizar e interpretara resultados para establecer conclusiones.
Torres Ramírez Daniela, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
MATEMáTICAS APLICADAS A LA TECNOLOGíA
MATEMáTICAS APLICADAS A LA TECNOLOGíA
Torres Ramírez Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El poco uso de la matemática en la vida cotidiana ha sido en gran parte, una consecuencia del tipo de educación matemática que se ha impartido en las escuelas.
El poco desarrollo para matematizar que tiene un individuo al momento de resolver problemas cotidianos, impide que el individuo pueda desarrollar una autonomía para desarrollar un aprendizaje. Además, al tratar de matematizar, en el caso donde se cuenta con conocimientos mecanicistas, se obtienen resultados que incluso pueden no ser verificados por los individuos, puesto que sólo se siguen pasos para poder resolver un problema según sus características. También se implicaría que los individuos no puedan interpretar los resultados si éstos se contextualizan.
METODOLOGÍA
Se tuvo en cuenta que existen diversos tipos de enseñanza aprendizaje que tienen diferentes propósitos, y de acuerdo con ello, se dio el enfoque para encontrar una solución.
Por la pandemia de COVID-19, el uso de la tecnología en México para concluir los ciclos escolares cambió las oportunidades de que todos los alumnos inscritos continuaran asistiendo a las clases. Puesto que de inmediato, se acondicionaron las clases virtuales en tiempo real. Sin embargo, el utilizar las videollamadas como medio de comunicación para el aprendizaje, sólo fue posible para un sector de la población, pues hay comunidades donde no se cuenta con acceso a internet o a herramientas digitales. Para ello, se usaron otros medios de comunicación, como lo es la televisión. Una solución más accesible para las familias.
Así que, con esta perspectiva, se hicieron dos vídeos que ejemplificaron la aplicación de la matemática dentro de la educación. El primer video consistió en definir las ecuaciones diferenciales lineales de primer orden, las de tipo Bernoulli y Riccati; así como explicar desarrollar la solución de cada una y ejemplificarlas. El segundo video trató sobre las medidas de tendencia central donde se expuso la definición, la metodología para obtener la media aritmética, mediana y moda de una colección de datos; ejemplos y una aplicación enfocada a los contagios de COVID-19 en un periodo determinado en el estado de Puebla.
Adicionalmente, se enlistaron algunos ejemplos de aplicaciones en la vida cotidiana de los temas de límites, continuidad, derivadas, máximos y mínimos, así como de álgebra lineal. Las aplicaciones permitieron mostrar que además de tener los conocimientos matemáticos sobre estos temas, es importante desarrollar la capacidad de contextualizar, pues aunque los ejercicios se encuentran en contextos específicos, su resolución es similar a la resolución de los ejercicios comunes. También se pudo ejemplificar que los resultados obtenidos pudieron interpretarse, y otros descartarse, pues, aunque se hicieran los cálculos correctos, existen casos donde las soluciones no tienen relación con el contexto.
Para poder consolidar las conclusiones, se hizo una reflexión sobre las ventajas de las clases a distancia y de las clases presenciales, teniendo que, por la pandemia, las clases a distancia ha permitido que se siga el confinamiento desde casa. Esta reflexión permitió valorar las posibilidades que ofrece cada modalidad para el proceso del aprendizaje. Cada una se adecua a diferentes estilos de vida, por ejemplo, en el caso de clases presenciales, hay mayor motivación por el aprendizaje por parte de los alumnos cuando interactúan con sus compañeros de persona a persona y cuando participan en actividades didácticas por medio del moderador, que es el docente, además que la motivación también incluye que las clases sean parte de una rutina para ser constante. Por otro lado, en el caso de las clases a distancia, hay mayores posibilidades de conocer a gente que reside en otros lugares, sin embargo, los alumnos deben de tener más iniciativa para aprender, pues el profesor no interviene de la misma forma que en las clases presenciales, pero esto reduce costos respecto al transporte, e incluso hospedaje para los alumnos que cambian de residencia para acudir a clases en una institución en específico.
También se hizo una reflexión sobre la influencia de la tecnología en el sector laboral. Pues como una fuente de trabajo ha sido utilizar las redes sociales para ofrecer productos y servicios. Ahora por la contingencia, se ha hecho más uso de estas herramientas para poder obtener ingresos, o incluso, para conseguir nuevos trabajos. Las personas tienen ahora la oportunidad de tomar cursos en línea para poder tener una mejor preparación profesional y obtener nuevas oportunidades de trabajo. Todo ello gracias a la aplicación de las matemáticas en el sector de la computación para optimizar en tiempo de recibir y dar respuesta por medio de redes hasta en mejorar la interfaz para los usuarios y tener así, una mejor comunicación.
CONCLUSIONES
Como solución a la problemática desarrollada en esta estancia virtual, se tiene como propuesta el mejorar los planes de estudio enfocados a las matemáticas en todos los niveles educativos. Dicha mejora con ayuda de especialistas en el área de las matemáticas y con ayuda de la tecnología para poder dar un mayor alcance de aplicación a los ejemplos matemáticos en el proceso de aprendizaje.
Los tipos de enseñanza aprendizaje son un punto importante que deben tomarse en cuenta al realizar programas educativos enfocados a la matemática. Puesto que algunas técnicas de enseñanza aprendizaje sólo están orientadas para conocer cómo el alumno aplica lo aprendido. El propósito de elegir alguna técnica de enseñanza aprendizaje es el de permitir un aprendizaje significativo para que cada concepto matemático se conozca lo suficiente para que los alumnos puedan construir soluciones para enfrentar problemas más desarrollados que permanezcan en el nivel educativo al que pertenecen.
Los videos y ejemplos desarrollados en el proyecto tuvieron el propósito de mostrar que se puede utilizar la tecnología para continuar con las clases a distancia y permitir que los conocimientos que se comparten permitan mostrar diferentes aplicaciones que desarrollen en el alumno la capacidad de matematizar problemas cotidianos y dar una interpretación con los resultados obtenidos de forma correcta.
Treviño Gómez Valeria, Instituto Tecnológico de Piedras Negras
Asesor:Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León
DESARROLLO DE COMPONENTES VISUALES PARA EMPLEAR CONJUNTOS APROXIMADOS (ROUGH SETS) EN FLUJOS DE TRABAJO (WORKFLOWS) EN R ANALYTICFLOW. APLICACIóN A CRM: CLASIFICACIóN DE CLIENTES.
DESARROLLO DE COMPONENTES VISUALES PARA EMPLEAR CONJUNTOS APROXIMADOS (ROUGH SETS) EN FLUJOS DE TRABAJO (WORKFLOWS) EN R ANALYTICFLOW. APLICACIóN A CRM: CLASIFICACIóN DE CLIENTES.
Cons Calderon Julio Cesar, Universidad de Sonora. Treviño Gómez Valeria, Instituto Tecnológico de Piedras Negras. Asesor: Dr. Fernando Lopez Irarragorri, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Actualmente cualquier empresa que maneje grandes cantidades de datos, puede obtener información valiosa de ellos y extraer conclusiones que faciliten la solución de determinados problemas. Frecuentemente estos datos pueden aportar información respecto a los clientes y así conocer los gustos o preferencias de cada uno de ellos. Una estrategia muy útil para optimizar el rendimiento de un negocio o empresa, es la segmentación de clientes (subproceso estratégico de CRM), pues permite determinar cuál es el mercado objetivo y establecer estrategias de comercialización personalizadas para cada cliente o segmento de clientes. Sin embargo, cuando el volumen de información es tan elevado, la clasificación de datos se vuelve más compleja, por lo tanto, para poder realizar una segmentación correcta de los clientes es necesario recurrir a herramientas que faciliten estas operaciones. Se necesitan herramientas que puedan utilizarse para ayudar a estructurar la toma de decisiones en las relaciones claves que surgen con los proveedores y con los clientesTrabajar con estos datos puede representar un reto, ya que la información que se tiene de los clientes puede tener algún grado de imprecisión, por lo tanto el empleo de Conjuntos Aproximados (Rough SETS) facilitará el análisis.
METODOLOGÍA
1. Primero, se importan los datos de un fichero de texto (en formato .csv), que contiene ciertos criterios para clasificar a los clientes. Estos criterios se basan en dos tipos de clases: Enfoque de cartera de clientes desde el marketing (CPM) y Segmentación de clientes Tradicional (negocios vs consumidor). CPM considera a los clientes como activos. Generalmente basados en CLV (Customer Lifetime Value), y valoran la importancia de la relación con el cliente. Mientras que la segmentación tradicional clasifica a los clientes desde un enfoque operativo, basado en el comportamiento de los datos, por lo general se emplea el modelo tradicional, RFM. Los criterios propuestos fueron:
● CLV
● Acceso al conocimiento del mercado(ACC)
● Percepción del riesgo asociado a cada cliente (riesgo)
● Frecuencia de compra (frecuencia).
2. Como paso siguiente se realiza el pre-procesamiento de los datos. Usaremos el lenguaje de programación R. En particular usamos el IDE R ANALYTIC FLOW, que es un IDE que desarrolla componentes visuales de flujo de trabajo para trabajar más cómodamente con muchos componentes. También trabajar con la librería ROUGH SETS, que contiene todos los elementos necesarios para procesar los datos que tenemos.
3. A continuación se genera una tabla de decisión empleando el componente creado Sf.Decisiontable. Una tabla de decisiones es un conjunto de reglas con el mismo conjunto de condiciones. La ventaja de tener la tabla de datos en este formato es que los demás componentes visuales trabajan con este tipo de sistema de información. Ya que tenemos esta tabla de decisión creada, obtuvimos la relación de indiscernibilidad de cada atributo (CLV,ACC,RIESGO,FRECUENCIA), usamos el componente visual BC.IND.relation.RST, los parámetros de este comando son la tabla de decisión que usamos y cual va a ser el atributo que queremos relacionar.
Como ya lo habíamos comentado, este tipo de sistema de información contiene mucha imprecisión, porque no tenemos información suficiente, por lo que tendremos que tener aproximaciones. La aproximación por defecto es un conjunto de todos los elementos de la tabla de decisión que pueden ser clasificados con certeza en el atributo seleccionado. Aproximación por exceso es conjunto de todos aquellos elementos que pueden ser clasificados como posibles elementos de un atributo seleccionado. Para tener estas aproximaciones usamos el componente BC.LU.approximation.RST, donde los parámetros serán la tabla decisión y la relación de indiscernibilidad del atributo que seleccionamos. Usamos 4 aproximaciones y las conectaremos con cada relación de indiscernibilidad.
También obtuvimos la región positiva de los 4 atributos, esto sirve para saber la calidad de la aproximación que estamos obteniendo. La región positiva se define como todos la unión de todos los elementos que pertenecen a la aproximación por defecto. El comando usado para obtener la región positiva fue BC.positive.reg.RST. Este comando también nos proporciona la calidad de la aproximación que se define como razón de la cardinalidad de la región positiva y la cardinalidad de la aproximación por exceso. Por último, obtendremos la matriz de discernibilidad para todos los atributos. Esto para establecer los reductos y obtener las reglas LEMS que nos dirán las reglas de clasificación de clientes en cuatro tipos: Bronce, Plata, Oro y Platino.
CONCLUSIONES
El grado de dependencia del atributo CLV con el atributo de Categoría es: 0.5
El grado de dependencia del atributo Frecuencia con el atributo de Categoría es: 0.12
El grado de dependencia del atributo ACC con el atributo de Categoría es:0
El grado de dependencia del atributo Riesgo con el atributo de Categoría es. 0.016
También se obtuvo un conjunto de 8 reglas para la clasificación de los clientes. Se describen a continuación:
1. Si CLV =2 y Frecuencia = 4 entonces la clasificación del cliente es Oro
El nivel de fiabilidad de esta regla es de 0.9375
2. Si CLV= 1 entonces la clasificación es Bronce
Nivel de fiabilidad=0.9538
3. Si CLV= 0 entonces la clasificación es Bronce
Nivel de fiabilidad=0.8929
4. Si riesgo.evaluado =3 y ACC=4 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9286
5. Si Frecuencia = 4 y CLV =3 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9508
6. Si CLV= 4 entonces la clasificación es Platinum
Nivel de fiabilidad=0.9538
7. Si Frecuencia = 1 y CLV= 2 entonces la clasificación es Plata
Nivel de fiabilidad=0.8421
8. Si CLV = 3 y Frecuencia = 1 entonces la clasificación es Plata
Nivel de fiabilidad=0.625
Bibliografía
[1] Murat Köksalan & Jyrki Wallenius & Stanley Zionts, 2011. "Multiple Criteria Decision Making:From Early History to the 21st Century," World Scientific Books, World Scientific Publishing Co. Pte. Ltd.
[2] Fernando López, "Teoria de Rough Sets"
Ureña Sauceda Alexis, Universidad de Sonora
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR
MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE
ENERGíA
IDENTIfiCACIóN DE PARTíCULAS EN COLISIONES P-P POR
MEDIO DE ALIROOT EN DISTINTAS CONfiGURACIONES DE
ENERGíA
Lechuga Zárate Moisés Alejandro, Universidad de Guadalajara. Ureña Sauceda Alexis, Universidad de Sonora. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Debido al alto coste de programas como ATLAS y ALICE del LHC se opta por realizar simulaciones de estos mismos en softwares especializados. Uno de ellos es AliRoot, que permite simular colisiones a distintos niveles de energía y compararlas con colisiones reales dadas en ALICE-LHC, además de permitir la identificación de las partículas producidas. Así, la estancia consiste en estudiar las partículas producidas entre colisiones de protones, los datos obtenidos serán comparados con los de las primeras dos corridas del LHC (2009, 2015) y simular colisiones en la tercera corrida (2021).
METODOLOGÍA
Se requiere: distribución de Linux o macOS (recomendable), Docker, Alidock, AliPhysics, AliRoot.
En la terminal escribimos alidock y luego
git clone https://github.com/rbertens/ALICE_analysis_tutorial.git
que nos da los siguientes archivos: AliAnalysisTaskMyTask.cxx (task), AliAnalysisTaskMyTask.h (header), AddMyTask.C (manager), runAnalysis.C (macro).
Se solicita el archivo de datos, que debe ir en la carpeta del tutorial. Se ejecuta el programa con alienv enter AliPhysics/latest, se escribe aliroot runAnalysis.C, cargando así AliRoot y dentro de este se corre nuestro macro. Se genera un archivo con los resultados, que se examinan con new TBrowser.
Agregamos los pointers en los headers así como los inicializadores en el task y los nuevos histogramas en la función UserCreateOutput. Ya agregados los histogramas, en la función UserExec, se agregan los ciclos requeridos junto con la línea float vertexZ = fAOD->GetPrimaryVertex()->GetZ();..
Se trató de identificar piones cargados usando la energía perdida por unidad de distancia en la TPC (Time Projection Chamber). Es necesario guardar las señales de la TPC para todas las partículas cargadas en los eventos en un histograma bidimensional, escribiendo
fYour2DHistogram->Fill(track->P(), track->GetTPCsignal());
en UserExec.
Se identifican y guardan partículas solamente en la señal de la TPC que corresponde a los piones y se agregan al macro las siguientes líneas, antes de cargan el task:
TMacro PIDadd(gSystem->ExpandPathName("$ALICE_ROOT/ANALYSIS/macros/
AddTaskPIDResponse.C"));
AliAnalysisTaskPIDResponse* PIDresponseTask =
reinterpret_cast(PIDadd.Exec());
Se añade otra clase en el header, class AliPIDResponse, a parte del pointer, AliPIDResponse* fPIDResponse; //! pid response object. Se agrega la clase en el header, junto con los inicializadores correspondientes incluyendo su header: AliPIDResponse.h al inicio. Mediante el siguiente código:
AliAnalysisManager *man = AliAnalysisManager::GetAnalysisManager();
if (man) {
AliInputEventHandler* inputHandler = (AliInputEventHandler*)
(man->GetInputEventHandler());
if (inputHandler) fPIDResponse = inputHandler->GetPIDResponse();
}
justo al final del UserExec.
Se extrae información de los diferentes tipos de partículas insertando estas funciones al final del ciclo en UserExec:
double kaonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kKaon);
double pionSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion);
double protonSignal = fPIDResponse->NumberOfSigmasTPC(track, AliPID::kProton);
verificando la señal del PIDResponse dentro de 3 desviaciones estándar escribiendo
if (std::abs(fPIDResponse->NumberOfSigmasTPC(track, AliPID::kPion)) < 3 ) {
// jippy, i'm a pion
};
Se crean histogramas para el momento transverso, la pseudorapidez y el ángulo de acimutal accediendo a la centralidad de la colisión mediante el siguiente código, insertándose antes de cargar el task, en el archivo macro:
TMacro multSelection(gSystem->ExpandPathName("$ALICE_PHYSICS/OADB/COMMON/
MULTIPLICITY/macros/AddTaskMultSelection.C"));
AliMultSelectionTask* multSelectionTask = reinterpret_cast
(multSelection.Exec());
y en el task, en UserExec, al final del ciclo:
Float_t centrality(0);
AliMultSelection *multSelection =static_cast
(fAOD->FindListObject("MultSelection"));
if(multSelection) centrality = multSelection->GetMultiplicityPercentile("V0M");
Se cambian los datos obtenidos del periodo LHC150 con número de corrida 246757 por los de un generador Monte Carlo. Cambiamos el nombre a AliAOD_MC.root, por lo que será necesario cambiarlo también en todas las instancias en las que se utiliza el nombre anterior en el macro. Dentro del header se añade la siguiente variable:
AliMCEvent* fMCEvent; //! corresponding MC event
y los inicializadores en el header. En UserExec, se añade también
fMCEvent = MCEvent(); permitiendo el uso de esta variable. Se declara en el header:
virtual void ProcessMCParticles(); para el uso de esta información.
Se añade otra sección en el task:
void AliAnalysisTaskMyTask::ProcessMCParticles()
{
// process MC particles
TClonesArray* AODMCTrackArray = dynamic_cast(fInputEvent->
FindListObject(AliAODMCParticle::StdBranchName()));
if (AODMCTrackArray == NULL) return;
// Loop over all primary MC particle
for(Long_t i = 0; i < AODMCTrackArray->GetEntriesFast(); i++) {
AliAODMCParticle* particle = static_cast
(AODMCTrackArray->At(i));
if (!particle) continue;
cout << "PDG CODE = " << particle->GetPdgCode() << endl;
}
}
Se llama a la función en UserExec, justo debajo de fMCEvent = MCEvent();:
if(fMCEvent) ProcessMCParticles();
Arrojando una lista de códigos PDG.
CONCLUSIONES
Se obtuvo conocimiento básico de teoría cosmológica, software de simulación y programación en C++. Se trabajó con estudiantes de otras carreras y universidades del país, brindando a los alumnos un acercamiento a los trabajos de investigación. Se obtuvieron datos los cuales aún no fueron traducidos, pero con ellos se espera identificar las partículas producidas. Fue posible obtener varias gráficas con otros datos de utilidad, tanto con datos reales como con generados por Monte Carlo, y es posible apreciar las diferencias entre ellas.
Velasquez Garcia Sabina Marcela, Universidad Nacional Abierta y a Distancia
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
CALIDAD DEL AIRE EN LA ZONA METROPOLITANA DE PUERTO VALLARTA ASOCIADO A LOS INCENDIOS FORESTALES
CALIDAD DEL AIRE EN LA ZONA METROPOLITANA DE PUERTO VALLARTA ASOCIADO A LOS INCENDIOS FORESTALES
Velasquez Garcia Sabina Marcela, Universidad Nacional Abierta y a Distancia. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La contaminación atmosférica es un suceso que impacta a nivel mundial a los seres vivos y se presenta mediante la emisión de gases nocivos o contaminantes criterio, como el material particulado (PM2.5 y PM10), monóxido de carbono (CO), óxidos de nitrógeno (NOx), entre otros gases nocivos que deterioran la calidad del aire. Presenta efectos en los sistemas ecológicos, la salud humana, la actividad económica y sociocultural. Tiene un origen natural causado por incendios, actividad volcánica, las propias emisiones superficiales, sin embargo, como se puede apreciar en el área de estudio la cual comprende la zona metropolitana de Puerto Vallarta, México, la problemática incrementa con las actividades antrópicas, la intervención que realizan los habitantes son, por ejemplo, la deforestación, las actividades agrícolas, el crecimiento y desarrollo poblacional en zonas costeras, la generación de industrias, son actividades que degradan la estructura del ecosistema y alteran la calidad del aire, lo cual implica posibles riesgos o daños en la salud humana.
En la actualidad los incendios forestales son problemáticas que se presentan cada año, generando efectos en la calidad del aire. Los incendios forestales generan contaminantes atmosféricos nocivos para la salud humana, entre ellos, el material particulado inhalable (PM2.5, PM10 y PM0,1) y compuestos químicos gaseosos tales como dióxido de nitrógeno, ozono, dióxido de azufre y monóxido de carbono. (Oyarzún, G. 2010). Los efectos ocasionados a la salud humana dependen de la concentración, la duración de la exposición y la vulnerabilidad de los habitantes.
METODOLOGÍA
El análisis del presente documento se realiza en siete fases, las cuales se presentan a continuación.
Se realizó una búsqueda bibliográfica especializada con relación al tema abordado para identificar y argumentar aspectos claves de la investigación, como descripción de la zona de estudio (Población, clima, aspectos geográficos, etc.), eventos similares identificados a nivel internacional, nacional, estatal o local, entre otros aspectos fundamentales.
Se trabajó con la toma de muestra recolectada en nueve puntos ubicados en el área de estudio, consideradas como zonas conurbanas de la zona metropolitana de Puerto Vallarta especialmente los sitios donde existe mayor flujo vehicular en el periodo de 2018 y 2019, se definen los siguientes lugares: San Vicente, Mezcales, Bucerias, Nuevo Vallarta, Las Juntas, Ixtapa, La API, Plaza Caracol y Centro, ver Figura 2.
Se realizó el análisis de la medición de material particulado presentes en el aire (PM10 y PM2.5) obtenidos en los puntos de interés, durante el temporal húmedo y seco del año 2018 y 2019, con un rango de tiempo de una semana por sitio, en los horarios de 08:00 a.m. a 10:30 a.m. para los cual se implementa el equipo Holdpeak HP-5800 F Digital HCHO, PM 2.5/10 meter.
Con los datos obtenidos se elaboró una base de datos en Excel para obtener los promedios y definir las concentraciones máximas y mínimas de PM10 y PM2.5 obtenidas en cada sitio, estos resultados se procesaron en el programa ArcGIS versión 10.5 para realizar una interpolación de la Distancia Inversa Poderada (IDW) y estimar la distribución de los datos mediante la cartografía.
Para determinar la calidad del aire se emplearon los intervalos de concentración del Índice Metropolitano de la Calidad del Aire (IMECA), el cual indica el nivel de concentración obtenida por medio de una escala de colores, identificando el color verde como una categoría Buena, el color amarillo como una categoría Regular, el color naranja como una categoría Mala, el color rojo como una categoría Muy Mala y el color morado como una categoría Extremadamente Mala. (Comisión Ambiental de la Megalópolis. 2018). En la Tabla 1, se observa la concentración y el tiempo de exposición que establece la Norma Ambiental.
Se realizó la cartografía de los incendios forestales. Los datos de teledetección utilizados en el presente trabajo provienen de series temporales de foco activos o anomalías térmicas detectadas por el sensor MODIS y AVHRR en la detección de puntos de calor se utilizan las bandas térmicas que tienen una resolución espacial de 1 km por 1 km en el nadir.
Se elaboró la cartografía de los puntos de calor asociados a los incendios forestales presentados en la región de estudio, con el fin de generar una interpretación temporal y espacial, posteriormente se identificó una posible asociación con la calidad del aire presentada en el periodo del análisis de datos.
CONCLUSIONES
Para el año 2018 la localidad con mayor concentración de PM2.5 fue Las Juntas con 184,3 μg/m3 y la menor concentración fue en La API, El Coapinole, La Marina y Las Juntas con 0 μg/m3, igualmente la concentración máxima de PM10 se registra en Las Juntas con 445 μg/m3 y las concentraciones mínimas se registran en La API, El Coapinole, La Marina y Las Juntas con 0 μg/m3.
Para el año 2019 la localidad con mayor concentración de PM2.5 fue Las Juntas con 67,3 μg/m3 y la menor concentración fue en San Vicente y Mezcales con 2,1 μg/m3, la concentración máxima de PM10 fue en Ixtapa con 562,7 μg/m3 y la mínima se registra en San Vicente con 7,8 μg/m3.
Las concentraciones elevadas de PM no tienen relación alguna con patrones naturales por lo que se puede concluir que las concentraciones tanto de PM10 como de PM2.5 están dadas por fuentes de emisiones antropogénicas, asociadas al crecimiento urbano, la deforestación y los incendios forestales provocados. Estos efectos antropogénicos podrían incidir en la salud humana, ya que los impactos negativos ocurridos en el ambiente como los incendios forestales, se derivan directamente del crecimiento exponencial, afectando la calidad del aire y la calidad de vida en las zonas costeras, como se presenta en la zona metropolitana de Puerto Vallarta.