Área I: Física, Matemáticas y Ciencias de la Tierra
Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas
Asesor:Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas. Arroyo Cordova José, Universidad Autónoma de Chiapas. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
PLANTEAMIENTO DEL PROBLEMA
Nuevas estructuras, materiales y diseños han sido la fuerza impulsora para nuevos dispositivos fotónicos que pueden ser aplicados en bioquímica, energía solar eficiente, imágenes de súper alta resolución, información y computación cuántica, entre otras tecnologías emergentes. Sin embargo, en diversos contextos, la fabricación y uso de los dispositivos y materiales están limitados por sus propiedades físicas y químicas, o aspectos logísticos como disponibilidad y costo.
Muchas leyes fundamentales se han generalizado en estos medios estructurados y, en consecuencia, prometen una amplia gama de aplicaciones importantes. Por ejemplo, los cristales fotónicos pueden realizar bandgaps fotónicos completos, de modo que la luz pueda transmitirse alrededor de una curva cerrada rodeada de tales cristales con una eficiencia casi perfecta. Estos efectos son logrados a través de la elección adecuada de materiales, así como de su distribución en el espacio.
Hasta ahora, hay dos enfoques de diseño principales. El primero es recurrir a métodos basados en la física, como el análisis analítico simplificado modelos matemáticos o condiciones experimentales obtenidas de condiciones particulares de experimentación o la intuición. El segundo, está basado en la simulación numérica generalmente enfocada a la optimización. Sin embargo, a menudo es necesario ajustar la geometría o condiciones de la simulación para que se acerque a respuestas específicas y a la realidad experimental.
Como alternativa se propone el uso de metodologías de aprendizaje profundo que permiten incorporar un modelo computacional compuesto por múltiples capas de unidades de procesamiento para aprender múltiples niveles de abstracción de datos. Este enfoque ha tenido un éxito en el procesamiento natural de lenguaje, reconocimiento de voz y análisis de imágenes, lo que ha atraído atención en diversas disciplinas incluidas la óptica y fotónica.
En el presente proyecto se implementa un algoritmo genético que resuelve el problema inverso de reflectores unidimensionales de amplio espectro de combinación de diversos materiales para obtener configuraciones de capas no ordenadas cuya respuesta óptica se asemeje a las configuraciones ordenadas convencionales.
METODOLOGÍA
Para la simulación de la respuesta óptica de estructuras fotónicas unidimensionales (1DPC) es necesario tener los valores del índice de refracción y coeficiente de extinción de diversos materiales en el rango espectral de trabajo. Los índices de refracción y coeficientes de extinción utilizados en estas simulaciones fueron obtenidos a través de una colección y recopilación de investigaciones, artículos y experimentos. Con el objetivo de homogeneizar la base datos de constantes ópticas de materiales, los datos fueron catalogados de acuerdo con el rango espectral, y se generaron nuevos valores homogéneos en el rango de 200 a 1100 nm cada 1 nm utilizando el método de interpolación spline cúbico.
Los algoritmos genéticos son principalmente algoritmos adaptativos o de búsqueda, usados generalmente en la optimización de parámetros del modelo en cuestión, tomando como premisa la idea de la selección natural. Tomando una población aleatoria, en la cual cada individuo representa una posible solución al modelo, esta población cambia de acuerdo con las necesidades propuestas, por lo que el algoritmo toma un conjunto de valores numéricos que conforma los cromosomas que mejor se adaptan para continuar con la con la evolución de la población, eligiendo a los hijos más aptos al cruzar o combinar los cromosomas de los padres. Sin embargo, es posible llegar a un estancamiento en la búsqueda de los parámetros más aptos, por lo que se implementa un proceso evolutivo llamado mutación, causante de que los cromosomas en la descendencia sean diferentes a los de los padres, logrando así evitar el estancamiento además de encontrar una mejor solución en comparación con la población inicial.
En este trabajo se utilizó GA para obtener 1DPC que se ajustaran a una respuesta de reflexión. El GA utiliza la lista de espesores de cada capa como el parámetro de estructura o cromosoma. Cada cromosoma posee un error asociado a la reflexión deseada. Operadores, como mutación y selección, fueron utilizados para minimizar el error. El error está definido como el error cuadrático medio.
Antes de comenzar el GA se establece el número de capas y los materiales a utilizar. El GA comienza creando una población inicial de N miembros, cada uno con una lista de espesores aleatorios. A partir de estos valores iniciales se calcula la estructura 1DPC y el error asociado para cada cromosoma. Posterior a estos pasos, el GA busca el cromosoma mejor adaptado utilizando procesos de entrecruzamiento y mutación.
CONCLUSIONES
La presente investigación ha logrado generar y probar un algoritmo genético que genera la configuración de espesores de capas de 1DPC que optimiza la reflectancia de la estructura en un rango espectral especifico. El algoritmo encontró configuraciones de capas no ordenadas cuya reflectancia se aproxima a las configuraciones ordenadas tradicionales, indicando que la respuesta óptica de este tipo de estructuras no es única. Los espectros generados a través del algoritmo genético también representan una base de datos de respuestas ópticas de diversas configuraciones de materiales y capas 1DPC que puede ser utilizada para el entrenamiento de algoritmos de aprendizaje profundo más complejos, como los basados en redes generativas antagónicas (GAN) o redes neuronales totalmente conectadas, que permitan generar nuevas configuraciones no ordenadas de 1DPC. Posterior a este trabajo, se buscará formar una base de datos de respuestas ópticas y configuraciones de cristales fotónicos de mayor volumen para ser donada a la UCI Machine Learning Repository.
Aguilar Angulo Ulises Azael, Universidad de Guadalajara
Asesor:Dr. Marco Antonio Meneses Nava, Centro de Investigaciones en Óptica (CONACYT)
SIMULACIóN DE LA INTERACCIóN DE RADIACIóN ELECTROMAGNéTICA CON NANOPARTíCULAS METáLICAS.
SIMULACIóN DE LA INTERACCIóN DE RADIACIóN ELECTROMAGNéTICA CON NANOPARTíCULAS METáLICAS.
Aguilar Angulo Ulises Azael, Universidad de Guadalajara. Asesor: Dr. Marco Antonio Meneses Nava, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Hacer simulaciones mediante cálculo numérico para ver el comportamiento de plasmones de superficie en nanopartículas metalicas y cómo serviría para la espectroscopía LIBS.
METODOLOGÍA
Se utilizó Matlab como software de simulación. Durante la primera semana de la investigación se realizó una breve introducción para el manejo del software, hacer un diagnóstico de mi experiencia y habilidad con este mismo, y familiarizarme con los comandos necesarios para desarrollar la investigación.
Se instaló un toolbox desarrollado por una universidad de E.U. para realizar cálculos sobre las propiedades de absorción, y dispersión de los plasmónes en nanopartículas de plata (Ag) y oro (Au) simulando que se utiliza un láser de radiación continua.
Los cálculos se realizaron en la segunda semana de la investigación, inicialmente para una sola nanoesfera de Ag con un diámetro de 10nm. Posteriormente, haciendo las modificaciones correspondientes en el código, se realizaron los cálculos variando los diámetros de la nanoesfera desde 20nm hasta 50nm con intervalos de 10nm para encontrar la dependencia de frecuencia plasmónica con el diámetro de la nanopartícula. Este mismo procedimiento se repitió para los cálculos con nanoesferas de Au.
En la tercera semana nuevamente de hicieron modificaciones al código para que el toolbox pudiera hacer los cálculos para todos los tamaños de partícula simultáneamente; sin embargo, los cálculos para cada material continuaron realizándose individualmente. Una vez logrado lo anterior se añadieron los comandos necesarios al código para que este mostrara las gráficas de absorción y sus puntos máximos en una sola imagen.
Los cálculos para encontrar la intensidad del campo y la resonancia del plasmón con sus respectivas gráficas dependientes del tamaño de partícula se llevaron a cabo durante la cuarta semana de la investigación.
En el periodo de la quinta semana se utilizó como base un código distinto al que se había estado utilizando, pero perteneciente al mismo toolbox. Esto para realizar los cálculos con dos nanoesferas, los cuales se realizaron primero con nanopartículas de Ag de 50nm de diámetro con separaciones desde 0.5nm hasta 5nm con intervalos de 1nm. En esta etapa también se calculó la absorción, intensidad del campo, y resonancia la resonancia de los plasmónes, pero en esta ocasión, con el fin de encontrar la dependencia de la frecuencia plasmónica con el número de nanopartículas y su distancia de separación. Para las nanopartículas de Au se repitió este mismo procedimiento.
La sexta y séptima semanas de la investigación se dedicaron completamente a la elaboración de una presentación contemplando la participación en el congreso, en la que se incluyen los resultados obtenidos; también se elaboró el resumen de la investigación realizada durante la estancia del programa delfín XXVI-2021.
Cabe mencionar que todas las actividades fueron guiadas y asesoradas por el Dr. Meneses Nava Marco Antonio, quien es además el investigador encargado de mi estancia. Así como cada una de las actividades fueron evaluadas y se realizaron las observaciones y correcciones necesarias para obtener los resultados esperados.
CONCLUSIONES
Los códigos para los cálculos de una sola partícula y para dos partículas se guardaron en scripts separados. En el caso del script de una sola partícula, se muestran gráficas que permiten interpretar mejor los cálculos mencionados, los cuales muestran los comportamientos esperados para todos los tamaños de partícula y, así mismo, la variación de los valores de estas propiedades en dependencia del tamaño de la partícula.
Sucede lo mismo en el caso del script de dos partículas, por lo que concluimos que las simulaciones realizadas funcionan de manera eficiente.
Estas simulaciones ayudan a mejorar el diseño de un nanodispositivo, tanto en la selección del material como en sus características, aprovechando las que sean más útiles según las propiedades deseadas para un proyecto determinado, lo cal, ahorra bastantes recursos de una investigación aumentando la eficiencia de la misma.
Es posible comparar estos resultados con los experimentales sobre la dependencia de concentración y caracterización de las nanopartículas.
Aguilar Chávez Alejandra, Universidad de Colima
Asesor:Dra. Katrin Sieron, Universidad Veracruzana
ANáLISIS ESPACIAL DE VOLCANES DEL CAMPO VOLCáNICO MASCOTA, EN EL OCCIDENTE DE MéXICO
ANáLISIS ESPACIAL DE VOLCANES DEL CAMPO VOLCáNICO MASCOTA, EN EL OCCIDENTE DE MéXICO
Aguilar Chávez Alejandra, Universidad de Colima. Asesor: Dra. Katrin Sieron, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
El Campo Volcánico Mascota (CVM) se ubica dentro del Bloque de Jalisco (oeste de México) entre el Eje Volcánico Transversal (TMVB por sus siglas en inglés) y Sierra Cacoma (García-Ruíz et al., 2017). El CVM ocupa la parte oeste de la TMVB que contienen vulcanismo principalmente asociado a procesos de subducción (Bandy et al., 2001; García-Ruíz et al., 2017).
El CVM representa uno de los campos volcánicos de México con menos estudios realizados y que, dentro de su área, se encuentran algunos municipios potencialmente expuestos a peligros volcánicos. Debido a esto, en la investigación realizada durante el verano de investigación se llevó a cabo un análisis espacial para conocer la distribución geográfica de los volcanes, las zonas donde se encuentran la mayor concentración de éstos y las zonas en las que se encuentran los volcanes con actividad más reciente. Todo lo anterior es la suma de lo necesario para conocer cuáles zonas son más susceptibles al nacimiento de un nuevo volcán.
METODOLOGÍA
Con publicaciones previas de Lange y Carmichael (1996), Ownby et al. (2008) y García-Ruíz et al. (2017) se hizo una extracción de información relevante para desarrollar la investigación en la cual, se tomaron coordenadas geográficas de muestras tomadas para fechamientos, química, entre otros, de los productos asociados a los volcanes que se ubican dentro del CVM. Con lo anterior se dio paso a digitalizar estas ubicaciones de las muestras en el software Google Earth Pro de acceso libre, mismo que fue utilizado para la identificación de los volcanes, en su mayoría del tipo cono de escoria, de los que los productos fechados emanaron y otros conos perceptibles.
En cuanto a la realización de productos para conocer la distribución geográfica de los volcanes, las coordenadas geográficas que manejaron los autores Ownby et al. (2008) y Lange y Carmichael (1996) se encontraban en formato grados, minutos y segundos. Para facilitar la lectura y trabajo fueron convertidas a coordenadas UTM con el software de acceso libre Calculadora Geodésica Utm<>Geo.
Después, en Hojas de cálculo de Google y Excel, se realizó una tabla que con 4 columnas y 70 filas, donde las 4 columnas incluyeron:
Volcán, los cuales fueron numerados del 1 al 70,
Latitud, en coordenadas UTM,
Longitud, en coordenadas UTM,
Edades, relativas obtenidas con las muestras y lavas fechadas previamente.
Dicho documento fue exportado en formato .CSV (Comma Separated Values) el cual, es soportado por el software R de libre acceso, donde se maneja un lenguaje de programación con enfoque en análisis estadístico.
Para realizar el primer producto, que es una gráfica de Densidad de Kernel, se definió la primera variable que lleva el nombre de datos, donde se ingresaron diferentes comandos que permiten la lectura del documento.
Para generar el gráfico de Densidad de Kernel, dentro de la atmósfera de R, se pueden instalar paquetes que realizan acciones específicas. Por lo que, para generar el Kernel se ingresaron comandos que instalan y corren el paquete necesario para generar la gráfica de distribución geográfica espacial (densidad de Kernel) de los volcanes dentro del CVM.
Para realizar el segundo producto, se utilizó el comando de ggplot2, el cual también es un paquete que debe ser instalado dentro de R. Con la suma de diferentes comandos obtenemos como resultado el segundo gráfico, el cual muestra en diferentes colores las zonas donde se encuentran ubicados los volcanes viejos, de mediana edad y los más jóvenes.
CONCLUSIONES
Los resultados obtenidos nos muestran que los volcanes que han tenido erupciones más recientes, tienen una edad aproximada igual o menor a 10,000 años y que éstos se encuentran al este del municipio Mascota. Los grupos en los que se clasificaron los volcanes fueron cinco: volcanes no fechados, volcanes igual o menores a 100,000 años, volcanes igual o entre 100,000 y 500,000 años, volcanes igual o entre 500,000 y 2,000,000 años y volcanes mayores a 2,000,000 años.
Además, con el análisis espacial realizado en los distintos programas se logró visualizar que la mayoría de los volcanes dentro del campo son conos de escoria. Dentro del campo existen algunas zonas que cuentan con mayor densidad de conos de escoria, donde se forman varios grupos de volcanes que rondan entre las 3 y 5 estructuras geológicas.
Lo obtenido muestra que una de las zonas más susceptibles al nacimiento de un nuevo volcán es la que se encuentra cerca del municipio Mascota y los pueblos que rodean las cadenas montañosas que se encuentran en ese radio.
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre vulcanismo monogenético y llevarlos a la práctica con el apoyo de diferentes softwares de acceso libre que permiten el análisis espacial y estadístico.
Los resultados que se obtuvieron son muy generales y realizados únicamente con los recursos que se tenían disponibles en línea; puesto que el tiempo de estancia en un verano de investigación es muy corto, nos deja muchas puertas abiertas para continuar con el análisis en futuros trabajos dentro del CVM.
Aguirre Cholico Eduardo Ramiro, Universidad de Guadalajara
Asesor:Dr. José Trinidad Ulloa Ibarra, Universidad Autónoma de Nayarit
DISEñO DE APRENDIZAJE
DISEñO DE APRENDIZAJE
Aguirre Cholico Eduardo Ramiro, Universidad de Guadalajara. Flores Macías Antonio, Universidad de Guadalajara. Asesor: Dr. José Trinidad Ulloa Ibarra, Universidad Autónoma de Nayarit
PLANTEAMIENTO DEL PROBLEMA
¿Quién no ha escuchado alguna vez la frase: otro día más sin usar el mínimo común múltiplo (u otra frase que haga alusión a algún conocimiento matemático)? Es una realidad que uno de los principales problemas que existen en la enseñanza de las matemáticas es la incapacidad de ver la relación que tiene su aprendizaje con respecto a su uso en la vida cotidiana.
Los modelos de aprendizaje para la matemática llevan años sin ser cuestionados poniendo en evidencia que pareciera de mayor importancia para los alumnos el memorizar datos para pasar un examen dejando de lado la gran importancia que es el comprender el uso que le pueden dar a la misma. Además, por si fuera poco, la pandemia a causa del COVID-19 ha dejado a muchos estudiantes sin el apoyo que brindaba tener a su maestro a un lado para exponer sus dudas, es por eso, que se necesitan crear modelos de aprendizaje que sean respuesta a la diversidad, considerando que todos los estudiantes independientes de sus características personales debe tener las mismas oportunidades para aprender, planteando un cambio de paradigma respecto al derecho que cada individuo tiene para participar y progresar en la escuela, minimizando las barreras para el aprendizaje existentes en los curriculums tradicionales.
Es por eso que, con el apoyo de simuladores por parte de PhET Interactive Simulations (https://phet.colorado.edu/es/) pretendemos crear modelos que permitan integrar de manera eficaz lo antes mencionado, donde el alumno tenga el crecimiento personal y académico que merece, buscando que en un futuro las frases comiencen con un: un día más usando….
METODOLOGÍA
Se planea hacer un diseño universal para el aprendizaje de temas relacionados con matemáticas, cuyo objetivo primordial es dar respuesta educativa a la diversidad presente en el aula.
Para diseñar este modelo se planea utilizar el método de aprendizaje basado en problemas (ABP). Es un método de enseñanza-aprendizaje centrado en el estudiante en el que éste adquiere conocimientos, habilidades y actitudes a través de
situaciones reales. Su finalidad es formar estudiantes capaces de analizar y enfrentarse a los problemas tangibles.
Se utilizaran simuladores que recrean situaciones reales, dando otro enfoque al análisis de un problema matemático. Tambien se van a utilizar sensores para recolectar datos y poder hacer comparaciones con los datos obtenidos mediante la simulación y con el modelo creado mediante el proceso matemático.
A partir de los simuladores, se hace el diseño de aprendizaje, en el cual se comienza con la descripción del simulador para que este pueda ser manipulado de manera eficiente. Luego se busca recolectar datos del mismo, para después comenzar a hacer uso de la matemática y poder inferir sobre los mismos, esto con el objetivo de evidenciar la utilidad que tienen las matemáticas en el día a día.
CONCLUSIONES
A partir del diseño de aprendizaje propuesto en la metodología, se pondrá en práctica con alumnos del nivel educativo correspondiente. En nuestro caso serán alumnos de nivel preparatoria, para los cuales se tiene preparado una actividad que implica el uso de un simulador para calcular el pH existente en una solución y como este varia con respecto al ir añadiendo agua, esto con la finalidad de logar una aproximación de modelo lógistico. De ser posible, se tiene la intención de llevar la investigación a su máxima instancia para poder concluir en la publicación de un artículo en una revista, en el cual podamos exponer los resultados y conclusiones al respecto.
Alvarado Garduño Omar, Instituto Politécnico Nacional
Asesor:Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
Alvarado Garduño Omar, Instituto Politécnico Nacional. Bryant Morales Francisco Seneca, Universidad de Guadalajara. Monroy Rodríguez Megan Ixchel, Instituto Politécnico Nacional. Asesor: Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Un continuo es un espacio métrico, compacto, conexo y no vacío. Dados un continuo X y un número natural n, denotamos por Fn(X) a la familia de todos los subconjuntos de X no vacíos con a lo más n puntos. El conjunto Fn(X) puede ser dotado de diferentes topologías, en este caso, lo dotaremos de la topología inducida por la métrica de Hausdorff con la cual resulta ser un continuo.
Ya en el 2003 se estudió aquellos continuos X para los cuales F2(X) puede ser encajado en IR3 utilizando técnicas avanzadas de las matemáticas, logrando una caracterización dentro de la clase de los continuos localmente conexos: si un continuo tiene como subespacio un continuo H o un continuo con un n-odo (punto del cual salen n caminos los cuales solo se intersectan en dicho punto), donde n es mayor o igual a 5.
Se plantea dar una prueba alternativa al problema anterior, además de presentar una prueba completa que justifique que el segundo producto simétrico del continuo ocho es encajable en dichos espacios (al hacerlo sería el continuo más grande tal que su segundo simétrico se puede encajar en IR3).
METODOLOGÍA
Reuniones de manera virtual por la plataforma Meet, en donde se discutió el tema, se presentaron los resultados previos, se analizó la bibliografía de consulta y hubo discusión de ideas que permitieron dar solución a los problemas planteados en el proyecto.
De ser posible, presentar los resultados originales en eventos de difusión como congresos y talleres por alguno de los participantes en el proyecto. Se escribirán los resultados originales en formato de artículo para su posible publicación, con una redacción cuidadosa y rigurosa.
CONCLUSIONES
Se logró adquirir un conocimiento básico sobre la teoría de continuos y sus hiperespacios.
En cuanto a los objetivos propuestos solo se cumplió uno en su totalidad: dar una representación geométrica para el segundo producto simétrico de la figura ocho, la cual resulta ser un toroide a la cual «pegamos» dos bandas de Moebius en sus hemisferios. Para asegurar el encaje (que las bandas y el toroide no se intercepten entre sí), se encontró la expresión analítica para las bandas de Moebius dentro y fuera de un cilindro.
En cuanto al resto de demostraciones, se revisó un artículo el cual solucionaba de manera eficiente el problema del continuo H y solo se han obtenido ideas para el continuo con algún subespacio homeomorfo a un 5-odo.
Alvarado Lopez Israel Alonso, Universidad de Guadalajara
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
APLICACIóN DEL PROCESO DE DIAGONALIZACIóN A LOS SISTEMAS DINáMICOS PARA ESTUDIAR LOS CIRCUITOS
DE RLC
APLICACIóN DEL PROCESO DE DIAGONALIZACIóN A LOS SISTEMAS DINáMICOS PARA ESTUDIAR LOS CIRCUITOS
DE RLC
Alvarado Lopez Israel Alonso, Universidad de Guadalajara. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Los sistemas dinámicos están presentes en muchos fenómenos humanos, tanto físicos, como químicos, biológicos,
sociales, etc. Cada modelo de un sistema dinámico es muy particular, debido a ello es que se necesita de una amplia gama
de métodos para resolverlos, pues, al ser tan distintos uno de otro resulta prácticamente imposible encontrar un método el cual funcione bien para encontrar la solución de todos los sistemas.
Se busca la forma en cómo se aplica el proceso de diagonalización de matrices, esto para resolver el sistema din´amico asociado a un circuito el´ectrico RLC en serie. Si bien se busca aplicar el método a un modelo particular, como lo es el sistema dinámico asociado al circuito eléctrico RLC en serie, el mismo proceso puede ser aplicado a otros sistemas en los que el modelo asociado cumpla ciertas condiciones.
METODOLOGÍA
Para desarrollar el método es necesario conocer la relación de semejanza de matrices, la cual nos dice que una matriz es diagonalizable si es semejante a una matriz diagonal. Ahora bien, para comprobar si una matriz se puede diagonalizar de manera sencilla, basta con comprobar algunos aspectos como la independencia lineal de vectores propios de la misma.
Después, se estudio en que consiste un sistema dinámico y como están clasificados los mismos dependiendo la forma del modelo asociado. Dado que usualmente el modelo está descrito por una ecuación diferencial de orden mayor, es necesario saber el cómo convertir una ecuación diferencial de orden superior en un sistema diferencial de ecuaciones, esto pues el proceso de diagonalización se aplica a la matriz asociada a un sistema de ecuaciones diferenciales asociado al modelo.. Más adelante, se aplicó el proceso de diagonalización al método variación de parámetros usando la matriz exponencial tal como se hace mención en el libro Algebra lineal y sus aplicaciones, para resolver el sistema de ecuaciones diferenciales lineal no homogéneo de coeficientes constantes asociado a un sistema dinámico.
Posteriormente, se modeló el sistema dinámico asociado al circuito RLC a partir del análisis de componentes obtenido del libro sistemas din´amicos en tiempo continuo, Manuel Ortiz realiza el análisis tomando en consideración las leyes físicas adecuadas, tales como las leyes de Kirchhoff y de Ohms, se planteo el modelo partiendo de la malla en serie, misma que usó Manuel Ortiz, así haciendo uso de la segunda ley de Kirchhoff. Se obtuvo una ecuación diferencial de segundo orden no homogénea con coeficientes constantes mismos que son determinados por las magnitudes arbitrarias R, L y C, de los componentes en el circuito. Después, a la ecuación diferencial obtenida se le aplicó al proceso para convertirla en un sistema de ecuaciones diferenciales lineal de dos ecuaciones no homogéneo en el cual su matriz asociada
es de tamaño 2x2 y sus entradas son constantes.
Dado que el sistema diferencial asociado al modelo obtenido cumple con las condiciones para poder diagonalizarlo, se puede proceder a calcular los valores y vectores propios de la matriz asociada. Después se verificó que los vectores propios obtenidos sean linealmente independientes, dado que lo son, se creó la matriz no singular de semejanza, misma que fue usada para diagonalizar la matriz asociada al modelo y calcular la matriz exponencial necesaria en el método de variación de parámetros, una vez obtenida la matriz exponencial se sustituyó directamente en la fórmula dada por el
método.
CONCLUSIONES
Se finalizó la investigación abordando un ejemplo aplicado del modelo con magnitudes dadas, las cuales podrían describir un circuito eléctrico físico, como solución al problema, se solicito la corriente de salida del capacitor. La matriz asociada a el sistema con las magnitudes dadas resulto tener dos valores propios complejos distintos, por lo que sus vectores propios son linealmente independientes con entradas complejas, y por ello es posible diagonalizar la matriz del sistema, después se cálculo la matriz exponencial con la matriz diagonal obtenida y se sustituyó en la formula del método para obtener la solución del sistema, y finalmente se extrajo la información requerida por el
problema planteado.
Se puede concluir que, si bien el proceso de diagonalización facilita algunos cálculos como el de la matriz exponencial, este procedimiento requiere ciertos aspectos que limitan el alcance para la resolución de algunos sistemas usando este método, pues es necesario que la matriz asociada sea de entradas constantes y que sus vectores propios sean linealmente independientes, en caso contrario, se deben buscar otras herramientas conceptuales o teóricas para determinar si la matriz es diagonalizable o no. Una consideración más, es que el método planteado requiere del cálculo de los valores y vectores propios de la matriz asociada, proceso que se vuelve cada vez más arduo cuando el tamaño de la matriz asociada va incrementando. Finalmente, se reconoce el alcance del proyecto y quizá en futuras investigaciones se podría extender a una mayor profundidad tomando en cuenta un análisis de el discriminante al momento de calcular los valores propios de
manera general para poder crear y resolver el modelo en otro tipo de mallas, séase en paralelo o en serie con un mayor número de componentes.
Alvarez Ascencio Luis Gustavo, Universidad de Guadalajara
Asesor:Dra. Berta Gamboa de Buen, Centro de Investigación en Matemáticas (CONACYT)
ALGUNAS PROPIEDADES DE LOS ESPACIOS DE BANACH QUE IMPLICAN LA PROPIEDAD DE PUNTO FIJO
ALGUNAS PROPIEDADES DE LOS ESPACIOS DE BANACH QUE IMPLICAN LA PROPIEDAD DE PUNTO FIJO
Alvarez Ascencio Luis Gustavo, Universidad de Guadalajara. Asesor: Dra. Berta Gamboa de Buen, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Buscar condiciones suficientes para que un espacio de Banach tenga la propiedad del punto fijo. Para ello se estudiarán las propiedades fundamentales de los espacios de Banach.
METODOLOGÍA
Revisión de textos sobre espacios de Banach y sobre la propiedad del punto fijo en estos espacios. Solución de los ejercicios sugeridos en estos textos. Exposición de algunos resultados en las sesiones de trabajo. Asistencia a las sesiones de trabajo.
CONCLUSIONES
Se probará que los espacios de Banach uniformemente convexos o con estructura normal, tienen la propiedad de punto fijo para operadores no expansivos. En particular, se probará que los espacios lp la tienen.
Amador Peralta Eyner Josue, Universidad Nacional de Ingeniería
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
SISTEMAS DINáMICOS MATRICIALES APLICADOS A FENóMENOS DE MOVIMIENTO ARMóNICO SIMPLE DE SISTEMAS MASA-RESORTE.
SISTEMAS DINáMICOS MATRICIALES APLICADOS A FENóMENOS DE MOVIMIENTO ARMóNICO SIMPLE DE SISTEMAS MASA-RESORTE.
Amador Peralta Eyner Josue, Universidad Nacional de Ingeniería. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
El estudio de las matemáticas puras es una temática bastante amplia que abarca demasiadas áreas y se relaciona con muchas ciencias, siempre se puede plantear una fórmula matemática para describir algún proceso que esté ocurriendo en cualquier ambiente o sistema funcional, siempre y cuando se plantee el estudio necesario para demostrar matemáticamente como funciona o se declara dicho proceso a mostrar.
El modo para describir de manera matemática un fenómeno físico como lo es el sistema masa-resorte el cual puede estar unido en cualquier componente mecánico o dinámico, es en forma de ecuaciones diferenciales cuya resolución por métodos habituales describirá las características del movimiento del sistema en cualquier intervalo de tiempo; pero esta forma de resolución se plantea como la única manera de determinar una respuesta segura, por lo que a lo largo del verano de investigación se estudiara una manera distinta de plantear soluciones al modelo matemático, el cual se basará en el uso de métodos matriciales para resolver dicha ecuación sin necesidad de acudir a los métodos para una ecuación diferencial en específico, y así dejar por escrito una solución general que demuestre dicho planteamiento.
METODOLOGÍA
El proceso de la investigación fue relativamente sencillo pero delicado cuando de pasos a seguir se habla, por lo que todo se basó en la búsqueda de material bibliográfico que fundamentará los diferentes procesos, definiciones y teoremas matemáticos que se procederían a usar durante el proceso de resolución para demostrar el planteamiento antes mencionado.
Al tratarse de métodos matriciales, se comenzó a recopilar información sobre espacios vectoriales, específicamente en el uso de combinación e independencia lineal, ya que son características necesarias que tienen que cumplir los valores y vectores propios de una matriz, se continua explicando cómo es el proceso de obtención de los valores y vectores propios y su relación con lo que es la diagonalización de una matriz, aspecto fundamental de la propuesta de resolución que se plantea en esta investigación.
El proceso de diagolizacion se describe según todos los conceptos que se deben de tomar en cuenta junto con una pequeña lista de pasos de cómo obtenerla como respuesta. Todo lo planteado con vectores y matrices son pasos necesarios que se deben realizar, y por ende se plasman en la investigación para así tomar en cuenta al momento de plantear el sistema dinámico.
Se prosigue al planteamiento de lo que es un sistema dinámico y en que consiste este, siendo la mecánica principal de nuestra investigación el relacionar la formulación de un sistema dinámico basado en un sistema de masa-resorte y aplicarle métodos de resolución usando las propiedades de diagonalización de una matriz, por lo que también se plantea como se resuelven un sistema de ecuaciones diferenciales utilizando métodos matriciales y las propiedades de diagonalización, mostrando una solución general en forma vectorial para dicho caso.
Toda esta bibliografía recolectada sirve de base para entender cómo se procedería en la determinación de una solución para el sistema buscado, por lo que se procede a plantear cómo funciona la ecuación diferencial que describe el sistema masa-resorte, y como se necesitaría que funcionase el sistema para poder aplicar la resolución por medio de diagonalización lo cual se logra plasmar en el documento de la investigación.
Una vez descrito los pasos matemáticos que se tienen que efectuar, se procedió a plantear un ejemplo numérico para verificar el uso de las formulas obtenidas mediante el proceso investigativo, el cual se logró comprobar de manera eficaz su resolución.
CONCLUSIONES
Durante le estancia del verano se logró recopilar toda la información que se solicitaba buscar para la demostración matemática del método de resolución por diagonalización, dando por concluido un resultado satisfactorio de lo que se quería obtener, esta comprobación determina que puede usarse un método diferentes para resolver casos de sistemas dinámicos además del habitual, por lo que también podría aprovecharse para su aplicación o planteamiento meramente académico y pulir de conocimiento a nuevos estudiantes.
Ambriz Hernández Luz Janeth, Instituto Tecnológico de Toluca
Asesor:Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PESCA SOSTENIBLE EN EL GOLFO DE CALIFORNIA, MéXICO.
PESCA SOSTENIBLE EN EL GOLFO DE CALIFORNIA, MéXICO.
Ambriz Hernández Luz Janeth, Instituto Tecnológico de Toluca. Asesor: Dr. Joan Manuel Redondo Ortegón, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
En los últimos años hemos visto que el ecosistema marino ha sufrido daños irreparables que ha costado la vida submarina como hasta ahora se conocía. Uno de los problemas que más han cambiado los ciclos naturales del océano son los tipos de pesca que existen, por ejemplo, encontramos la pesca de arrastre y dragado, actividades que se caracterizan por un alto impacto ambiental por distintos factores: degradación del hábitat, pescas incidentales o accesorias, sobrepesca, contaminación, entre otros. Existe documentación de que la pesca de arrastre genera un impacto negativo no solo al momento de pescar, si no en diferentes aspectos.
El Golfo de California es una zona pesquera muy productiva cuyas especies objetivo son el camarón y la escama demersal. En esta zona se encuentran 2 estados que operan con pesca de arrastre: Sonora y Sinaloa. Aunado a esto, este lugar enfrenta otra situación por la pesca ilegal de la vaquita marina y la totoaba.
METODOLOGÍA
Durante el mes de estancia de investigación, se desarrollaron actividades por semana, las primeras dos semanas me introduje a la dinámica de sistemas por medio de un curso y replica de ejercicios que abordan temáticas con problemas ambientales como la población de cierta especie, la degradación de un hábitat, entre otros.
Para las dos semanas posteriores, planteamos el tema: Pesca sostenible; nos encargamos de la revisión del estado del arte sobre este tema y con ayuda de una matriz de decisión determinamos que factores podían influir en el tema. La matriz de decisión contiene las siguientes preguntas:
¿Qué es sostenibilidad en la pesca para el autor?
¿Qué es la pesca ética o responsable?
¿Cómo define la pesca regenerativa?
¿Cuáles son las amenazas a las que se enfrenta la pesca sostenible?
¿Cómo hacen evaluaciones de la sostenibilidad en la pesca?
¿Cuál es el resultado, en términos de sostenibilidad de la pesca, más importante que presenta el autor?
Posteriormente añadí una columna más con la siguiente pregunta, esto dado a qué no todos los artículos contestaban las preguntas, pero si tenían información de factores que podían influir en la pesca sostenible.
¿Cómo puede ayudar a la investigación?
La siguiente semana desarrollamos un mapa en donde ilustrábamos cuáles eran los factores que afectaban a la pesca sostenibles y delimitamos la investigación al Golfo de California, de esta manera una vez terminado el mapa, observé qué factores si se cumplían en esta zona. Los siguientes fueron los factores iniciales.
Contaminación: turismo, plástico, micro plástico y crisis climática.
Pesca de arrastre: acidificación oceánica, daño a los arrecifes, pesca incidental, regeneración, cambios naturales en el ecosistema y sobrepesca
Seafood: alternativas como dietas veganas, pescado a base de fibras orgánicas y otro tipo de pesca.
Pesca ilegal
Piscicultura
Intereses propios: extracción de hidrocarburos, parques marinos, pseudo-organizaciones, negocios ilegales, economía, consumo y costumbres.
De estos solo aplicaron; pesca de arrastre, pesca ilegal, consumo, acidificación oceánica, pesca incidental, cambios naturales en el ecosistema y regeneración. Aunado a esto, se recabaron datos como el aumento de la temperatura por cambio climático, las especies que son capturadas incidentalmente cuando se pesca la especie objetivo, la tasa de área arrastrada, la tasa de incremento de la población de camarones y la población inicial de estos, así como la acidez del mar. Esta información fue obtenida de distintas entidades gubernamentales como la INAPESCA, SEMARNAT, SEGARPA y el CONACYT acerca de la pesca y efectos que ha tenido.
Una vez obtenidos estos datos, junto con el asesor, desarrollamos la simulación en Vensim, que nos permitió jugar con los valores para obtener distintos resultados y dar una solución.
CONCLUSIONES
Al momento de hacer la simulación obtuvimos como conclusión que, si se sigue con este consumo y con la falta de administración de los recursos marinos, para años posteriores al 2021 habrá una significante pérdida del hábitat que no nos dejará pescar hasta que de nuevo se regenere. En contra parte, si solo reducimos las tasas de extracción por pesca ilegal y de extracción por pesca de arrastre, la población de camarones se regenerará hasta 30 décadas después (esto dado a que no habría que pescar, por lo que bajan otros aspectos como la pesca incidental). También observamos que el factor que más afecta a la reproducción de la fauna es el arrastre oceánico. Si bajamos esta tasa, junto con las dos tasas mencionadas y el factor de la temperatura gradual por el cambio climático, la población de camarones se regenera más rápido que si no lo hacemos. Esto deja al descubierto que este método de pesca y todo aquel que implique la destrucción del hábitat, debe ser cambiado o mejorado y, por supuesto, la continuidad de la pesca y la pesca incidental, ya que, al crecer la cantidad de camarón y no mejorar estos últimos factores, estaremos envueltos en el mismo ciclo en el que crece la pesca incidental, baja la capacidad de soporte del ecosistema y los recursos para el sostenimiento. Es decir, debe ser resuelto de manera integral.
Andrade Alvarez Karen Eunice, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE CORCHO COMO IMPERMEABILIZANTE QUE ADEMáS PERMITE EL DISEñO DE
UNA AZOTEA VERDE.
PROTOTIPO DE CORCHO COMO IMPERMEABILIZANTE QUE ADEMáS PERMITE EL DISEñO DE
UNA AZOTEA VERDE.
Andrade Alvarez Karen Eunice, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Un impermeabilizante de 20L de la marca Fester cuesta entre $1800 y $2000, lo que equivale a aproximadamente 20m3, 1lt de impermeabilizante por metro cuadrado. Están hechos con compuestos alquilsiliconados, como el metil, etil o propilsiliconatos de sodio o potasio, los cuales generan contaminación en el proceso de creación además de que resulta peligroso para el humano aplicarlo, debido a su alcalinidad se deben usar guantes de hule, evitar la exposición directa con la piel, los ojos y las vías respiratorias además de usar zapatos de seguridad o botas de hule. Una casa en promedio necesita mantenimiento cada 3 o 5 años. Lo que significa un gasto de $10,800 pesos en impermeabilizante considerando que se haga el mantenimiento cada 5 años en una vida útil de azotea de 30 años por cada 20m3. De igual manera el impermeabilizante que ocupamos en nuestro hogar en su producción genera gases que no ayudan al medio ambiente. Es por ello que en este trabajo se diseña y fabrica un corcho como impermeabilizante es una excelente forma de contribuir al medio ambiente ya que evitan químicos contaminantes.
METODOLOGÍA
La investigación no es experimental, se desarrolla por información, datos y caracteres previos, que fueron realizados por sus respectivos autores (artículos, tesis, y diferentes textos donde se indago lo requerido). Se inicia por una explicación fundamentada del problema, por lo cual, se formulan preguntas, causo interés propio, a pesar que no existen normas mexicanas para enriquecer, sin embargo, se planea guiar por las normas existentes, sin olvidar la calidad del producto final. El proceso actual de elaboración del corcho consiste en almacenar las "planchas" una vez sacadas del árbol, para posteriormente ser hervidas para eliminar la contaminación microbiana y mejorar su flexibilidad. Luego son clasificadas acordes a su espesor y análisis visual, después para el corcho proyectado es un revestimiento compuesto por una mezcla de materiales basados en el corcho triturado en polvo. El corcho en polvo se disuelve en una solución con celulosa, una emulsión acrílica en base agua y con los pigmentos orgánicos e inorgánicos que le otorgan el color. El proyecto será un aplanado de corcho que también le aplicaremos un extra este tendrá ranuras que permitirán colocar semillas, mi propósito es reducir los contaminantes en el aire y tener más áreas verdes en las azoteas. La idea es cubrir toda el área de la losa con dicho material, utilizando pegamento especial para corcho. Con esto logramos una losa muy estilizada, no es necesario cubrirla con ningún cerámico para mejorar su imagen ya que existen diferentes colores de corchos. El corcho es un aislante acústico y térmico natural. Además de impermeabilizar puedes conseguir un importante ahorro energético. Al romper los puentes térmicos y aislar las paredes no será necesario un gasto. Ayuda a cubrir grietas. El corcho tiene una textura suave y anti derrapante, así mismo el corcho tiene cierta elasticidad por su composición de resinas naturales. El proyecto es enfocado a una casa habitación, por lo consiguiente los prototipos que se generan son hechos a medida de la construcción para poder así ser sustentables y que no afecten en ningún sentido el desarrollo personal del habitante Con esta elasticidad puede puentear pequeñas grietas y soportar la dilataciones de los materiales de construcción de igual manera la suavidad puede ayudar a los clientes a tener un momento de relajación mientras camina en cualquier espacio donde se quiera colocar el material. De igual manera para un proyecto donde se requiera implementar azoteas verdes hemos decidido innovar la capa de corcho añadiendo semillas en los poros de los corchos con una capa de tierra después para tener el acabado se coloca otra capa de corcho.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de las diferentes problemáticas que existen en el ámbito de la construcción y los problemas de contaminación al cual se enfrenta el planeta actualmente así mismo de algunas posibles soluciones que inspiraron en este proyecto donde se busca terminar con una de las muchas problemáticas que producen algunos materiales en la construcción y ponerlos en práctica con, sin embargo, al ser un trabajo teórico aún se encuentra en la fase de trazado y no se pueden mostrar los resultados esperados.
Araguz Lara Fidel, Instituto Tecnológico de Matamoros
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
ANáLISIS EXPLORATORIO DE DATOS PARA EXPLICAR LA DESERCIóN ESCOLAR
ANáLISIS EXPLORATORIO DE DATOS PARA EXPLICAR LA DESERCIóN ESCOLAR
Araguz Lara Fidel, Instituto Tecnológico de Matamoros. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La deserción escolar es un problema que afecta el desarrollo individual con repercusiones socioeconómicas principalmente en las diferentes ciudades del mundo. Es un problema que lo han estudiado muchos investigadores detectando que es un problema multifactorial.
En México y Latinoamérica, los estudios y análisis del INEGI a partir del 2010 y hasta el 2015 muestran que este fenómeno tiene su mayor impacto en el nivel medio superior y también en sitios donde se tiene un menor nivel socioeconómico.
METODOLOGÍA
La metodología que se siguió en este verano de la investigación es:
Selección del tema: El tema seleccionado resulta del interés de conocer las causas del problema de la deserción escolar.
Búsqueda y selección de datos: En esta etapa, se hizo una búsqueda de datasets nacionales e internacionales. A los datasets se les aplicó un modelo de flujo de prisma para utilizar solamente los más significativos para este estudio.
Sistematización: En esta etapa se identificaron algunos conceptos desconocidos, de los cuales se buscó su significado. Se conocieron los metadatos y se realizó una evaluación estadística del contenido de los datos.
Análisis de datos y visualización gráfica: En esta etapa se procesaron los datos con la herramienta Rapidminer, con la cual se detectó que aunque el género femenino obtiene un rendimiento escolar en promedio más alto que los varones, la cultura de la mujer en casa es posible que sea una causa de deserción escolar femenina; se requiere hacer un estudio para confirmar este dato. Además se utilizaron las experiencias de personas con estudios de posgrado.
Propuesta de conclusiones y trabajos futuros: En esta etapa se comentó la necesidad de contar con datasets uniformes a través del tiempo, porque los existentes, principalmente nacionales en un año contienen ciertos metadatos y en otros años otros metadatos, quizá porque en cada sexenio en México cambien los intereses de gobierno. Las conclusiones se registran abajo.
CONCLUSIONES
Se tiene evidencia que el género femenino tiende a obtener mejores calificaciones respecto al género masculino. Siendo el promedio general del género femenino un 69.56 contra un 65.83 obtenido por el género masculino.
Se tiene evidencia que los hijos de padres con mayor nivel de estudios tienden ligeramente a obtener mejores calificaciones. Siendo la diferencia entre el mayor promedio y el menor promedio de apenas 10.5 siendo aquellos cuyos padres tiene solo la preparatoria aquellos con menor promedio de 63.09, y aquellos cuyos padres tienen una maestría los que obtienen mejores calificaciones, específicamente un promedio de 73.59.
Se ha malentendido el concepto de cultura digital, basado en la creencia de que cultura digital es saber usar dispositivos. Estamos como humanidad ante la posibilidad de enseñar y utilizar los equipos de procesamiento de datos y comunicaciones como recursos que aporten valor a las personas y otros seres vivos. Esto implica un replanteamiento de como enseñamos el aprovechamiento de los recursos digitales.
Referencia: Experiencia del Dr. Olivares, se requiere un estudio que confirme o refute esto.
La cultura digital no implica saber manejar equipos informáticos, sino, obtener valor (conocimiento, soluciones a problemas de la vida cotidiana, apoyo para toma de decisiones). Se trata de saber manejar los dispositivos además de conocer las herramientas y los lugares donde hay información y conocimiento de calidad (que le sirvan a una persona o a una comunidad).
Los recursos digitales hasta ahora tienen contenidos limitados, encontrando que, para los estudiantes, la web abierta proporciona más información. Estos recursos están sustituyendo a recursos en papel como mapas, láminas, biografías, entre otros. Se requieren recursos cambiantes porque el conocimiento está en constante transformación y hay conocimiento de interés específico como la historia de un país en particular.
2008 Enciclomedia (No resolvió el problema del aprendizaje), [https://es.wikipedia.org/wiki/Enciclomedia]
2009 Polilibro (Se elaboraron apuntes basados en el concepto, pero no se logró un libro personalizado).
1993 - 2009 Encarta (No resolvió el problema del aprendizaje)
Desde 2001 La Wikipedia es un recurso digital dinámico, auxiliar en la búsqueda de información en la web, aunque en muchas instituciones educativas no se considera un recurso didáctico oficial.
Se determino que el nivel socioeconómico de la entidad donde esta la escuela, no tiene un impacto muy grande o significativo en las calificaciones promédiales de los estudiantes en las materias como matemáticas y lenguaje y comunicación.
Arrieta Guzmán Andrés Eduardo, Instituto Politécnico Nacional
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
CLASIFICACIÓN DE IMÁGENES COMO HERRAMIENTA EN EL USO CORRECTO DE CUBREBOCAS
CLASIFICACIÓN DE IMÁGENES COMO HERRAMIENTA EN EL USO CORRECTO DE CUBREBOCAS
Arrieta Guzmán Andrés Eduardo, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los cubrebocas son una herramienta clave pare reducir la propagación del covid-19, según datos de la OMS, los cubrebocas están diseñados para proteger a la persona que lo usa y a otras personas en caso de que se esté infectado y dado que se ha comprobado que muchos portadores del virus son asintomáticos, estos podrían estar contagiando sin saberlo.
En México estamos presentando la tercera ola de contagios por covid-19, donde la estrategia se ha concentrado en acelerar la vacunación para frenar la ultima ola de contagios que azota al país, sin embargo, los especialistas afirman que las vacunas están diseñadas para prevenir el desarrollo de una enfermedad grave o la muerte, mas no para evitar los contagios.
El cubrebocas nos ayuda a proteger a los que nos rodean y a brindarnos a nosotros mismos cierta protección. Es importante que el cubrebocas proteja también la nariz. Muchas personas únicamente resguardan sus bocas, pero el propósito de esta herramienta es proteger las vías respiratorias en su totalidad. Es recomendable utilizar el cubrebocas en la calle, o al platicar con otra persona en cualquier otro sitio, ya que todas las personas sacamos micropartículas de saliva al hablar, suficiente para contagiar a otra persona.
Es por esto que durante el verano de investigación se desarrollo una red neuronal que clasifica el uso del cubrebocas a través de fotografías, y así hacer conciencia sobre su uso correcto.
METODOLOGÍA
Se llevo a cabo una investigación sobre los tipos de redes neuronales, en general se pueden clasificar según la topología de red, y según el método de aprendizaje. De entre todos los tipos de redes neuronales, se decidió usar una red neuronal convolucional (CNN por sus siglas en ingles). La CNN es un tipo de Red Neuronal Artificial con aprendizaje supervisado que procesa sus capas imitando al córtex visual del ojo humano para identificar distintas características en las entradas que en definitiva hacen que pueda identificar objetos y ver. Para ello, la CNN contiene varias capas ocultas especializadas y con una jerarquía: esto quiere decir que las primeras capas pueden detectar líneas, curvas y se van especializando hasta llegar a capas más profundas que reconocen formas complejas como un rostro o la silueta de un animal.
Para que una red neuronal aprenda correctamente la mayor cantidad de detalles dentro de imágenes se necesitan una gran cantidad de imágenes de prueba (léase mayor a 10000 imágenes de entrenamiento por categoría), sin embargo, al no contar con dicha cantidad de imágenes para entrenar la red, se tomó la decisión de especializar lo mas posible la red neuronal para aumentar la precisión de la red a cambio de usar menos imágenes para el entrenamiento.
Se obtuvo una base de datos con imágenes divididas en tres categorías para entrenar a la red neuronal, dichas categorías son mask weared incorrect, with mask y without mask, categorías las cuales contaban con 2396, 2395 y 2394 imágenes para entrenar respectivamente, además de 599 imágenes para validar la red por cada categoría.
Para crear la red neuronal se declaro el valor inicial del learning rate INIT_LR, cantidad de epochs y tamaño del lote de imágenes a procesar batch_size, se crearon varias capas de neuronas Convolucional de 2 dimensiones, dos con 64 filtros seguidos de una normalización del lote, seguido por un proceso de filtrado con 128 filtros y otra normalización del nuevo lote, después de esto aplanamos (flatten) los filtros y creamos una capa de 32 neuronas tradicionales (Dense) y finalizamos la capa de salida con 3 neuronas (ya que tenemos tres clases respecto al uso de cubrebocas) con activación Softmax, para que corresponda con la codificación que se hace al leer las clases. Finalmente compilamos nuestra red (se guarda para no entrenar la red cada vez que se necesite) y le asignamos un optimizador (en este caso se llama Adagrad).
CONCLUSIONES
Durante la estancia de verano se logro adquirir conocimiento teórico en clasificación de imágenes con redes neuronales, profundizando en una aplicación concreta de una red neuronal convolucional (CNN), dicha aplicación consiguió una exactitud del 97.38% en la fase de validación con las 599 imágenes por clase, lo cual se considera como un buen modelo, las mayores áreas de oportunidad para mejorar la red neuronal están en la diferenciación del uso correcto e incorrecto de los cubrebocas, sin embargo tal vez la identificación de una imagen tenga un tiempo de procesamiento más largo al hacer eso y no sería óptimo. Finalmente, como propuesta futura es combinar esta aplicación con videos de seguridad en tiempo real, para garantizar la mayor protección contra el covid-19 y otras enfermedades respiratorias dentro de espacios cerrados donde haya gran afluencia de personas.
RESULTADOS
El algoritmo se implementó en Python y se utilizaron algunas bibliotecas de funciones para el manejo de los datos y el entrenamiento de la red neuronal. Como resultado se obtuvo una exactitud mayor al 97 % en el entrenamiento de la red neuronal.
Arroyo Barros Indira Patricia, Universidad Libre
Asesor:Dra. Cecilia Chapa Balcorta, Universidad del Mar
APLICACIÓN DE LA OCEANOGRAFÍA SATELITAL EN EL ESTUDIO DE LA BIOGEOQUÍMICA MARINA EN EL GOLFO DE TEHUANTEPEC.
APLICACIÓN DE LA OCEANOGRAFÍA SATELITAL EN EL ESTUDIO DE LA BIOGEOQUÍMICA MARINA EN EL GOLFO DE TEHUANTEPEC.
Arroyo Barros Indira Patricia, Universidad Libre. Asesor: Dra. Cecilia Chapa Balcorta, Universidad del Mar
PLANTEAMIENTO DEL PROBLEMA
Los océanos son generadores de aproximadamente la mitad de todo el oxígeno que respiramos, son reguladores de la temperatura del planeta, y son una fuente de alimentación y empleo para los seres humanos.
Dada la importancia que tienen los océanos para las comunidades y la problemática del cambio climático, se hace necesario desarrollar investigaciones que permitan describir y evaluar cuales podrían ser las tendencias a futuro de las variables climáticas en relación con el comportamiento de los océanos,
Adicionalmente, la ONU plantea dentro de las metas del objetivo de desarrollo sostenible No.14 Vida Submarina, aumentar los conocimientos científicos, desarrollar capacidad de investigación a fin de mejorar la salud de los océanos.
El Golfo de Tehuantepec es considerado una de las tres zonas centroamericanas del Pacifico Tropical Oriental con altos niveles de productividad primaria debido a sus condiciones geográficas, que permiten que se generen procesos importantes de surgencias y mezcla vertical.
En función de estas razones nace la siguiente propuesta que busca desarrollar un estudio sobre las variables biogeoquímicas del Golfo de Tehuantepec a través de la oceanografía satelital, para brindar información que genere herramientas para realizar procesos sostenibles y sustentables para el uso de los recursos marinos.
METODOLOGÍA
Para esta propuesta se desarrolló la siguiente metodología:
Descargar imágenes satelitales con distribución espacio temporal disponibles para el Golfo de Tehuantepec. (cortesía de Copernicus).
Selección de las variables geoquímicas para el estudio oceanográfico en el Golfo de Tehuantepec.
Recortar las imágenes satelitales de los P. Ángel, P. Escondido, P. Salina.
Análisis descriptivo y estadístico de las variables seleccionadas en el software Matlab.
Graficar las series de tiempo de las variables.
Interpretación de los resultados y realización de informe.
CONCLUSIONES
Como resultado de haber analizado el comportamiento de las variables de temperatura superficial del mar y la salinidad en el Golfo de Tehuantepec, mediante el uso de imágenes satelitales, se obtuvieron las siguientes conclusiones:
La temperatura superficial del mar en los tres puertos seleccionados durante la temporalidad de 1993 a 2019 estuvo entre los 22°C y 31°C.
Se registro la mayor temperatura superficial durante en el periodo de transición de época seca a lluvias en P. Escondido en agosto de 2019 con 31.19°C.
El puerto que registro con menor temperatura superficial fue P. Salina Cruz en diciembre de 2010 con 22.38°C.
La máxima temperatura en cada puerto se registro en el año 2019, y durante este periodo el Golfo esta afectada por el fenómeno del niño.
La mínima temperatura registrada en el año 2010 estuvo influenciada por el fenómeno de la niña.
La salinidad registrada durante este periodo estuvo comprendida entre 32.5 a 35.
El puerto que registro la mayor salinidad fue P. Salina Cruz con 34.92 en junio de 2018.
El puerto que registro la menor salinidad fue P. Escondido con 32.66 en noviembre de 2018.
La tendencia de la temperatura superficial en los tres puertos es ir aumentando gradualmente, la variación de aumento en P. Ángel fue de 6.6x10-5, en P. Escondido 7.2x10-5, P. Salina Cruz 5x10-5.
La tendencia de la salinidad en P Ángel y P. Salina Cruz es a ir aumentando a razón de 1.7x10-5 para el primer puerto y para el segundo de 5x10-5, mientras que en P. Escondido tiene una tendencia a ir disminuyendo a una razón de 5.2x10-6.
La tendencia de aumento de la temperatura superficial a futuro puede traer como consecuencia alteraciones en la distribución de algunas especies marinas, afectando la economía de las comunidades que dependen del sistema pesquero.
El comportamiento a ir aumentando su salinidad en P. Ángel y P. Salina Cruz; sumado con la condición del aumento de la temperatura superficial puede ser un indicador de un incremento de menor influencia de los ríos.
Por el contrario, P. Escondido presenta una tendencia a ir disminuyendo su salinidad e ir aumentando su temperatura superficial del mar, esto puede indicar a una mayor intensidad o frecuencia del afloramiento de aguas subsuperficiales lo cual puede ocasionar problemas de acidificación del océano; llegando a ser perjudicial para algunas especies como los mejillones los corales y las ostras, porque los hace más frágiles y vulnerables.
Arroyo Cordova José, Universidad Autónoma de Chiapas
Asesor:Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas. Arroyo Cordova José, Universidad Autónoma de Chiapas. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
PLANTEAMIENTO DEL PROBLEMA
Nuevas estructuras, materiales y diseños han sido la fuerza impulsora para nuevos dispositivos fotónicos que pueden ser aplicados en bioquímica, energía solar eficiente, imágenes de súper alta resolución, información y computación cuántica, entre otras tecnologías emergentes. Sin embargo, en diversos contextos, la fabricación y uso de los dispositivos y materiales están limitados por sus propiedades físicas y químicas, o aspectos logísticos como disponibilidad y costo.
Muchas leyes fundamentales se han generalizado en estos medios estructurados y, en consecuencia, prometen una amplia gama de aplicaciones importantes. Por ejemplo, los cristales fotónicos pueden realizar bandgaps fotónicos completos, de modo que la luz pueda transmitirse alrededor de una curva cerrada rodeada de tales cristales con una eficiencia casi perfecta. Estos efectos son logrados a través de la elección adecuada de materiales, así como de su distribución en el espacio.
Hasta ahora, hay dos enfoques de diseño principales. El primero es recurrir a métodos basados en la física, como el análisis analítico simplificado modelos matemáticos o condiciones experimentales obtenidas de condiciones particulares de experimentación o la intuición. El segundo, está basado en la simulación numérica generalmente enfocada a la optimización. Sin embargo, a menudo es necesario ajustar la geometría o condiciones de la simulación para que se acerque a respuestas específicas y a la realidad experimental.
Como alternativa se propone el uso de metodologías de aprendizaje profundo que permiten incorporar un modelo computacional compuesto por múltiples capas de unidades de procesamiento para aprender múltiples niveles de abstracción de datos. Este enfoque ha tenido un éxito en el procesamiento natural de lenguaje, reconocimiento de voz y análisis de imágenes, lo que ha atraído atención en diversas disciplinas incluidas la óptica y fotónica.
En el presente proyecto se implementa un algoritmo genético que resuelve el problema inverso de reflectores unidimensionales de amplio espectro de combinación de diversos materiales para obtener configuraciones de capas no ordenadas cuya respuesta óptica se asemeje a las configuraciones ordenadas convencionales.
METODOLOGÍA
Para la simulación de la respuesta óptica de estructuras fotónicas unidimensionales (1DPC) es necesario tener los valores del índice de refracción y coeficiente de extinción de diversos materiales en el rango espectral de trabajo. Los índices de refracción y coeficientes de extinción utilizados en estas simulaciones fueron obtenidos a través de una colección y recopilación de investigaciones, artículos y experimentos. Con el objetivo de homogeneizar la base datos de constantes ópticas de materiales, los datos fueron catalogados de acuerdo con el rango espectral, y se generaron nuevos valores homogéneos en el rango de 200 a 1100 nm cada 1 nm utilizando el método de interpolación spline cúbico.
Los algoritmos genéticos son principalmente algoritmos adaptativos o de búsqueda, usados generalmente en la optimización de parámetros del modelo en cuestión, tomando como premisa la idea de la selección natural. Tomando una población aleatoria, en la cual cada individuo representa una posible solución al modelo, esta población cambia de acuerdo con las necesidades propuestas, por lo que el algoritmo toma un conjunto de valores numéricos que conforma los cromosomas que mejor se adaptan para continuar con la con la evolución de la población, eligiendo a los hijos más aptos al cruzar o combinar los cromosomas de los padres. Sin embargo, es posible llegar a un estancamiento en la búsqueda de los parámetros más aptos, por lo que se implementa un proceso evolutivo llamado mutación, causante de que los cromosomas en la descendencia sean diferentes a los de los padres, logrando así evitar el estancamiento además de encontrar una mejor solución en comparación con la población inicial.
En este trabajo se utilizó GA para obtener 1DPC que se ajustaran a una respuesta de reflexión. El GA utiliza la lista de espesores de cada capa como el parámetro de estructura o cromosoma. Cada cromosoma posee un error asociado a la reflexión deseada. Operadores, como mutación y selección, fueron utilizados para minimizar el error. El error está definido como el error cuadrático medio.
Antes de comenzar el GA se establece el número de capas y los materiales a utilizar. El GA comienza creando una población inicial de N miembros, cada uno con una lista de espesores aleatorios. A partir de estos valores iniciales se calcula la estructura 1DPC y el error asociado para cada cromosoma. Posterior a estos pasos, el GA busca el cromosoma mejor adaptado utilizando procesos de entrecruzamiento y mutación.
CONCLUSIONES
La presente investigación ha logrado generar y probar un algoritmo genético que genera la configuración de espesores de capas de 1DPC que optimiza la reflectancia de la estructura en un rango espectral especifico. El algoritmo encontró configuraciones de capas no ordenadas cuya reflectancia se aproxima a las configuraciones ordenadas tradicionales, indicando que la respuesta óptica de este tipo de estructuras no es única. Los espectros generados a través del algoritmo genético también representan una base de datos de respuestas ópticas de diversas configuraciones de materiales y capas 1DPC que puede ser utilizada para el entrenamiento de algoritmos de aprendizaje profundo más complejos, como los basados en redes generativas antagónicas (GAN) o redes neuronales totalmente conectadas, que permitan generar nuevas configuraciones no ordenadas de 1DPC. Posterior a este trabajo, se buscará formar una base de datos de respuestas ópticas y configuraciones de cristales fotónicos de mayor volumen para ser donada a la UCI Machine Learning Repository.
Arroyo Escalante Andrea, Universidad Autónoma de Zacatecas
Asesor:Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PROPIEDADES DE ABSORCIóN EN HETEROESTRUCTURAS DE MATERIALES 2D
PROPIEDADES DE ABSORCIóN EN HETEROESTRUCTURAS DE MATERIALES 2D
Arroyo Escalante Andrea, Universidad Autónoma de Zacatecas. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Los materiales 2D, desde el descubrimiento del grafeno en 2004, han surgido como materiales con potentes aplicaciones en las áreas de los dispositivos electrónicos y ópticos, debido a sus extraordinarias propiedades electrónicas, ópticas, mecánicas, térmicas, entre otras. Debido al amplio rango de frecuencias en los cuales la luz interactúa fuertemente con los materiales 2D, es posible usarlos en muchas aplicaciones que van desde lectores de DVD, seguridad, pantallas, iluminación de estado sólido, comunicación en el infrarrojo cercano, visores nocturnos, dispositivos fotovoltaicos, sensores, entre otras. Es por esto que vamos a estudiar heteroestructuras compuestas por bicapas de dicalcogenuros de metal de transición (TMDCs, por sus siglas del inglés) y TMDC-grafeno; donde el TMDC puede ser MoSe2, MoS2, WSe2, WS2. Analizaremos las propiedades de transmisión, reflexión y absorción de estos sistemas en función de los diferentes parámetros ópticos y geométricos de la heteroestructura.
METODOLOGÍA
En este trabajo se estudian, por medio del método de matriz de transferencia, heteroestructuras compuestas por bicapas de dicalcogenuros de metal de transición (TMDCs, por sus siglas del inglés) y TMDC-grafeno; donde el TMDC puede ser MoSe2, MoS2, WSe2, WS2. La permitividad de los dicalcogenuros se calcula por medio del modelo de Lorentz. Se realizó un programa en Python para obtener los espectros correspondientes.
CONCLUSIONES
Los espectros de absorción muestran picos prominentes en frecuencias bien definidas las cuales pueden ser moduladas con el número de bicapas utilizadas. Por otro lado, se encuentra que la absorción llega a un valor máximo de saturación para frecuencias mayores a una frecuencia característica en particular, sin importar del número de bicapas que se tengan.
Avecilla Torres Jonathan Enrique, Instituto Politécnico Nacional
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
APLICACIóN DEL LENGUAJE DE PROGRAMACIóN PYTHON
APLICACIóN DEL LENGUAJE DE PROGRAMACIóN PYTHON
Avecilla Torres Jonathan Enrique, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Python es un lenguaje de Programación de alto-nivel y de propósito general y su primera aparición se llevó a cabo en Febrero de 1991
Es cierto que Python puede tener una diferencia de rendimiento de 10 a 200 veces respecto a otros lenguajes como C, C++ o Java. Sin embargo, lo que a Python le falta de velocidad, se compensa con la rapidez en que puede desarrollarse un proyecto en este, principalmente porque su sintaxis es mucho más parecida a un lenguaje humano. Asimismo, las diferentes bibliotecas de funciones, frameworks y API’s que los programadores de Python tienen a su disposición realmente simplifican el trabajo que se realiza, ya que se pueden simplificar muchas tareas y líneas de código con su uso.
El objetivo de esta estancia es aprender los principios básicos del lenguaje de programación Python, así como ver y llevar a cabo alguna de sus aplicaciones en el campo de ciencia de datos, tales como graficado por medio del uso de pandas y Numpy, preprocesamiento y procesamiento de datos e incluso Machine Learning e Inteligencia Artificial.
METODOLOGÍA
La 1ra y 2da semana el enfoque fue principalmente en establecer el ambiente de trabajo. Así que lo primero que se realizó con la ayuda del Dr. Tapia, fue descargar Anaconda y crear un ambiente por medio del PowerShell. Asimismo, se nos introdujo al uso de Jupyter notebook.
Posteriormente, se trabajó con un paradigma de la programación, el cual es la Programación Orientada a Objetos. Aquí se vieron los conceptos fundamentales como clases, objetos, constructores, getters, setters, y más; los cuales se acompañaron de diversos proyectos pequeños en los que se empleaban.
Más adelante, se nos enseñó como utilizar un servidor a distancia por medio de un usuario y unos comandos para hacer un puente y trabajar el Jupyter Notebook desde nuestra computadora. Primero, nos comunicamos con el servidor de login e ingresamos nuestros datos de usuario, luego hacemos un llamado interno al servidor principal e ingresamos nuevamente nuestros datos, ya aquí corremos el comando de iniciar una sesión de Jupyter Notebook ligada a cierto puerto; corremos el comando de inicio de sesión al servidor login en otra terminal, y creamos una solicitud al servidor principal, finalmente de nuestra pc mandamos (desde una 3ra terminal) una solicitud al servidor login y tenemos creada la conexión de puente.
Sobre las bibliotecas de funciones se vieron las siguientes: Random, matplotlib, Tkinter, Pandas, Numpy.
La primera en ocuparse fue la biblioteca Tkinter, una framework que facilita la creación de programas con interfaz gráfica; su uso fue principalmente la aplicación del paradigma de Programación Orientada a Objetos.
La biblioteca Random se ocupó para la generación de datos para usar con la biblioteca matplotlib y el uso principal de esta última fue aprender sus usos y aplicaciones por medio de la resolución de diversos ejercicios en base a datos ya recolectados o generación aleatoria de los mismos. De matplotlib se practicó principalmente el uso de graficas lineales, de dispersión, de barra y de pastel. No hubo un enfoque tan directo a Pandas y Numpy, sin embargo, se vieron utilizados en la creación de muchas de las gráficas de matplotlib.
CONCLUSIONES
Los resultados de esta estancia se encuentran en la manera de pequeños proyectos con los cuales se aplicaron diversos conceptos. A continuación, se enlistan 2 de los proyectos realizados:
Cifrado Cesar
Encripta un mensaje de manera que todas las letras del abecedario se recorran cierto número y sean sustituidas en la frase, palabra o texto que se ingrese. Asimismo, es posible desencriptar estos mensajes, que se hayan encriptado mediante este cifrado; esto se hace de manera que cada palabra del texto ingresado se cambie de las 26 maneras posibles que pudo haber sido encriptada y se compare con una lista de 180,000 palabras, en inglés y español, de modo que la desencriptación que coincida con el mayor número de palabras en la lista es la que se regresa como el mensaje desencriptado. Este programa se realizó con el fin de practicar conceptos como herencia y recursión de la programación orientada a objetos. El programa cuenta con 3 módulos, el principal con terminación .py y las listas de palabras en inglés (words.txt) y español (spanish_words.txt). Asimismo, decidí integrarle la función de poder mostrar la ubicación y coordenadas actuales del usuario por medio de la biblioteca de funciones geocoder. Posteriormente se le integró una interfaz gráfica con el uso de Tkinter.
Graficación de un péndulo
Por parte de otra actividad me fue requerido encontrar la gravedad de cierto planeta en base al movimiento de un péndulo, es por ello por lo que recurrí al área de computación y gracias a la ayuda de lo que había visto en matplotlib, me fue posible realizarlo. En primer lugar, analicé los datos que teníamos, que eran el periodo y la longitud del péndulo, y los registré en un archivo measurements.csv, posteriormente con la ayuda de pandas, obtuve los datos de la manera necesaria para realizar una gráfica de dispersión en el archivo scatter_graph.py, y finalmente con Numpy realicé una regresión lineal, para ver si el modelo sería lineal, lamentablemente no fue así. Para solucionar este problema, recurrí a los logaritmos, con los que propuse una relación polinómica entre el periodo y la longitud del cable, al graficar obtuve una línea recta. Y se obtuvo que la expresión incluye que el periodo es proporcional a la raíz cuadrada de la longitud, y la gravedad de dicho planeta es alrededor de 14.14 m/s^2
Python es un lenguaje que toma cada vez más importancia en la ciencia de datos, y el mundo de la programación en general, principalmente por la simplicidad de su sintaxis que facilita y decrementa por mucho, el tiempo de desarrollo de la mayoría de los proyectos. Es por esto por lo que es necesario tener un dominio de este, y por lo menos conocer las diversas bibliotecas de funciones que sin duda alguna facilitan enormemente el trabajo de programar.
Avila Torreblanca Julio César, Instituto Politécnico Nacional
Asesor:Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
POLARIZACIóN DEL PSEUDO ESPíN GENERADO POR DEFORMACIONES EN GRAFENO.
POLARIZACIóN DEL PSEUDO ESPíN GENERADO POR DEFORMACIONES EN GRAFENO.
Avila Torreblanca Julio César, Instituto Politécnico Nacional. Sanchez Lorenzo Mario Alfredo, Instituto Politécnico Nacional. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El grafeno ha atraído mucho la atención de la comunidad científica debido a las propiedades electrónicas y el comportamiento relativista que toman los pi-electrones cuando se deforma una capa de grafeno. Debido al arreglo hexagonal de los carbonos en el grafeno, la relación de dispersión de energía que se obtiene alrededor de dos esquinas opuestas equivalentes para la primer zona de Brillouin en el k-espacio es lineal. A estas esquinas se les denota con los puntos K y K’.
Cuando uno plantea el Hamiltoniano de masa efectiva para los pi-electrones alrededor de los puntos K y K’, se obtiene la ecuación de masa efectiva. Esta ecuación es muy similar a la ecuación sin masa de Dirac (también llamada ecuación de Weyl). La diferencia surge en un signo y la velocidad de Fermi que aparece en lugar de la velocidad de la luz. La ecuación de Weyl explica la naturaleza del grado de libertad del espín. Y debido a la similitud con la ecuación de masa efectiva para los pi-electrones, a este grado de libertad se le denomina pseudo espín.
Se sabe que un campo electromagnético genera polarización de espín. En el presente trabajo observamos como un campo de deformaciones puede formar una polarización de pseudo espín debido a que se genera un campo pseudo magnético.
METODOLOGÍA
Para estudiar el comportamiento de dichos electrones vamos a estudiar el Hamiltoniano efectivo a bajas energías, es decir, hacer una aproximación del Hamiltoniano del sistema alrededor de las dos esquinas recíprocas (K, K’), ubicados en la primera zona de Brillouin.
Para obtener dicho Hamiltoniano se comenzó planteando un problema visto en la carrera conocido como el problema de potencial de pozo finito en la mecánica cuántica. Se comenzó con un solo pozo de potencial finito. Posteriormente se realizó para dos pozos simétricos, hasta generalizar el problema para una red lineal de n pozos simétricos de potencial finito. Luego de ello, se extrapoló el problema a una red bipartita, una red triangular y finalmente una red cuadrada. Ya con esta teoría se introdujo el arreglo hexagonal del grafeno, cuya celda unitaria está compuesta de dos partículas A y B. El formalismo utilizado para estos problemas se conoce como Tight-Binding o Amarre fuerte, en conjunto con el teorema de Bloch.
En cada uno de estos casos previamente mencionados se analizó su relación de dispersión lineal, específicamente en el grafeno nos centramos en los puntos K y K’ mencionados en el planteamiento del problema, que son los ‘ceros’ de la primer zona de Brillouin, los cuales vistos de manera gráfica tienen apariencia de conos, conocidos como conos de Dirac,
Una vez planteada la teoría para el grafeno sin deformar, procedimos a aplicar una deformación en la red de grafeno, la cual desplazó nuestros ceros ubicados en la primer zona de Brillouin (Sin deformar), haciendo que tengamos una nueva posición de estos ceros de la forma KD = K0 + A, donde A es el vector que desplaza los ceros. De modo que cuando aproximamos nuestro Hamiltoniano a bajas energías alrededor de dicho cero (KD) obtenemos un corrimiento en el punto q como se esperaba.
CONCLUSIONES
A lo largo de la estancia de verano se adquirieron conocimientos teóricos sobre algunos métodos en la mecánica cuántica, como lo fueron Tight Binding y aproximación por amarre fuerte. Después de usar estos métodos para analizar el Hamiltoniano del grafeno sometido a una deformación homogénea, se obtuvo con éxito la aproximación a bajas energías y una vez propuesto el pseudo campo magnético, se logró demostrar como un campo de deformaciones genera una polarización de pseudo espin.
Aviles Garcia Gabriel Osmar, Instituto Tecnológico de Tláhuac
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE PETOBLOCK, CON MATERIALES RECICLADOS DE PET
PROTOTIPO DE PETOBLOCK, CON MATERIALES RECICLADOS DE PET
Aviles Garcia Gabriel Osmar, Instituto Tecnológico de Tláhuac. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El polietileno tereftalato, comúnmente conocido como PET, es un plástico favorito de la industria debido que se puede modificar en varias formas y tiene muchos usos. Es por esta razón que la contaminación de polietileno tereftalato tiene un aumento a gran escala debido a la cantidad de productos que se elaboran con este plástico. Este tipo de contaminación presenta un grave impacto ambiental debido a que no es biodegradable, ya que tarda muchos años en degradarse. En los ecosistemas terrestres afecta la productividad agrícola de los suelos al ser enterrado, y en los ecosistemas marinos resulta perjudicial para los organismos que habitan en el mar debido a que los plásticos tienen una increíble capacidad para transportar, absorber y liberar productos químicos.
El plástico reciclado es un producto que también se lo puede reutilizar como fibra de poliéster, madera plástica, aditivos para pavimentos, fabricación de botellas nuevas multicapa, combustible para la generación de energía, etc. En los procesos de reciclaje antes mencionados se utiliza un proceso muy complejo y costoso.
METODOLOGÍA
El desarrollo de nuestro proyecto se llevará a cabo una metodología la cual se basará en la investigación cuantitativa, para poder precisar de manera sistematizada, a partir de los resultados que presente la comunidad estudiantil del TecNM Campus Tláhuac, si es que está de acuerdo con la propuesta de un block ecologico.
Una investigación cuantitativa o método cuantitativo es aquel que se vale de los números para examinar datos o información; es aquel que permite examinar los datos de manera numérica, ya que se basa en el uso de técnicas estadísticas para conocer ciertos aspectos de interés sobre la población que se está estudiando.
El proceso de toma de medidas es central en la investigación cuantitativa ya que aporta la conexión fundamental entre la observación empírica, y la expresión matemática, es decir, mostrar en números y gráficos lo que hemos observado.
El método secuencial explicativo comprende la recolección de datos en dos fases:
en la primera fase, el investigador recoge datos cuantitativos y los analiza.
en la segunda fase, se usan los resultados cuantitativos para planificar la fase cualitativa.
Los resultados cuantitativos informan los tipos de participantes que se deben seleccionar para la fase cualitativa y los tipos de preguntas a ser presentadas a los participantes. La intención de este método es valerse de los datos cualitativos para ayudar a explicar de forma detallada los resultados cuantitativos iniciales.
Con objeto de esta investigación, se realizará un cuestionario que se le aplicará a cierta parte de la comunidad estudiantil del Campus Tláhuac, para poder recabar la información relevante.
En el TecNM, Campus Tláhuac se imparten 5 ofertas educativas, las cuales son: arquitectura, ingeniería en mecatrónica, ingeniería en electrónica, ingeniería en sistemas automotrices e ingeniería en sistemas computacionales. Actualmente en el Campus, contemplando todas las ofertas educativas, se cuenta con un total de 2, 634 alumnos.
CONCLUSIONES
Para recabar la información oportuna hacia esta investigación, se llevó a cabo una investigación en redes sociales del TecNM Campus Tláhuac, con el objeto de tomar evidencias de las encuestas a la comunidad estudiantil.
Así mismo, se hizo uso de un cuestionario con la finalidad de conocer si era viable la oferta de proponer un block ecologico.
Avilez Espinoza Joel, Universidad Autónoma de Baja California
Asesor:Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
MóDULOS DIFERENCIALES. ESTA TEORíA ESTUDIA PROPIEDADES ANáLOGAS DE LAS DERIVADAS PERO EN EL CONTEXTO DE ANILLOS ABSTRACTOS.
MóDULOS DIFERENCIALES. ESTA TEORíA ESTUDIA PROPIEDADES ANáLOGAS DE LAS DERIVADAS PERO EN EL CONTEXTO DE ANILLOS ABSTRACTOS.
Avilez Espinoza Joel, Universidad Autónoma de Baja California. Asesor: Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Los módulos son una generalización de los espacios vectoriales que se estudian en álgebra lineal. Un ejemplo de espacio vectorial son los números reales sobre sí mismos (los números complejos también sirven), en dicho espacio vectorial se puede definir una herramienta matemática muy poderosa y, probablemente, una de las más estudiadas, estamos hablando de las derivadas.
Ahora, como los módulos son una generalización de los espacios vectoriales, la idea de extrapolar el concepto de derivadas de un espacio vectorial a un módulo no es nada descabellado y de hecho es justo lo que se estudia en los módulos de diferenciales.
El problema principal del programa fue: estudiar la definición de los módulos de diferenciales y estudiar algunas de sus propiedades, partiendo de la intuición que se tiene de las derivadas que se ven en un curso de cálculo diferencial.
METODOLOGÍA
Para lograr comprender el tema de forma satisfactoria se utilizó una serie de pasos o temas por estudiar que podemos resumir en una lista:
1.- Repaso de teoría de grupos y teoría de anillos.
2.- Repaso de teoría de módulos.
3.- Producto tensorial.
4.- Propiedades de exactitud del producto tensorial.
5.- Derivaciones.
6.- Módulo de derivaciones.
7.-Módulo de diferenciales de Kähler.
Repaso de teoría de grupos y teoría de anillos: para lograr entender el tema de módulos primero se tiene que dominar los conceptos de grupos, anillos, ideales, campos, morfismos, etc. Por lo que lo primero fue repasar todos estos conceptos.
Repaso de teoría de módulos: estos dos primeros puntos fueron los más cortos del programa pero fueron importantes para que los temas que siguieron fueran más sencillos. Se repasaron conceptos esenciales como el concepto de módulos, morfismos de módulos, módulos cocientes, etc.
Producto tensorial: este tema es crucial para más adelante construir las derivaciones de Kähler, uno de los teoremas más importantes que se estudian es la propiedad universal del producto tensorial, este teorema es de gran ayuda a la hora de demostrar la mayoría de las proposiciones relacionadas con el producto tensorial.
Propiedades de exactitud del producto tensorial: durante esta parte del verano se repasó la definición de exactitud de sucesiones de morfismos de módulos y se demostraron algunas propiedades que tienen que ver con sucesiones y el producto tensorial.
Derivaciones: aquí es cuando se recuerdan las propiedades que tienen las derivadas que se definen en cálculo y se extrapolan a la teoría de módulos como una función que cumple con separar sumas, regla de Leibniz y que evaluada en una constante nos mande al elemento neutro.
Módulo de derivaciones: después de definir que es una derivación el siguiente paso es demostrar que el conjunto de todas las derivaciones de unos ciertos módulos y anillos es un módulo, este conjunto tiene una gran similitud con el conjunto de todos los morfismos que existen entre dos módulos. Aunque las derivaciones se definen para cualquier anillo, nos centramos mayoritariamente en el anillo de polinomios sobre un campo. Con ayuda de mi asesor, demostramos una propiedad del conjunto de módulos diferenciales en el anillo de polinomios sobre un campo en una variable, después de esto mi proyecto final fue extender esta demostración para el anillo de polinomios en un campo para n variables. Una de las demostraciones que me pareció más interesante tiene que ver con que toda derivación en el anillo de polinomios depende de la derivada usual que usamos en cálculo.
Módulo de diferenciales de Kähler: aquí definimos las derivaciones de Kähler y el módulo de derivaciones de Kähler, basándonos en este conjunto demostramos diversas propiedades, una de las más interesantes y últimas que vimos fue que el conjunto de las derivaciones de un anillo A a un módulo M sobre un otro anillo K es isomorfo al conjunto de morfismos del módulo de derivaciones de Kähler al módulo M, este teorema es tan curioso porque es muy parecido con la propiedad universal del producto tensorial, en esta parte del verano fue cuando se integra todo lo anteriormente visto.
Esta fue la metodología de investigación y aprendizaje que se llevó a cabo durante todo el verano.
CONCLUSIONES
En conclusión, a pesar de ser un tema de investigación denso para tan poco tiempo, durante el verano de investigación adquirí muchos nuevos conocimientos de manera muy efectiva. Hubo muchos temas que faltó abarcar y este verano fue de gran ayuda como introducción para seguir investigando todo lo que no vimos.
Espero con muchas ansias aplicar todos estos nuevos conocimientos y también enseñarles a mis compañeros, incluso hacer una mini presentación para que las personas de mi facultad se enteren de estos temas tan interesantes.
Sin duda alguna, mucho de lo nuevo que aprendí fue gracias a la gran labor de mi asesor, con el que estoy muy agradecido por la paciencia que me tuvo y por compartir todos sus conocimientos con gran emoción y destreza. También estoy muy agradecido con el programa delfín por brindarme esta gran oportunidad que rindió muchos frutos, ya que hizo que me sintiera más seguro con mis habilidades y me ayudó a confirmar la línea de investigación en la que me gustaría trabajar en mi futuro.
Barradas Viveros Vanessa, Universidad Veracruzana
Asesor:Dra. Emilia Fregoso Becerra, Universidad de Guadalajara
INVERSIóN 2D DE DATOS MAGNéTICOS PARA IDENTIFICAR ESTRUCTURAS ARQUEOLóGICAS EN LA REGIóN DE OCONAHUA, JALISCO
INVERSIóN 2D DE DATOS MAGNéTICOS PARA IDENTIFICAR ESTRUCTURAS ARQUEOLóGICAS EN LA REGIóN DE OCONAHUA, JALISCO
Barradas Viveros Vanessa, Universidad Veracruzana. Asesor: Dra. Emilia Fregoso Becerra, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las anomalías magnéticas que se miden en la superficie terrestre se interpretan como provenientes de estructuras rocosas o ciertos materiales enterrados cerca de la superficie terrestre o en profundidad. Estos materiales pueden presentar magnetización inducida por el campo geomagnético, o magnetización remanente que fue adquirida mediante un proceso geológico anterior.
Con la magnetometría podemos obtener la información acerca de estas anomalías. La magnetometría es un método ampliamente usado en arqueología. En muchas situaciones, se requiere la identificación de estructuras arqueológicas en el subsuelo para lo cual se necesita obtener información sobre la ubicación de estas, por lo que se aplican métodos de inversión.
El problema inverso consiste en encontrar una distribución, magnitud y posición de los parámetros físicos en el subsuelo que reproduzca los datos observados en superficie. Para hacer esto se relacionan los parámetros físicos de un sistema, a observaciones que constituyen un conjunto de datos como respuesta a los parámetros, usando leyes físicas ya conocidas.
En este trabajo se utilizó un método de inversión para identificar estructuras arqueológicas en la región del Palacio de Ocomo, en el municipio de Etzatlán, Jalisco.
METODOLOGÍA
Se utilizó una base de datos de mediciones magnéticas que se realizaron en la zona arqueológica de Oconahua, Jalisco, por un grupo de investigación de la Universidad de Guadalajara .Las mediciones se hicieron en dos sitios de la zona arqueológica, nombrados como Zona 1 y Zona 2, con tamaños de 17 m x 18 m y 20 m x 24 m, respectivamente. Para tomar las mediciones, se marcaron, en la zona 1, 18 líneas con dirección este-oeste con separación de 1 metro, y en cada una de estas líneas se tomaron 19 mediciones con separación de 1 metro. En la zona 2 fueron 21 líneas dirección norte-sur, en cada una se tomaron 25 mediciones. Se usaron dos magnetómetros, uno como base, que registra la variación temporal del campo geomagnético local; el segundo se usó para registrar la intensidad del campo en cada punto de medición de las zonas descritas anteriormente.La zona 1 ya fue excavada y vuelta a cubrir con material clástico por los arqueólogos, por lo que se tiene una manera de corroborar lo que se obtenga con los métodos geofísicos.
Estos datos fueron procesados para obtener las anomalías magnéticas presentes en el lugar. Dicho tratamiento elimina el campo magnético terrestre que se presentaba el día y en el lugar donde se realizaron las mediciones, haciendo esto a través del Campo Geomagnético Internacional de Referencia(IGRF). Así sólo se obtiene el campo magnético que se produce por la presencia de las estructuras arqueológicas.Se programó usando el lenguaje Python para obtener la representación de las anomalías magnéticas.
Posteriormente se comenzó a trabajar con el método de inversión de datos geofísicos. Para ello, usando los programas escritos en MatLab proporcionados por la doctora Emilia Fregoso. Primero se realizaron experimentos sintéticos con el fin de entender cómo funciona este método y los programas. Para los modelos sintéticos se proponen dos bloques de distintas dimensiones y magnetización colocados en distinta posición y profundidad. Se calculan las matrices de covarianza, de sensibilidad y se agrega un error o ruido a los datos para asemejarse a una situación real. Se corre varias veces el programa, cambiando el parámetro de regularización del modelo, el cual da un balance entre el ajuste y la rugosidad del modelo; de esta manera se obtienen modelos suaves que se asemejan a la realidad.
Para realizar la inversión de los datos reales obtenidos en la zona arqueológica, se usaron los datos correspondientes a la zona 1. Se seleccionaron algunos perfiles para trabajar con ellos, realizando inversión 2D. Observando la imagen en donde se tienen representadas las anomalías magnéticas, las líneas de interés para estudiarlas fueron las correspondientes a 1m y 11m medidas en la dirección este-oeste. Del mismo modo que en los modelos sintéticos, se hizo una variación en el parámetro de regularización para obtener unos datos calculados ajustados a las observaciones y mediciones realizadas.
CONCLUSIONES
Durante la estancia se logró aprender y comprender el funcionamiento de la teoría de inversión de datos geofísicos, además del método de magnetometría que es ampliamente aplicado en arqueología.
Este conocimiento se puso en práctica al proponer los modelos sintéticos, en donde se lograron obtener buenos resultados, aún cuando se le agrega ruido al modelo.
Al hacer la inversión de los datos reales se obtuvieron imágenes en donde es posible apreciar el perfil de algunos muros y la profundidad a los que se encuentran. Comparando estas imágenes con la que muestra las anomalías podemos detectar coincidencias. Aún falta comparar estos resultados con los obtenidos por los arqueólogos para comprobar lo obtenido.
Bautista Casimiro Valery Itzel, Instituto Politécnico Nacional
Asesor:Dr. Santiago Camacho López, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
EL LASER,
¿UNA HERRAMIENTA O UN JUGUETE?
EL LASER,
¿UNA HERRAMIENTA O UN JUGUETE?
Bautista Casimiro Valery Itzel, Instituto Politécnico Nacional. Guerrero Cruz Jocelyn, Instituto Politécnico Nacional. Asesor: Dr. Santiago Camacho López, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Realmente, la definición o el pensamiento más próximo que tiene la gran mayoría de la población acerca de un láser es aquel que quizá muchos tuvimos de pequeños, para jugar con los amigos, jugar con las mascotas o tal vez para jugar en una sala de láser, sin embargo, en ese momento no éramos conscientes de las grandes posibilidades que teníamos al tener un láser en nuestras manos y ni siquiera teníamos en cuenta el descubrir algo increíble, pero no quiere decir que algunas personas no lo hayan hecho ya que gracias a esas personas que se dieron del tiempo de observar, analizar y experimentar con los láseres pudieron contribuir al máximo en el desarrollo de nuevas tecnologías ya sea para la ingeniería o la medicina, que ha facilitado y alargado la vida del ser humano.
METODOLOGÍA
Para tener en claro que es un láser debemos tener en cuenta la definición clásica de un diccionario dispositivo que utiliza la emisión estimulada de radiación en un medio apropiado, para generar un haz de luz cuyas características especiales de monocromaticidad, coherencia y direccionalidad se encuentran perfectamente controladas el objetivo de esta definición es poder tener un poco del amplio conocimiento de las características del láser, y en este resumen solo nos basaremos en la información que consideramos podría ser de tu interés si es que no conoces como es que te benéfica que las investigaciones acerca del láser sean realizadas de manera más amplia y se aplique en la gran mayoría de las ramas de la medicina y las físico matemáticas, Ya sea para poder realizar estudio más precisos, medidas, cirugías o tal vez eso nos ayude a controlar y curar múltiples enfermedades porque aunque no lo creamos las posibilidades son muy amplias.
Como lo es el efecto del láser en los tejidos, que produce reacciones como el mejoramiento en el metabolismo celular, con énfasis en el sistema inmunológico celular. O como lo es también el uso del láser para cortes soldadura y perforación laser que son unas de las técnicas más usadas en el mundo de ingeniería y la industria. Como estos ejemplos hay muchos más y el largo trabajos para poder obtener estos resultados es fascinante ya que cada proceso tiene una manera distinta y particular de operar.
CONCLUSIONES
El conocimiento adquirido a lo largo de la investigación fueron los conocimientos básicos de óptica y parte del trabajo de las personas que estudiaron el tema los cuales fueron de gran importancia, como también las características de los láseres, como es que funcionan, sus componentes, sus propiedades, su historia, curiosidades mitos que realmente nos dejaron sorprendidas a que aprendimos nuevas cosas que si no hubiera sido por la estancia tal vez ni hubieran sucedido, consideramos que fue una experiencia grata y muy satisfactoria.
Bautista Janelly, Universidad de Colima
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
SOLUCIóN DE LA ECUACIóN DE LA ONDA EN 3D CON CóMPUTO DE ALTO RENDIMIENTO.
SOLUCIóN DE LA ECUACIóN DE LA ONDA EN 3D CON CóMPUTO DE ALTO RENDIMIENTO.
Bautista Janelly, Universidad de Colima. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Las vibraciones producen variedades de ondas; ondas mecánicas, ondas sonoras, ondas gravitacionales, ondas electromagnéticas (como la luz visible), entre otras. Claramente, las ondas toman un papel esencial en la vida cotidiana puesto que están en todas partes, pero ¿qué es una onda? Una onda es el disturbio de partículas que atraviesa el espacio-tiempo acompañado con una transferencia de energía. Por ello, el estudio del compartamiento de ondas está basado en su deformación dentro del espacio-tiempo por medio de la famosa ecuación de la onda (para un sistema mecánico), descrita por la ecuación diferencial parcial de segundo grado que se expresa como la segunda derivada de la función de deformación con el tiempo que es directamente proporcional a la velocidad de propagación de la onda multiplicado por el cuadrado del vector gradiente de la deformación en el espacio.
El objetivo de este proyecto consiste en resolver la ecuación la onda en tres dimensiones utilizando cómputo de alto rendimiento a través de los métodos explícito e implícito. Para su obtención, las diferencias finitas toman gran relevancia ya que la ecuación diferencial de la onda requiere ser aproximada con herramientas prácticas, manteniendo un error despreciable al calcular. Así mismo, el estudio de la onda requiere un modelado con condiciones específicas dada la situación a contemplar. Consecuentemente, por simplicidad, se ha considerando un modelado de la onda con las condiciones de frontera de dirichlete y las condiciones iniciales donde la deformación y su derivada equivalen a cero.
METODOLOGÍA
La resolución númerica para la ecuación de onda, como ya ha sido anteriormente mencionado, requiere de una metodología por medio de diferencias finitas. Por ende, se opta por aproximar las segundas derivadas parciales de la ecuación de la onda usando el método de diferencias centrales para segunda derivada, manteniendo un error despreciable. Haciendo énfasis en la discretización de diferencias finitas, clave para la resolución e implementación en computadoras digitales, se requiere discretizar el tiempo y las coordenadas dentro del plano 3D con la finalidad de considerar puntos finitos dentro del dominio de espacio y tiempo. Así, implementando un método númerico para ejecutar el algoritmo de programación.
El método explícito consiste en calcular el estado de un sistema en función del estado posterior del sistema por medio de las variables dadas de instantes anteriores. Es importante resaltar que el método explícito mantiene un criterio de estabilidad; un punto en el cual la ecuación de diferencias finitas ya no es válida, indicando inestabilidad en ese punto. Por ello, es muy importante considerar este detalle al modelar númericamente utilizando el método explícito para la resolución de la ecuación diferencial.
En cambio, el método implícito consiste en aproximar la resultante del estado actual de un sistema a base de resultados posteriores que se pueden agrupar como un conjunto de ecuaciones. Así, llevándose a ser representada por una matriz para su resolución.
Los algoritmos númericos de la ecuación de la onda han sido ejecutadas por medio del lenguaje de programación Python 3.8.8 con ayuda de las librerías matplotlib y numpy. Dicho programa fue ejecutado con el IDE PyCharm para macOs directamente de la applicación Python y visualizada en Jupyter notebook desde un servidor de ciencia de datos del CITEDI.
CONCLUSIONES
El modelado matemático permite la resolución de problemas complejos de la realidad física por medio de un algoritmo brindando una solución númerica del problema. La selección del método númerico es la clave para ejecutar el problema con un nivel de facilidad en el programa contemplando las limitaciones que trae consigo. Los métodos estudiados en este proyecto fueron los métodos explícitos e implícitos para ecuaciones diferenciales.
El método explícito es evaluado en términos conocidos, mientras que, el método implícito se evalúa en función de términos nuevos no conocidos que requieren una solución a través de una matriz manteniéndose comúnmente más complejo para programar.
Para obtener un buen modelado, la estabilidad númerica debe mantenerse ante cualquier modificación. El método implícito permite aumentar el tamaño del paso del tiempo entorno al comportamiento de la ecuación generando una solución incondicionalmente estable. En cambio, el método explícito mantiene un punto de criterio de estabilidad que define la inestabilidad de la solución. Por ello, el método a seleccionar para resolver el problema se lleva a cabo mediante su necesidad. Para la resolución de la onda, ambos métodos fueron aplicados con la finalidad de una comparación, donde el método implícito no resultó ser muy complejo. Por ende, el método implícito del problema de la solución de la ecuación de la onda para un sistema mecánico se mantiene como la opción más eficiente para su modelado.
Bautista López Lizbeth, Instituto Politécnico Nacional
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
EL USO DE CONCRETOS PERMEABLES PARA PERMITIR EL REGRESO DEL AGUA A LOS MANTOS ACUíFEROS Y DISMINUIR LAS INUNDACIONES EN EL ESTADO DE MéXICO
EL USO DE CONCRETOS PERMEABLES PARA PERMITIR EL REGRESO DEL AGUA A LOS MANTOS ACUíFEROS Y DISMINUIR LAS INUNDACIONES EN EL ESTADO DE MéXICO
Bautista López Lizbeth, Instituto Politécnico Nacional. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En la actualidad el concreto es el material más utilizado en materia de infraestructura, su uso es principalmente para pavimentar autopistas, carreteras, calles, etc. Entre las propiedades más importantes de este material destacan su impermeabilidad y adherencia, sin embargo, también es uno de los materiales que mas influye en las inundaciones de diversas ciudades por su impedimento del paso del agua.
En el año 2021 las severas inundaciones que han caído sobre diversos municipios en el Estado de México han provocado daños en la infraestructura urbana, así como pérdidas materiales en los habitantes.
Entre las causas de que estas inundaciones se vuelven de riesgo para la población estan la falta de mantenimiento en la infraestructura destinada al desalojo del agua, así como la también la implementación de diversas tecnologías para disminuir su impacto, tales como el uso de concretos permeables que se han convertido en una alternativa sustentable alrededor del mundo en la actualidad.
La utilización del concreto permeable ocupa un porcentaje muy bajo en las construcciones frente al concreto convencional, siendo solo el dos por ciento. (Moujir y Castañeda, 2014). Sin embargo, se espera que con el paso del tiempo el uso de concretos mas sustentables eleve este porcentaje alrededor del mundo.
METODOLOGÍA
La investigación es no experimental ya que se recabarán datos de diversas fuentes para conocer la forma en que las inundaciones en el Estado de México han ido incrementando y empeorando con el paso de los años.
También la investigación se desarrolla a partir de datos obtenidos de distintas fuentes verídicas, lecturas y fichas técnicas sobre el concreto permeable.
El concreto permeable es una mezcla de cemento, agua, agregados gruesos y aditivos que al final crean una estructura con huecos conectados que permiten el paso del agua y aire.
Las principales ventajas de este concreto permiten que el agua pluvial regrese a los mantos acuíferos permitiendo que el ciclo natural hidrológico siga su curso, así como evitar encharcamientos ya que el agua no se queda estancada si no que pasa a través de este material.
De igual forma al permitir que el flujo de aire pase a través del material permite que este se mantenga en una temperatura fresca y ayude a crear espacios frescos y confortables con una buena regulación de la temperatura en cualquier lugar donde se coloque el concreto permeable.
En las pruebas de permeabilidad llevadas a cabo por el Organismo Nacional De Normalización Y Certificación De La Construcción Y La Edificación SC (Onncce) se obtuvo que este concreto permite el paso de 8 L / Min en una prueba de aproximadamente 0.625 m2 y 7 cm de grosor.
Además, en las pruebas de compresión se obtuvo que la compresión simple a 28 días dio como resultado 291.3 kg/cm2.
En la actualidad la aplicación de este material es en pavimentos o zonas de bajo tráfico, tales como veredas, parques, cajones de estacionamientos debido a que la resistencia no es la misma que un concreto tradicional que podemos encontrar en autopistas o carreteras que llevan un flujo de tráfico elevado.
CONCLUSIONES
De acuerdo a toda la información obtenida e investigada, se confirma que el uso del concreto permeable es una excelente alternativa para disminuir los efectos de las inundaciones en los municipios del Estado de México, así como mejorar la infraestructura del estado, aportando diversos beneficios mencionados anteriormente durante la investigación como la disminución de los encharcamientos, regulación de la temperatura en ambientes y mejora del ciclo hidrológico del agua en las ciudades, mejorando la calidad del ambiente y el planeta.
También se conocieron teóricamente las propiedades del concreto permeable, su sistema constructivo y los espacios en donde pueden aplicarse.
Finalmente observé y comprendí la importancia de la aplicación de diversas tecnologías sustentables en la rama de la construcción en México pues es nuestro deber como futuros profesionistas construir un mundo más limpio y sustentable para las futuras generaciones.
Bello Hernández Diana Marbeli, Instituto Politécnico Nacional
Asesor:Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México
OBSPY: PRIMER PASO DE ENTRADA AL “BIG DATA” EN SISMOLOGíA
OBSPY: PRIMER PASO DE ENTRADA AL “BIG DATA” EN SISMOLOGíA
Bello Hernández Diana Marbeli, Instituto Politécnico Nacional. de la Fuente Bonfil Alan, Instituto Politécnico Nacional. Asesor: Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
México está ubicado en una zona altamente sísmica. Una gran cantidad de sismos son registrados a través de pocas redes sísmicas compuestas por un número moderado de estaciones. Por ejemplo, la red del Servicio Sismológico Nacional (SSN) está compuesta por 57 estaciones de banda ancha, distribuidas en todo el país, con una mayor densidad hacia las costas del océano Pacífico. Para procesar la información registrada se utiliza software especializado, el cual generalmente es muy caro para los países en desarrollo. Una alternativa para procesar los datos son las herramientas de código abierto, como SEISAN, CPS, etc. En el caso de SEISAN, contiene varios programas de procesado y análisis de señales sísmicas. En 2010 apareció Obspy, una herramienta con una gran capacidad para el procesamiento masivo de datos sísmicos, la cual está basada en Python. Obspy facilitar el ensamble de programas de sismología y el flujos de datos, por lo que funciona como un puente entre la sismología y el ambiente científico más grande de Python. Mediante programas más pequeños se pueden utilizar diferentes tipos de datos, p.ej. SEED, MiniSEED, GSE2, SAC, AH, entre otros. Además de realizar la lectura, escritura y conversión de datos, filtrado, corrección instrumental, simulación de instrumentos, rutinas de visualización extendida y graficado. Python permite aumentar enormemente los alcances de Obspy, ya que cada vez se crean nuevos programas.
Aún son pocos los centros de investigación en México que han implementado esta herramienta tan valiosa. Si queremos reducir la brecha tecnológica entre México y los países más avanzados, e incluso entre instituciones dentro de nuestro mismo país, es importante conocer las herramientas de vanguardia de código abierto, especialmente las que permiten el procesado de señales de Sismología.
METODOLOGÍA
Durante la estancia de verano del programa Delfín realizamos un trabajo de sensibilización con base en el análisis de datos de un evento sísmico ocurrido en Turquía (fecha y Magnitud)., Se estudiaron algunos conceptos teóricos sobre la lectura de primeros arribos y polaridades de ondas de cuerpo, así como su graficación en falsillas estereográficas con base en el azimut y ángulo de salida. El uso de la esfera focal nos permitió determinar soluciones de plano de falla de forma manual. Si bien actualmente se pueden calcular con algunos programas de cómputo, el objetivo de esta asignación fue el comprender el proceso y las variables que influyen en el resultado, ya que la dificultad en la construcción de los mecanismos focales reside en entender el procedimiento y establecer rangos de errores posibles en las soluciones de plano de falla. Se llevó a cabo el cálculo y corrección de los azimuts fuente-estación para cada estación y del ángulo de salida. Se pudo obtener el ángulo del strike, del echado, del rake y del plunge.
Se hizo una búsqueda y revisión de los centros de datos, las redes mundiales y de algunos programas, la mayoría de ellos disponibles en el portal del consorcio internacional IRIS (liga). Se trabajó con registros sísmicos proporcionados por el departamento de Ciencias de la Tierra de la Universidad de Bergen, Noruega. También analizamos registros sísmicos lobtenidos de la base de datos del SSN y la red sísmica del Centro de Geociencias (Querétaro). Todos estos registros fueron analizados para familiarizarnos con los datos y el software más común.
SEISAN permite leer y analizar una base de datos sencilla de terremotos de México, se utilizó el programa SAC para visualizar de forma rápida las formas de onda. De estas se calcularon los espectros de amplitud y potencia, se realizó la identificación y marcado de fases de los primeros arribos de las ondas P y S, lo que permitió localizar espacialmente los sismos y estimar sus respectivas magnitudes. Mediante el uso del programa FOCMEC, y con los primeros arribos de onda, se calcularon los mecanismos focales para determinar los tipos de fallas de la fuente. Por último, se utilizó el programa GMT para elaborar mapas y gráficas de las localizaciones y magnitudes, respectivamente.
Otro programa utilizado fue Obspy, el cual permitió leer cualquier tipo de formato de ondas (GSE2, MiniSEED, SAC, Seisan, ASCII) mediante la conexión hacia varios centros de datos, (IRIS, FDSN, WS) con base en varios protocolos de comunicación, como Seedlink. A las formas de onda, se les aplicaron filtros para disminuir el ruido, a éstas se les calcularon espectrogramas para observar la distribución de frecuencias y energía. La correcta lectura de los primeros arribos de ondas P y S permitió estimar las magnitudes y profundidades de los sismos. Obspy también permite construir los mecanismos focales de forma automática. Las tareas se pueden automatizar en una notebook, lo que facilita una apreciación más rápida y mejorada. Las localizaciones y la generación de mapas permitió comparar los tiempos de procesamiento de SEISAN. Hemos enlazado las bases de datos extranjeras y mexicanas como los registrados en la red sísmica del Centro de Geociencias para realizar un mejor procesamiento de registros de forma rutinaria y masiva.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos y prácticos de conceptos básicos de Sismología. Comparamos dos herramientas tecnológicas, Seisan y Obspy, esta última presenta varias ventajas, como la rapidez, una mayor automatización, visualización, ahorro de tiempo y recursos. Facilita la creación de bases de datos, que, conforme aumente el número de estaciones, se aproximará al big data cuando se analicen diferentes parámetros o atributos. Con las herramientas de uso masivo de datos no importa la condición ni extensión de los mismos, pues la exploración de parámetros es muy amplia. Con la constante incorporación de nuevas rutinas en Obspy se pueden procesar y analizar datos de distintas partes del mundo y generar mapas de sismicidad y peligro sísmico con mayor precisión.
Benito Sánchez Francisco Javier, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Carlos Alberto Díez Fonnegra, Fundación Universitaria Konrad Lorenz
USO DE ERRORES Y OBSTÁCULOS COMO UNA ESTRATEGIA DIDÁCTICA EN UNA ESTUDIANTE DE NIVEL SECUNDARIA
USO DE ERRORES Y OBSTÁCULOS COMO UNA ESTRATEGIA DIDÁCTICA EN UNA ESTUDIANTE DE NIVEL SECUNDARIA
Benito Sánchez Francisco Javier, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Carlos Alberto Díez Fonnegra, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
Durante el aprendizaje en general, y específicamente de las matemáticas, existen varios tipos de dificultades en los estudiantes. Un aspecto de la investigación en educación matemática implica la comprensión de estas dificultades, y en ese sentido se ha hecho una transición del estudio de los errores conceptuales a investigar el entendimiento y las diferentes formas de pensar de los estudiantes dependiendo de su edad (Thompson, Harel, 2021). A pesar de lo que opinan Thompson y Harel, esta investigación se hará a partir de varios estudios sobre la identificación y clasificación de los principales errores algebraicos en alumnos que se encuentran en el nivel secundaria.
Para comprender mejor los errores que cometen los estudiantes de matemáticas se hará un estudio de los estos para ser aplicado como una herramienta didáctica en la enseñanza de las matemáticas, especialmente en la resolución de ecuaciones algebraicas. Se usará la clasificación de errores de Donaldson que es la más adecuada para esta investigación ya que las categorías que propone son claras a pesar de tener más de medio siglo de haber sido establecidas, además funciona bien con los conocimientos impartidos en el nivel secundaria.
METODOLOGÍA
El estudio se aplicará a una estudiante mexicana de 13 años, que actualmente se encuentra finalizando el segundo año de nivel secundaria.
Se trabajará con una serie de problemas, iniciando con enunciados para después pasar a proposiciones, la diferencia es que las proposiciones tienen valor de verdad potencial o factual y los enunciados no. Se aplicarán dieciocho problemas y se analizará el proceso de resolución. Los problemas aumentarán de dificultad gradualmente involucrando solamente una variable en todos los problemas. El único concepto que se definirá previo a la resolución es el de Variable, que es un carácter alfabético que expresa un valor numérico o un número, en las ecuaciones algebraicas se utiliza para representar una cantidad desconocida.
Se harán sesiones de treinta minutos, hasta completar todos los problemas. El procedimiento será el mismo para cada problema: se comenzará proporcionando el problema a la estudiante para que ella lo resuelva de manera escrita, se continuará con una discusión acerca del método empleado. Si se presentan errores y/o dificultades se procederá a cuestionar a la estudiante sobre el procedimiento empleado, con ayuda de esto podrá resolver el problema correctamente, además de percatarse de cuál fue su equivocación y en qué consiste la corrección. En esta parte es necesario que la estudiante tenga claro cuál es la equivocación y hacer una comparación de realizado previamente y la corrección establecida.
Una vez que la estudiante tenga claro cual fue el error se propondrá otro problema similar que se denominará aplicación, ya que se aplicará el aprendizaje obtenido a partir del análisis de la resolución del problema original, esto para corroborar que ya no se cometa la misma equivocación. En caso de volver a presentar alguna dificultad se repetirá el proceso desde la discusión.
Si la estudiante no presenta ninguna equivocación en la solución, simplemente se procederá a la discusión donde ella explicará con sus palabras lo que hizo para resolver el problema, después pasará a resolver el problema de aplicación. En caso de no resolver correctamente la aplicación se repetirá el procedimiento.
La estrategia didáctica empleada consiste en auxiliar el desarrollo del pensamiento matemático de la estudiante proponiendo un problema, resolverlo, detectar dificultades, hacer una discusión en la que se cuestiona a la estudiante acerca de su conocimiento previo y de esta forma llevarla a la correcta solución del problema, después de realizará una aplicación de lo aprendido, esto se aplicará las veces que sea necesario para cada problema.
Terminadas las sesiones de resolución se hará un registro de los errores y/u obstáculos presentes para proceder a clasificarlos.
CONCLUSIONES
Se esperaba que una vez detectado un error no se repetiría, sin embargo, esto sí ocurrió. El error que se presentó más veces fue el de conservar el mismo signo de un término al intercambiarlo de lugar en una igualdad, esto probablemente se debe a que la estudiante no prestaba atención al signo de los términos, y solo consideraba los coeficientes y/o variables al cambiarlas de lugar. Se encontraron algunos errores arbitrarios no esperados, como no colocar paréntesis para indicar un producto y después realizar operaciones mal debido a eso, esto puede ser asociado a un obstáculo epistemológico.
Los errores de ejecución fueron los más comunes y esto era algo esperado, ya que la estudiante se sentía muy segura durante su proceso de resolución, esto la llevó a no hacer una revisión exhaustiva de su procedimiento, ignorando información, olvidando revisar los signos de cada término, entre otros y la no revisión de su proceso se hacía evidente cuando se cometía un error.
Los errores estructurales fueron los que se presentaron en menor cantidad, debido a que no se emplearon muchas definiciones de conceptos para los problemas, en el caso del inverso aditivo solo bastó hacerle algunas preguntas y darle pistas para que recordará la definición correcta.
Así se pudo corroborar que la oportuna identificación de errores para después generar una serie de cuestionamientos con la estudiante pudieron llevarla a la correcta solución de cada problema, así se empleó de una manera correcta el uso de los errores cometidos como una herramienta didáctica, mediante una discusión con la estudiante acerca de cada error cometido. Así el objetivo de este estudio, además de comparar la identificación de errores con otros previos, fue poder utilizar los errores como una herramienta didáctica para la resolución de problemas algebraicos que fueron aumentando gradualmente de dificultad y esto resultó satisfactorio.
Betancourt Suárez Emmanuel Josué, Universidad de Guadalajara
Asesor:Dr. David Ignacio Serrano García, Universidad de Guadalajara
DETECCIóN DE LUZ NATURALMENTE POLARIZADA EN ESCENAS REMOTAS
DETECCIóN DE LUZ NATURALMENTE POLARIZADA EN ESCENAS REMOTAS
Betancourt Suárez Emmanuel Josué, Universidad de Guadalajara. Esquivel Tejeda Mario Iván, Universidad de Guadalajara. Asesor: Dr. David Ignacio Serrano García, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La luz polarizada ha sido objeto de estudio por sus aplicaciones prácticas en diversos campos, por ejemplo brindar información acerca de la estructura, composición y propiedades de un material o la detección de objetos en un paisaje al reflejar la luz del ambiente que llega a polarizarse. Es por esa razón que desarrollar tecnologías que puedan detectar luz naturalmente polarizada es uno de los campos con un fuerte interés en la actualidad. Es por eso que en este proyecto se desarrolla un dispositivo portable para la detección de la luz naturalmente polarizada.
METODOLOGÍA
Implementación
Se utilizó el RaspBerry Pi 4B por ser un dispositivo asequible, portable y fácil de utilizar, en el cuál se le añadió un módulo de cámara, una celda de cristal líquido y un polarizador lineal de referencia.
Las conexiones de la celda de cristal líquido fueron soldados a cables macho-hembra conectados a los pines 12 (GPIO 23 PCM\_CLK) y 14 (Ground) del Raspberry pi. Posteriormente se implementó el modulo de cámara de Raspberry pi, y el polarizador lineal orientado en 45$^circ$ colocado entre la cámara y la celda de cristal líquido. Una vez teniendo los componentes el dispositivo, se diseñó una carcasa impresa en 3D a la medida y se implementó al dispositivo.
Una vez armado el prototipo, se le instaló el sistema operativo Raspberry OS basado en Debian y se instaló python 3 y los paquetes numpy, pigpiod y Open CV.
Por último, Se realizó un script en Python para la captura de las imágenes, y otro en MATLAB para su procesamiento.
Mediciones experimentales
Se realizaron mediciones controladas en el laboratorio donde se tomaron 80 capturas a cada escena mientras se variaba el estado de polarización de la celda de cristal líquido, tales como polarizadores de referencia, monitores y pantallas de celular, para después almacenarlos en un archivo NPY. Después el archivo fue leído por el código en MATLAB para obtener el absoluto normalizado y fase de las capturas, realizando una transformada de Fourier para observar los objetos que reflejaban luz polarizada naturalmente.
Una vez obtenidos los resultados en el laboratorio, se realizaron mediciones experimentales en escenas reales, tales como en autos, casas y objetos, donde se realizó el mismo procedimiento mencionado anteriormente.
CONCLUSIONES
Se desarrolló e implementó un módulo para sensar luz naturalmente polarizada. El módulo se compone de una raspberry pi, una celda de cristal líquido, una cámara para adquirir las imágenes y una carcasa impresa en 3D. Al módulo se le instaló el Raspberry OS, el Python 3 y se incluyó los paquetes necesarios como el numpy, Open CV y el pigpiod para la creación de un script en Python que permitía tomar capturas y almacenarlos en un archivo NPY. Después se tomaron capturas en el laboratorio con polarizadores de referencia y posteriormente en escenas reales. Por último, se realizó un script en MATLAB para procesar las capturas donde se realizaba una transformada de Fourier y obtener el absoluto normalizado y la fase de las capturas para observar objetos que reflejaban luz polarizada naturalmente.
Bonilla Celis Edinson Yesid, Universidad de Caldas
Asesor:Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PLUMBING SYSTEM DEL MICROGRANITO DE LA SIERRA EL AGUAJE, AL NORTE DE MéXICO.
PLUMBING SYSTEM DEL MICROGRANITO DE LA SIERRA EL AGUAJE, AL NORTE DE MéXICO.
Bonilla Celis Edinson Yesid, Universidad de Caldas. Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La Sierra El Aguaje es una estribación montañosa ubicada al norte de México, entre los municipios de Hermosillo y Guaymas, en el Estado de Sonora. En este trabajo se contribuyó con la caracterización espacial de un cuerpo intrusivo hipovolcánico producto del magmatismo asociado al Rift continental oblicuo del Mioceno medio-tardío, estudiado dentro del proyecto de tesis de maestría de la Ingeniera Geóloga Zorayda Carolina Dueñas Mariel, con el fin de mostrar los contactos con las unidades adyacentes, las estructuras deformativas presentes y las relaciones petrogenéticas.
Este estudio busca conocer acerca del plumbing system estableciendo si los magmas que generaron a dicho cuerpo, las rocas volcánicas que lo encajonan (Formación El Parral) y los diques que lo cortan, se relacionan genéticamente y pudiesen provenir de una misma cámara magmática. Esta información aportará en la reconstrucción tectónica del magmatismo en este rift continental del Proto-Golfo de California.
METODOLOGÍA
En primer lugar, se delimitaron las unidades geológicas con la ayuda de imágenes de los satélites Bing y Mapbox, descargadas previamente en el software SASPLANET 200606. Luego, se trazaron las estructuras deformativas en el software Geomática 2016 en base a un DEM de 12.5 m de Alos Palsar obtenido en NASA earthdata. Los datos estructurales fueron previamente recolectados por la estudiante Zorayda Carolina Dueñas Mariel, en la etapa de campo de su tesis de maestría.
Posteriormente, se analizaron imágenes de 12 secciones delgadas, tomadas en un microscopio Leyca del departamento de Geología de la Universidad de Sonora, con el fin de identificar mineralogía, variaciones en el tamaño de grano y texturas. Finalmente, con la información recolectada se elaboró un mapa geológico a escala 1:15.000, siguiendo los colores de la Carta Cronoestratigráfica Internacional, diseñado en el software Qgis 3.12.2.
CONCLUSIONES
El cuerpo intrusivo hipovolcánico estudiado presenta una orientación Norte-Sur, con una largo de 3 Km y un ancho de aproximadamente 0.5 Km. Presenta un contacto intrusivo al Este con el basamento cretácico (granodiorita con hornblenda); y al Oeste con la Formación El Parral, destacándose la presencia de una aureola de contacto.
Petrográficamente este cuerpo presenta como minerales esenciales cuarzo, plagioclasa y feldespato K; mica, anfíbol, ortopiroxeno, clinopiroxeno y fayalita como minerales mayores; óxidos de Fe-Ti y apatito como minerales menores; y sericita, epidota y clorita como minerales de alteración. A partir del porcentaje modal, las rocas se clasifican principalmente como granito, que dado el tamaño de grano que es menor a 1 mm, se antepone el término micro.
La disminución del tamaño de grano es evidente en los bordes de la unidad y es más grueso hacia el centro del cuerpo. Esto es asociado directamente con la etapa de cristalización, que indica un enfriamiento más rápido en los extremos por el contacto con la roca caja y uno más lento hacia el centro, teniendo tiempo de formar minerales de mayor longitud.
Las texturas del cuerpo intrusivo muestran una relación en función al tamaño de grano. Al borde, se observa una textura esferulítica, explicada por la rápida cristalización durante el emplazamiento. Mientras al centro ocurre una textura granofírica, producto de la cristalización simultánea de cuarzo y feldespato potásico a partir de magmas ricos en agua. La textura granofírica no se desarrolla homogéneamente en toda la unidad, por lo que se sugiere no utilizar el término litológico granófiro.
La asociación mineralógica encontrada, tanto en las rocas volcánicas encajonantes, como en los diques, presenta la misma composición que la reconocida en el cuerpo microgranítico lo cual sugiere por el momento una relación genética, que junto a las edades reportadas en la literatura (que han resultado de valores similares para todos las unidades), permiten sugerir que todos los magmas se encuentran asociados por medio de un mismo plumbing system.
En el área de estudio se tiene la presencia de fallas normales lístricas en tijera, que se traslapan en algunos sectores formando zonas de transferencia o rampas de relevo. En su mayoría, tienen una orientación NE-SW y buzamiento hacia el SE. Estas estructuras forman una cola de caballo dilatacional de una falla dextral, siendo coherente con un régimen de esfuerzo transtensivo del sector.
Bravo Lozano Lizeth Montserrat, Universidad de Guadalajara
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA DE RADIACIóN EN UN PROCEDIMIENTO DE CARDIOLOGíA INTERVENCIONISTA.
DOSIMETRíA DE RADIACIóN EN UN PROCEDIMIENTO DE CARDIOLOGíA INTERVENCIONISTA.
Bravo Lozano Lizeth Montserrat, Universidad de Guadalajara. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
odos los sistemas de rayos X usados en procedimientos de Cardiología intervencionista han sido caracterizados en términos de dosis y calidad de imagen. En conjunto con esto, se han medido las tasas de dosis de radiación dispersa a la posición de los ojos y tobillos de los médicos cardiólogos. Los primeros valores de dosis a pacientes pediátricos reportados en el marco del programa piloto realizado por la IAEA en América Latina y el Caribe, incluyó 70 procedimientos de Chile que posteriormente, fueron ampliados a una muestra de 544 procedimientos. Es importante revisar y actualizar la legislación que regula el uso de radiaciones ionizantes, donde se incorpore la implementación de programas de Garantía de Calidad y una formación en Protección Radiológica diferenciada de acuerdo a las necesidades del personal médico.
METODOLOGÍA
Dosimetría a los Pacientes
Los primeros valores de dosis a pacientes incluyó inicialmente 70 procedimientos. En él los pacientes fueron categorizados según sus edades en cuatro gru-pos:<1 año, 1-<5 años, 5-<10 años, 10-<16 años. El estudio piloto de dosimetría a pacientes se continuó durante los siguientes años y, durante el estudio, se registraron para cada procedimiento diferentes variables del paciente (Ej. edad, género, peso, etc) y dos magnitudes dosimétricas (producto dosis-área, y la dosis acumulada en el punto de referencia a la entrada del paciente). En este trabajo se categorizó a 544 pacientes.
CONCLUSIONES
Con la dosimetría se busca promover el uso de las diversas técnicas relacionadas con las radiaciones. Asimismo se busca la difusión y consecuente colaboración de difernentes países para que cada uno debe incorporar dentro de su normal funcionamiento, las herramientas que permitan mantener y mejorar las prácticas aprendidas. Se puede empezar por revisar y actualizar la legislación que regula el uso de radiaciones ionizantes en el ámbito médico. Los resultados de los trabajos realizados como parte de los proyectos RLA/9/057 y RLA/9/067 en el ámbito de la cardiología pediátrica pueden apoyar esta iniciativa de modernización de la normativa vigente. Dentro de las actualizaciones más urgentes, la implementación de los programas de Garantía de Calidad resulta fundamental.
Bryant Morales Francisco Seneca, Universidad de Guadalajara
Asesor:Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
Alvarado Garduño Omar, Instituto Politécnico Nacional. Bryant Morales Francisco Seneca, Universidad de Guadalajara. Monroy Rodríguez Megan Ixchel, Instituto Politécnico Nacional. Asesor: Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Un continuo es un espacio métrico, compacto, conexo y no vacío. Dados un continuo X y un número natural n, denotamos por Fn(X) a la familia de todos los subconjuntos de X no vacíos con a lo más n puntos. El conjunto Fn(X) puede ser dotado de diferentes topologías, en este caso, lo dotaremos de la topología inducida por la métrica de Hausdorff con la cual resulta ser un continuo.
Ya en el 2003 se estudió aquellos continuos X para los cuales F2(X) puede ser encajado en IR3 utilizando técnicas avanzadas de las matemáticas, logrando una caracterización dentro de la clase de los continuos localmente conexos: si un continuo tiene como subespacio un continuo H o un continuo con un n-odo (punto del cual salen n caminos los cuales solo se intersectan en dicho punto), donde n es mayor o igual a 5.
Se plantea dar una prueba alternativa al problema anterior, además de presentar una prueba completa que justifique que el segundo producto simétrico del continuo ocho es encajable en dichos espacios (al hacerlo sería el continuo más grande tal que su segundo simétrico se puede encajar en IR3).
METODOLOGÍA
Reuniones de manera virtual por la plataforma Meet, en donde se discutió el tema, se presentaron los resultados previos, se analizó la bibliografía de consulta y hubo discusión de ideas que permitieron dar solución a los problemas planteados en el proyecto.
De ser posible, presentar los resultados originales en eventos de difusión como congresos y talleres por alguno de los participantes en el proyecto. Se escribirán los resultados originales en formato de artículo para su posible publicación, con una redacción cuidadosa y rigurosa.
CONCLUSIONES
Se logró adquirir un conocimiento básico sobre la teoría de continuos y sus hiperespacios.
En cuanto a los objetivos propuestos solo se cumplió uno en su totalidad: dar una representación geométrica para el segundo producto simétrico de la figura ocho, la cual resulta ser un toroide a la cual «pegamos» dos bandas de Moebius en sus hemisferios. Para asegurar el encaje (que las bandas y el toroide no se intercepten entre sí), se encontró la expresión analítica para las bandas de Moebius dentro y fuera de un cilindro.
En cuanto al resto de demostraciones, se revisó un artículo el cual solucionaba de manera eficiente el problema del continuo H y solo se han obtenido ideas para el continuo con algún subespacio homeomorfo a un 5-odo.
Callejas Cortes Maritza, Instituto Politécnico Nacional
Asesor:M.C. Cruz Vargas de León, Universidad Autónoma de Guerrero
ANáLISIS DE MODELOS EN ECUACIONES DIFERENCIALES PARCIALES DE TIPO HIPERBóLICO: ADVECCIóN EN DINáMICA POBLACIONAL Y REPLICACIóN INTRACELULAR DEL VIRUS DE HEPATITIS C
ANáLISIS DE MODELOS EN ECUACIONES DIFERENCIALES PARCIALES DE TIPO HIPERBóLICO: ADVECCIóN EN DINáMICA POBLACIONAL Y REPLICACIóN INTRACELULAR DEL VIRUS DE HEPATITIS C
Callejas Cortes Maritza, Instituto Politécnico Nacional. Asesor: M.C. Cruz Vargas de León, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Las ecuaciones diferenciales parciales de tipo hiperbólico son de suma importancia
en la modelación matemática de procesos biológicos, con este formalismo se puede
modelar fenómenos de transporte de poblaciones y las edades de las infecciones. En
este trabajo, se planteó entonces estudiar modelos de crecimiento (Gompertz,
Logístico generalizado y Putter-Bertalanffy) con advección independiente y
dependiente del espacio para luego analizar un sistema hiperbólico que modela la
dinámica intracelular del Virus de Hepatitis C (VHC).
METODOLOGÍA
Se comenzó realizando un esquema numérico por el método de Lax para resolver la
ecuación de advección sin dinámica poblacional, se realizó entonces un algoritmo en
Matlab para obtener la solución numérica y se comparó con la solución analítica. Se
realizó también un análisis de estabilidad tipo Von Neumann obteniendo como
condición de estabilidad la constante de Courant.
Bajo la misma metodología se obtuvo la solución numérica de la ecuación logística
con advección no lineal notando que para t lo suficientemente grande se forma la
curva sigmoidea.
Luego se resolvió analíticamente el modelo lineal de una especie con coeficiente de
advección espacialmente heterogéneo y se graficó el resultado en Matlab usando
como condición inicial una gaussiana. Se encontró una solución exacta de los
modelos de Gompertz, Logístico generalizado y Putter-Bertalanffy con advección
espacialmente heterogéneo bajó un cambio de variable apropiado, llevando a la
ecuación no lineal al modelo lineal. Se graficaron las soluciones de los modelos.
La segunda parte de este trabajo, se estudió la interpretación biológica de un modelo
de la dinámica intracelular del VHC. Las ecuaciones tipo hiperbólico modelan la edad
de la infección celular por el VHC. Posteriormente, se probó la existencia de un punto
de equilibrio en el modelo intracelular del VHC. Suponiendo independencia en t se
resolvió el modelo restante para el parámetro Rc y con esta ecuación se creó una
nueva función H(Rc
) que se analizó para buscar una condición necesaria de la
existencia del punto de equilibrio. El sistema de ecuaciones tipo hiperbólico se llevo
a un sistema de ecuaciones diferenciales ordinarias bajo un cambio de variable con
parámetros independiente de la edad de la infección.
Finalmente, se realizó un esquema numérico de Lax para obtener las soluciones
numéricas del modelo intracelular del VHC en Matlab.
CONCLUSIONES
Se encontraron soluciones analíticas de las ecuaciones de crecimiento con advección
independiente y dependiente del espacio usando transformaciones pertinentes en
cada caso para llevarlas a una ecuación lineal. En cuanto a la parte numérica se usó
el esquema de Lax realizando también el análisis de Von Neumann para obtener la
condición de estabilidad en cada esquema.
Para el modelo del VHC, se logró determinar las condiciones de existencia del punto
de equilibrio del sistema, se obtuvieron condiciones para llevar el sistema de EDP de
tipo hiperbólico a un sistema de ecuaciones diferenciales ordinarias y se realizó el
esquema numérico para obtener las soluciones numéricas.
Camargo Chávez José Emilio, Instituto Tecnológico de Colima
Asesor:M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
MODELADO DE CAJA BLANCA EN EL DISEñO Y OPTIMIZACIóN DE LAS DIMENSIONES DE PIEZOELéCTRICOS COMERCIALES Y SU RELACIóN CON SUS PROPIEDADES ELéCTRICAS
MODELADO DE CAJA BLANCA EN EL DISEñO Y OPTIMIZACIóN DE LAS DIMENSIONES DE PIEZOELéCTRICOS COMERCIALES Y SU RELACIóN CON SUS PROPIEDADES ELéCTRICAS
Camargo Chávez José Emilio, Instituto Tecnológico de Colima. Asesor: M.C. Elena Elsa Bricio Barrios, Instituto Tecnológico de Colima
PLANTEAMIENTO DEL PROBLEMA
Los piezoeléctricos son materiales capaces de convertir la energía mecánica en eléctrica al someterse a una tensión, como puede ser una carga o una excitación externa, de igual forma, pueden generar energía de forma inversa.
Estos materiales se crean con la selección de un material siendo los más comunes el cuarzo y el titanato zirconato de plomo. El uso de los piezoeléctricos es visible en la vida cotidiana, como en los relojes de cuarzo utilizados en el área de microcontroladores para producir pulsos eléctricos detectables. Otro uso común es en sensores de aceleración y de choque, los cuales son implementados en la detección de colisiones vehiculares, al usarse en sensores de aceleración, su aplicación se extiende para el análisis de vibraciones. Y un uso menos común es para la producción de energía por métodos de Energy Harvesting.
Existe el problema latente de que la tecnología piezoeléctrica no es abiertamente comercial, por lo que para poder trabajar con estos equipos se requiere contar con un capital elevado para el público común que encasilla tanto la adquisición del material como a su implementación.
Dado que las actuales aplicaciones de los piezoeléctricos son limitadas; este trabajo propone identificar algunas características físicas para el aprovechamiento de sus propiedades eléctricas.
METODOLOGÍA
A partir de la vasta bibliografía se identifico el modelo de interés, siendo este el de un grado de libertad con un piezoeléctrico en cantiléver con una conexión en serie que considera que los electrones fluyen desde uno de los electrodos hacia el otro y viceversa, del cual se obtuvo un circuito análogo eléctrico en el que se pudiera visualizar y relacionar la sección mecánica con la eléctrica, surgiendo así la ecuación vectorial del desplazamiento eléctrico, donde se derivan las ecuaciones de efecto directo donde el campo eléctrico se produce por una fuerza, y la de efecto inverso que refiere a la contracción del cerámico por someterse a un campo eléctrico.
El modelo se desarrolla utilizando el software libre de programación matemática Octave Online teniendo en cuenta los siguientes datos constantes proporcionadas por Carlos Quiroz Salinas (2015) en su tesis de grado de licenciatura que presento en la Universidad de Chile.
A continuación, se eligieron 3 distintos proveedores (PICMA, Steiner & Martins Inc y Piezo) de piezoeléctricos de los cuales se obtuvieron los datos variables arriba mencionados de 5 modelos diferentes por proveedor e ingresaron los datos al código generado en Octave para obtener el voltaje de respuesta en frecuencia.
CONCLUSIONES
A partir de los datos proporcionados por PICMA, se construyó un diagrama de contorno que muestra que para bajos voltajes (50 V) el costo de inversión es bajo (de 360 a 400 USD) y el volumen del piezoeléctrico será menor (110 a 120 mm3). No obstante, para voltajes superiores a 250 V; se mantendrá el mismo volumen con un rango más amplio de costo ($360 a $540 USD). El diagrama del factor de calidad muestra que para un rango de precio bajo y un volumen alto el factor de calidad será alto. Para un costo de $360 y un volumen de 260 mm3 se puede obtener un factor de calidad de 14, el cual indica un mejor aspecto sobre los de mayor costo de inversión y mismo volumen. De igual forma se muestra una supuesta estabilidad al tener un volumen de 160 mm3 donde puede mantenerse constante el factor de calidad en 6 para el rango de precios desde $360-$460 USD para después bifurcarse a distintos volúmenes para precios mayores. El diagrama de contorno que describe como variable de salida la potencia, muestra que a menor inversión ($420 USD), se necesita un volumen alto (270 mm3) para alcanzar una potencia alta (60 W), donde la línea de potencia disminuye su requisito de volumen cuando el costo de inversión es cada vez mayor.
Steiner & Martins Inc se observó que el diagrama de contorno con la variable de salida de voltaje (40 V) el costo de inversión sobre la marca es alto al igual que su volumen ($130 USD y 2100 mm3). Como parte del factor de calidad, el diagrama de contorno nos muestra una curiosa respuesta donde el volumen y el precio no influye para el factor de calidad, ya que este se mantiene en todos los elementos analizados. Esto se debe a que la frecuencia máxima y la geometría son próximas entre sí. Mientras que, la potencia muestra una relación análoga al voltaje máximo.
En Piezo se observó que el voltaje muestra que la variación de costo incluye un amplio espectro de voltaje máximo (siendo 1.8 V el mayor) y cada línea de voltaje es capaz de alcanzarse variando el volumen del piezoeléctrico, con esto, un piezoeléctrico de $600 USD que tenga un volumen 360 mm3 contará con un voltaje máximo de 1.4 V, pero podría sustituirse por un piezoeléctrico de menor costo para conseguir el mismo voltaje, teniendo por ejemplo una pieza de $200 pero con un volumen de 420 mm3. El factor de calidad muestra que cuando se tiene un piezoeléctrico de costo de inversión bajo y volumen bajo la variable de salida será superior, pero al aumentar el volumen este será menor. Las curvas de factor de calidad se alzan al aumentar la variable de volumen, por lo que un piezoeléctrico que cuente con un volumen 150 mm3 y un costo de $100 USD tendrá el mismo factor de calidad (Q = 5) que una unidad de 300 mm3 y un costo de inversión de 600 USD. El diagrama de contorno de potencia muestra que, al adquirir un piezoeléctrico con un precio de inversión bajo obtendrá potencias pequeñas de hasta 0.5 mW con el mayor volumen muestreado (volumen > 400 m3). Al aumentar la inversión se tiene una selección mayor de líneas de potencia.
Como trabajo futuro se plantea evaluar el efecto de las resistencias y amplitud de oscilaciones para su potencial aplicación en sistemas reales.
Camberos Jimenez Karla Melanie, Instituto Politécnico Nacional
Asesor:Mtro. Juan de Dios Viramontes Miranda, Universidad Autónoma de Ciudad Juárez
UN ESTUDIO DE LA INCORPORACIÓN DE UN DGS PARA ESTUDIANTES DE PREPARATORIA
UN ESTUDIO DE LA INCORPORACIÓN DE UN DGS PARA ESTUDIANTES DE PREPARATORIA
Camberos Jimenez Karla Melanie, Instituto Politécnico Nacional. Asesor: Mtro. Juan de Dios Viramontes Miranda, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Esta investigación presenta una propuesta para profesores de nivel medio superior para la enseñanza de la continuidad usando un software de geometría dinámica (DGS, por sus siglas en inglés), en este caso Geogebra, con la finalidad de mejorar la comprensión del tema por parte de los estudiantes, ya que se considera un tema relativamente difícil de entender. Esta propuesta contiene una guía con problemas sugeridos para que el profesor pueda aplicar en clase o bien, inspirarse para realizar los propios.
Un DGS es una herramienta sumamente útil al momento de enseñar temas abstractos a los estudiantes, no sólo porque lo muestre de una manera sencilla, sino porque lo hace llamativo para el alumno. Ayuda a disminuir el rechazo a las matemáticas que muchos de ellos presentan, esto propicia un ambiente donde se sienten seguros para exponer sus dudas y experimentar con las propiedades que tienen las diferentes funciones.
METODOLOGÍA
Se revisaron 6 documentos de investigación internacional para poder enmarcar nuestra propuesta, se buscó ideas que reflejaran la situación internacional de la enseñanza del cálculo mediado con un DGS. La recomendación del uso de un DGS es una opción viable pero que depende de las preferencias y entorno del profesor, sin que esta elección determine la calidad de su clase. Por lo tanto, es solo recomendable pero no determinante.
CONCLUSIONES
Se elaboró un documento con la propuesta totalmente documentada y autocontenida para el uso de los profesores, una guía de problemas para uso tanto de profesores como estudiantes y una presentación con la propuesta como productos de la investigación.
Campuzano Ramirez Guadalupe Monserrat, Instituto Tecnológico del Valle de Morelia
Asesor:M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
DETERMINACIÓN DE GRUPOS FUNCIONALES SUPERFICIALES DEL CARBÓN ACTIVADO SINTETIZADO A PARTIR DE MATERIALES LIGNOCELULÓSICOS (CÁSCARA DE PALMA DE ACEITE Y CÁSCARA DE CACAO).
DETERMINACIÓN DE GRUPOS FUNCIONALES SUPERFICIALES DEL CARBÓN ACTIVADO SINTETIZADO A PARTIR DE MATERIALES LIGNOCELULÓSICOS (CÁSCARA DE PALMA DE ACEITE Y CÁSCARA DE CACAO).
Campuzano Ramirez Guadalupe Monserrat, Instituto Tecnológico del Valle de Morelia. Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Los residuos agroindustriales que se generan en los procesos de producción son uno de los problemas que prevalecen debido al incorrecto manejo y disposición de estos. En ese sentido, se han realizado distintas investigaciones en las cuales se proponen diversos opciones de residuos agroindustriales como precursores para la síntesis de carbón activado.
Según datos de Anuario Estadístico de la Producción Agrícola en México para el año 2019, en el estado de Tabasco se cosecharon 15,797.74 ha de palma de aceite con una producción de 244,091.36 ton. Para el caso del cultivo de cacao, se cosecharon 40,857.26 ha con una producción de 18,297.53 ton.
Los residuos de la producción de palma de aceite son variados y en cantidades que se llegan a generar representan el doble de la cantidad de aceite que se produce, es por ello que se considera como una opción viable para la obtención de carbón activado (Vidal et al, 2018). Por otro lado, la cáscara de cacao corresponde al 90% del fruto, es decir que en su mayoría se clasifica como desecho. Sin embargo, éste presenta un alto contenido celulósico que se caracteriza por su capacidad de adsorción de metales y otros contaminantes (Burgos y Jaramillo, 2015).
METODOLOGÍA
Pretratamiento de precursores.
Como pretratamiento para la cáscara de palma de aceite y cacao se trituraron en una pulverizadora, posteriormente fue tamizada con rejillas del No. 20 y 40. El material retenido entre ambas rejillas fue utilizado para ser carbonizado.
Las muestras que se utilizaron en la experimentación fueron tomadas de la Planta Piloto No. 3 -Tratamiento atmosférico y de residuos sólidos de la División Académica de Ciencias Biológicas de la Universidad Juárez Autónoma de Tabasco ubicada en la ciudad de Villahermosa, Tabasco.
Carbonización de los precursores
Las muestras molidas y cribadas fueron empleadas para esta etapa. En un tubo de cuarzo se agregaron los precursores y cerrado con tapones de malla de acero en los extremos. El tubo de cuarzo fue pesado y luego introducido en un tubo de hierro a la mufla. En la parte superior se conectó una manguera que codujo N2 a un flujo de 200 ml/min. este proceso se hizo a una condición de 300°C durante 30 min. Terminado el tiempo, el tubo de cuarzo se pesó nuevamente y determinando su rendimiento.
Activación del carbonizado
Este proceso se hizo bajo el mismo principio anterior. Se sustituyó el flujo de N2 por un flujo de vapor de agua a una presión de entre 10 - 20 psi. Se consideraron diversas conbinacions de temperatura y tiempo de activación que oscilaban entre los 300 a 600 °C y 30 a 90 min, respectivamente.
Terminada la activación se dejó enfriar el carbón activado y posteriormente se llevó al horno para su secado.
Preparación de soluciones
Las bases de Boehm (NaHCo3, Na2Co3 y NaOH) fueron preparadas a 0.05 M utilizando agua destilada. La solución de HCl se preparó con una concentración de 0.05 M para la acidificación de las muestras. Por último, se utilizó el NaOH a 0.05 M como titulante para la neutralización de las muestras.
Caracterización de la química superficial del carbón activado-Titulación Boehm.
Se pesaron 0.500 gr de muestra de carbón activado obtenido a partir de la cáscara de cacao para cada solución de las bases de Boehm (NaHCo3, Na2Co3 y NaOH) y se agregaron a matraces previamente etiquetados. A una temperatura de 100°C se dejaron secar las muestras de carbón durante un día. Posteriormente, se agregaron 25 ml de las bases de Boehm a cada muestra según correspondía y se llevaron a agitación durante 24 h en un agitador orbital Scorpion Scientific de 60-240 rpm. Después de la agitación las muestras fueron filtradas con papel filtro grado 4 con retención de partículas de 20-25 μm; a continuación se tomó un alícuota de 10 ml para ser acidificada con 20 ml de HCl para el NaOH y NaHCo3; y 30 ml para el Na2Co3. Finalmente, las muestras fueron desgasificadas inyectando un flujo de N2 de 300-400 ml/min durante 2 h para ser neutralizadas con NaOH a 0.05 M.
CONCLUSIONES
Durante la estadía se cumplió con el objetivo de caracterizar la química superficial de los carbones sintetizados a partir de cáscara de palma de aceite y cáscara de cacao.
Entre los resultados de la caracterización del carbón activado de cáscara de palma de aceite encontramos que los carbones que son activados a temperaturas bajas a mayores tiempos tienen una presencia de grupos Lactónicos. Cuando son sintetizados a temperaturas altas y tiempos cortos la concentración de Fenoles es menor. Para los grupos carboxílicos el tiempo no representó un factor determinante para propiciar la presencia de estos grupos. Por otro lado, las temperaturas bajas propician la presencia de carboxílicos.
Entre los resultados de la caracterización del carbón activado de cáscara de cacao encontramos que los carbones que son activados a temperaturas altas a mayores tiempos tienen una presencia de grupos Fenólicos. La mayor presencia de grupos lactónicos se encuentra muy cercano a las condiciones del punto central brindadas por el diseño experimental. La mayor presencia de grupos carboxílicos se encuentra cuando los carbones son activados a temperaturas bajas y tiempos medios.
Cardenas Martinez Uriel Josafat, Instituto Politécnico Nacional
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
INGENIERíA SíSMICA; ANáLISIS Y PROCESADO DE DATOS SíSMICOS PARA LA ZONA DE ESTUDIO TECáMAC ESTADO DE MéXICO
INGENIERíA SíSMICA; ANáLISIS Y PROCESADO DE DATOS SíSMICOS PARA LA ZONA DE ESTUDIO TECáMAC ESTADO DE MéXICO
Cardenas Martinez Uriel Josafat, Instituto Politécnico Nacional. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
A través de este trabajo se busca el análisis y procesamiento de datos sísmicos registrados en estaciones sismológicas cercanas a la zona de estudio, conocer y comparar los efectos que tienen los sismos en el terreno.
METODOLOGÍA
En este estudio se eligió la zona metropolitana Tecámac del Estado de México, la justificación de hacer un estudio sismológico de esta zona en particular recae en la ausencia de análisis de registros sísmicos, esto debido a ser una zona metropolitana con no muchos años de antigüedad. sus características demográficas han generado un incremento exponencial en la población, así como en la infraestructura de la zona, por lo que no se debe de pasar en alto la necesidad de realizar análisis sísmicos constantes en la zona para garantizar la seguridad de las personas que hospeden estructuras potencialmente peligrosas ante la presencia de fenómenos sísmicos.
Estaciones sismológicas
Se eligieron las estaciones disponibles con datos sismológicos, cercanas con una distancia no mayor de 50 km a la zona de estudio, y de ellas se obtuvieron todos los sismos registrados por dichas estaciones, incluyendo sus características por sismo tales como magnitud, profundidad, distancia a la estación de registro y magnitudes. Cabe mencionar que se considero tomar estaciones en diferentes tipos de suelos para comparar el efecto de los sismos en diferentes tipos de suelo.
Para el análisis de los datos sísmicos se hará uso del programa Seimograms Analyzer, más sin embargo antes de comenzar el análisis de cada registro sísmico, primeramente se eliminaron aquellos eventos sísmicos que resultan de poca relevancia para el estudio, los criterios que se consideraron para esta decisión fueron primeramente tener una magnitud mayor a 4.5 en cualquier de sus escalas de medición, la distancia del epicentro a la estación de registro no debía ser mayor de 500 km, de igual manera si el hipocentro tenía una profundidad considerable.
Aquellos sismos que fueron registrados por al menos 2 estaciones y se encontraban en diferentes suelos, se consideraron como datos potencialmente relevantes para el estudio puesto que nos darían la información necesaria para comparar el comportamiento de los sismos en distintos tipos de suelo.
En un segundo análisis se busco obtener las velocidades criticas o máximas generadas en cada sismo, la duración del sismo y comparar la velocidad absoluta acumulada estándar CAVstd; El cálculo de Este parámetro puede darnos una idea del potencial de daño de un movimiento de tierra.
Los datos marcados donde en el parámetro CAV std están fuera del umbral de 156.96 cm/s, ameritan ser señalados como amenazas o potencialmente dañinos para estructuras en el lugar donde se registró.
Cabe mencionar que no es necesario que en las 3 componentes sobrepase este umbral, con una sola componente que este por encima del valor 156.69 cm/s debe ser marcado el sismo.
Resultados
Analizando los datos es notorio el efecto del sismo en cada tipo de suelo, observamos que sismos registrados con diferentes estaciones en diferentes tipos de suelo presentan aceleraciones con una enorme diferencia de valores.
Tomando como ejemplo el sismo del 15/06/1999, registrado en tres estaciones sismológicas, la estación TXS1 y TXS2 presentaron aceleraciones de 20 a 30 cm/s^2 en sus componentes NE,NW, estas estaciones se encuentran en un suelo arcilloso, mientras que la estación TXCR que se sitúa sobre roca metamórfica, apenas alcanzo aceleraciones de entre 2 y 3 cm/s^2 en las componentes NE,NW.
Relaciones casi de 10 a 1, presentándose en los suelos blandos las aceleraciones de gran intensidad y en suelos duros se presentan con menor intensidad.
CONCLUSIONES
Mayor parte del territorio de la zona de estudio se encuentra sobre suelo duro, lo que favorece a una menor percepción de los efectos sismológicos, más sin embargo, a través de los datos recabados se observa que se han registrado sismos de gran magnitud que resultaron ser una amenaza para la zona de estudio, si bien son pocos los que han afectado la zona, no se debe pasar por alto que existe una posibilidad de que ocurra un sismo que reúna las características de poca profundidad y una distancia cercana ,así como una magnitud que lo vuelvan potencialmente peligroso para la estructuras de la zona en estudio.
Carmona Zendejas Karina, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
METODOLOGíA PARA LA ENSEñANZA DE LA MATEMáTICA, UTILIZANDO PREGUNTAS DETONANTES
METODOLOGíA PARA LA ENSEñANZA DE LA MATEMáTICA, UTILIZANDO PREGUNTAS DETONANTES
Carmona Zendejas Karina, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Desde sus inicios, la enseñanza se ha caracterizado por establecer relaciones importantes entre el conocimiento, el alumno y el docente. Las diversas estrategias creadas en tiempos recientes para llevar a cabo el proceso de aprendizaje han sido el fruto de ideas contrapuestas que rompen con la tradicionalidad de una clase convencional; dicha tradicionalidad ha consistido por años en ver al profesor como el protagonista que brinda las herramientas, los fundamentos, la teoría y el conocimiento que el alumno necesita. Se trata de una práctica que muestra de manera jerárquica la relación que existe entre el alumno y el profesor y que ha banalizado el aula al grado de concebirla sólo como un espacio para escuchar, tomar notas y memorizar. Esta sistematización ha impedido adquirir conocimiento con dinamismo para que el alumno pueda interiorizar los aprendizajes y no sólo memorizarlos.
La falta de habilidades de razonamiento lógico que permiten resolver problemas en contextos reales y la mecanización de procesos sin un análisis por parte del alumno, han destacado la importancia de implementar y renovar estrategias previamente establecidas para incorporar la resolución de problemas en las clases. Dichas estrategias deben permitir la interacción no jerárquica del alumno y el docente, así como transformar el aula en espacios en los que se construya libremente el conocimiento.
METODOLOGÍA
Se realizó un análisis de enfoques didácticos como el paradigma socio histórico cultural de Vygotsky, el aula inversa y el constructivismo, analizando el papel del alumno y el docente, la interacción entre el alumno y sus compañeros así como la función del aula. Se destacaron las similitudes y diferencias entre cada enfoque para retomar las ideas más sobresalientes o mayormente utilizadas.
Posteriormente, se hizo un estudio del funcionamiento de las preguntas detonantes en el ámbito educativo, analizando sus características superficiales y los alcances que tienen en los alumnos y los profesores. Particularmente, se analizó la aplicación de las preguntas detonantes en el aula y la manera en la que pueden ser empleadas en el área del conocimiento de las matemáticas.
Después, se investigó sobre las energías renovables y sobre dos métodos para contrarrestar los efectos de la crisis climática: el lombricomposteo y la técnica Zai. A partir de esta investigación se crearon y resolvieron dos problemas matemáticos con un contexto social.
Finalmente se estudió el método de resolución de problemas de Pólya y, con base en él, se estructuró una nueva estrategia de enseñanza que retoma las ideas resaltadas de los enfoques didácticos estudiados e incorpora la utilidad de las preguntas detonantes. El método recupera las ideas de Pólya sobre la resolución de problemas y plantea en su desarrollo los problemas que fueron creados en el estudio de las energías renovables.
CONCLUSIONES
Una nueva sistematización de estrategias de aprendizaje y enseñanza para fortalecer las prácticas ya existentes es la manera con la que se encuentran ideas frescas para modificar las estructuras de la clase tradicional y dinamizarlas incorporando tecnologías afines a los contextos de los alumnos y producir aprendizajes significativos. Con la metodología propuesta se observa un cambio de roles entre educadores y educandos, y se hace hincapié en que el profesor es el guía de la interiorización del conocimiento y no solamente el protagonista. A su vez el aula ya no tiene una estructura teatral y jerárquica, sino que se vuelve un espacio para adquirir experiencias de conocimiento que fortalecen el aprendizaje.
Análogamente, al hacer uso de preguntas detonantes, este método hace posible dinamizar una clase y convertirse en el en el ingrediente perfecto para un aprendizaje significativo por parte de los alumnos, trasciendiendo el plano convencional del sistema de aprendizaje. Finalmente, al incorporar la resolución de problemas como elemento primordial en la estructura de la clase, se permite al alumno adquirir habilidades útiles para su aprendizaje bajo contextos reales.
Carreño Cañaveral José Edgar, Universidad Autónoma de Chiapas
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
ESTUDIO HIDROLóGICO E HIDRáULICO DE LA CUENCA GRIJALVA-USUMACINTA A TRAVéS DE TéCNICAS ESTADíSTICAS Y DE CONTROL ESTOCáSTICO.
ESTUDIO HIDROLóGICO E HIDRáULICO DE LA CUENCA GRIJALVA-USUMACINTA A TRAVéS DE TéCNICAS ESTADíSTICAS Y DE CONTROL ESTOCáSTICO.
Carreño Cañaveral José Edgar, Universidad Autónoma de Chiapas. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Actualmente la humanidad atraviesa por una problemática en relación a la escasez de agua como recurso aprovechable, esto debido a diversos factores; como lo son, la sobrepoblación, la contaminación de los suelos, mares, ríos, etc. De acuerdo a un informe, titulado Agua y energía, de las Naciones Unidas sobre el Desarrollo de los Recursos Hídricos en el Mundo presentado en Tokio (Japón), con motivo del Día Mundial del Agua. La creciente demanda energética en el mundo podría tener como consecuencia un aumento de la escasez de agua.
Hoy en el mundo, 768 millones de personas no tienen acceso a sistemas mejorados de abastecimiento de agua. Paralelamente, 1.300 millones de personas no tienen acceso a la electricidad. En total, la producción energética representa casi 15% de las extracciones de agua, y la tendencia es al alza. Se prevé que de aquí a 2035 las extracciones de agua relacionadas con la producción energética aumentarán en 20%, debido al crecimiento demográfico, a la urbanización y a la evolución de las formas de consumo. (UNESCO)
Con ayuda de análisis estadísticos y estocásticos aplicados a las cuencas hidrológicas, podemos crear distintos métodos para el aprovechamiento de los sistemas fluviales.
METODOLOGÍA
Para comenzar con este proyecto, en primera instancia, se eligió una de las 37 regiones hidrológicas que existen en la República Mexicana. Tomamos en consideración la cuenca hidrológica Grijalva-Usumacinta, esta cuenca se delimitó geográficamente mediante un software computacional y a su vez se tomaron en cuenta las respectivas estaciones climatológicas (activas) de esa región. Para la descarga de datos, recurrimos al servicio meteorológico nacional (SMN) de la comisión nacional del agua (CONAGUA).
Se tomó una muestra de 28 estaciones para recopilar datos de tormentas, precipitaciones máximas anuales y datos diarios; como lo son, temperaturas, precipitaciones, etc. El primer análisis que se hizo fue referente al huracán Stan, que azotó el golfo de México en el año 2005, teniendo una pequeña tabla con datos del 1 al 5 de octubre. Realizamos el cálculo de promedios diarios y por estación para después comparar estos resultados utilizando la base de datos del CLICOM en malla. Obteniendo, así, las regiones más afectadas por esta tormenta. El segundo análisis constó de un registro de las precipitaciones máximas anuales por año de las 28 estaciones, de 1940 a 2019. De esos datos, calculamos la media, desviación estándar y el coeficiente de variación para poder construir una tabla de estadísticos F y aplicar la prueba de Fisher para la detección de regiones homogéneas. Por último, con todos los datos diarios recopilados desde 1940, creamos una base de datos para poder consultar la información de una forma más eficaz y así poder hacer distintos análisis; como los meses con máxima precipitación o las regiones con mayor evaporación.
CONCLUSIONES
Con respectos a los datos, se obtuvo información sobre la tormenta y cómo estas pueden llegar a afectar zonas distantes a las del origen; ya que, el huracán tuvo una trayectoria a través del golfo de México, pero las regiones con mayor precipitación fueron las del suroeste de Chiapas. Entonces, con la prueba de Fisher para regiones homogéneas se puede detectar si existe una correlación entre las estaciones con altas precipitaciones en esas fechas. Esto se puede lograr de mejor manera al contar con la base de datos creada; ya que contamos con datos de días específicos.
En base a este proyecto, se considera una línea temporal de investigación a futuro, haciendo distintos análisis y aplicando distintos métodos matemáticos.
Carrillo García Axel, Instituto Politécnico Nacional
Asesor:Dr. Juan Carlos Gómez Izquierdo, Instituto Politécnico Nacional
UN MODELO DE SABOR CON DOS CEROS DE TEXTURA PARA LA PARAMETRIZACIóN DE LA MATRIZ DEL MEZCLAS PMNS
UN MODELO DE SABOR CON DOS CEROS DE TEXTURA PARA LA PARAMETRIZACIóN DE LA MATRIZ DEL MEZCLAS PMNS
Carrillo García Axel, Instituto Politécnico Nacional. Pérez Castro Ivan, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Gómez Izquierdo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La masa de una partícula elemental representa su energía cuando esta se encuentra en reposo, esto implica que una partícula que no tiene masa no puede mantenerse en reposo, de hecho siempre debe moverse con rapidez igual a la de luz. El el modelo estándar de la partículas elementales un fermión masivo debe por lo tanto poder moverse con rapidez menor a la de luz, en un inicio se creía que los neutrinos (partículas del modelo estándar) eran fermiones sin masa, no obstante, después de la gran cantidad de pruebas experimentales recabadas en los últimos años se ha observado un fenómeno llamado oscilaciones de neutrinos, en la que los estados de sabor de los neutrinos cambian de uno a otro, para que esto sea posible tales neutrinos deben tener masa no nula.
El Modelo Estándar de las interacciones electrodébiles contiene tres neutrinos que son partículas con quiralidad puramente izquierda y sin masa. Tener tres neutrinos no masivos indica que debe existir conservación del número leptónico. Esta conservación de número leptónico es una simetría accidental en lugar de una simetría fundamental del modelo estándar. Por eso muchos físicos creían firmemente que los neutrinos deben ser partículas masivas, incluso mucho antes de acumular pruebas experimentales incontrovertibles de que los neutrinos oscilan de un sabor a otro. Este no es la única incógnita abierta hoy en día sobre los neutrinos, pues para cada una de las partículas en el modelo estándar existe su correspondiente antipartícula, que puede ser ella misma o distinta, en el primer caso se tiene neutrino de Majorana y en el segundo se tiene un neutrino de Dirac, aunado a esto. Esta el problema de la jerarquía en el espectro de masas el cual surge debido a que experimentalmente fermiones del mismo tipo, pero de diferente familia (clasificación en el modelo estándar), tienen una diferencia en el valor numérico de sus masas, pero debido a que no se sabe el valor de las masas de los neutrinos sino la diferencia de los cuadrados de estas, no ha sido posible saber si la masa del neutrino de la tercera familia es mayor que la del neutrino de la segunda familia y este a su vez mayor que la del neutrino de la primera familia (jerarquía normal) o bien que la masa del neutrino de la segunda familia sea mayor que la del neutrino de la primera familia y este a su vez mayor que la masa del neutrino de la tercera familia (jerarquía invertida).
Importantes avances teóricos se han hecho en la compresión de los mecanismos para la generación de las masas de los fermiones del modelo estándar y las mezclas del sabor de estos fermiones. Algunos progresos han sido realizados con la ayuda de los ceros de textura y las simetrías de sabor, a partir de estos dos elementos se pueden especificar relaciones cualitativas entre los ángulos de mezcla y las razones de masa de leptones con un mínimo de parámetros libres.
METODOLOGÍA
Se trabajo con un modelo de sabor que emplea el grupo de simetría permutacional S3 como una simetría se sabor, con esto las matrices de masa de los fermiones tienen una forma genérica con dos ceros de textura. Al diagonalizar las matrices de masa se obtienen expresiones teóricas para los elementos de estas matrices a través de los invariantes de matriz en términos de las masas físicas de los leptones cargados y las masas efectivas de los neutrinos de Majorana. En el proceso de diagonalización se encuentran matrices ortogonales y matrices de fases que permiten construir la matriz de mezclas PMNS (Pontecorvo-Maki-Nakagawa-Sakata) en la que con su parametrización general es posible determinar expresiones teóricas para las ángulos de mezcla (ángulo de solar, ángulo atmosférico y ángulo de reactor) en la oscilación de neutrinos.
CONCLUSIONES
En las expresiones halladas para los ángulos de mezcla se obtienen tres parámetros libres, dos de los cuales están restringidos a mantenerse en una región determinada; uno por las masa fisicas de los leptones cargados y otro por los datos esperimentales en los que se mide la diferencia de los cuadrados de las masas efectivas de los neutrinos, mientras que un tercero es una fase efectiva que permite determinar predicciones teóricas para los ángulos de mezcla en oscilaciones de neutrinos, además de ello el modelo tratado permite obtener resultados en los casos en que se cumple la jerarquía invertida y en los que se cumple la jerarquía normal en las familias de neutrinos.
Carrillo Trejo Erika Cecilia, Universidad Autónoma de Zacatecas
Asesor:Dr. Ricardo León Restrepo Arango, Universidad EIA
TRANSICIONES INFRARROJO EN POZOS CUáNTICOS MúLTIPLES DE CALCOGENUROS
TRANSICIONES INFRARROJO EN POZOS CUáNTICOS MúLTIPLES DE CALCOGENUROS
Carrillo Trejo Erika Cecilia, Universidad Autónoma de Zacatecas. Asesor: Dr. Ricardo León Restrepo Arango, Universidad EIA
PLANTEAMIENTO DEL PROBLEMA
Se presentan los cálculos teóricos de las transiciones inter-sub-banda para un electrón en pozos cuánticos múltiples de CdS/CdTe bajo efectos de campos eléctricos estáticos externos. Se siguen las reglas de selección para garantizar que las transiciones sean las permitidas en acuerdo con los elementos de matriz de dipolo para una polarización de luz en la dirección de crecimiento de los pozos cuánticos múltiples.
METODOLOGÍA
Se hará de manera permanente una revisión bibliográfica sobre el tema de investigación.
Se consultarán revistas del Q1 y Q2 de bases WoS-Scopus .
Se generaran los códigos de programas que permitan la simulación de los pozos cuánticos múltiples de materiales semiconductores con diferentes geometrías y estequiometrías.
Se hará el tratamiento analítico que necesario.
Con los datos obtenidos se hará la discusión y comparación con trabajos previos experimentales y teóricos reportados en la literatura científica.
Se escribirán los informes y se hará la divulgación científica de los resultados.
CONCLUSIONES
Se discuten los efectos de la variación de la profundidad del potencial de confinamiento de los pozos cuánticos múltiples y de los campos eléctricos sobre las transiciones inter-sub-banda, además, de la combinación de ambos efectos en estas propiedades. Se encuentra que las transiciones electrónicas corresponden a energías del infrarrojo medio en la región de los terahertz.
Carrion Pilco Jois Vanesa, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
INDICADORES AMBIENTALES Y REGIONALES EN LA CUENCA DEL RíO TEHUANTEPEC
INDICADORES AMBIENTALES Y REGIONALES EN LA CUENCA DEL RíO TEHUANTEPEC
Carrion Pilco Jois Vanesa, Universidad Nacional Toribio Rodríguez de Mendoza de Amazonas. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
El desconocimiento de las características fisiográficas, hidrológicas e hidráulicas de una cuenca ocasionan problemas como una mala planificación y uso de los recursos que se encuentran dentro de esta. Por ejemplo, el desconocimiento de los meses de mayor precipitación va generar que los ciudadanos no gestionen políticas de prevención para los desastres naturales que puedan ocurrir.
Por eso, trabajamos en modelar las características fisiográficas, hidrológicas e hidráulicas de la cuenca (del Río Tehuantepec) a través de distribuciones continuas de probabilidad y el Control Estocástico.
METODOLOGÍA
Diseño metodológico
Selección de los registros de escurrimientos históricos
Análisis de los estadísticos de cada mes y quincena
Creación de grupos homogéneos de años hidrológicos
Establecimiento de etapas de acuerdo con la correlación
Elaboración de histograma
Propuesta de las funciones de probabilidad continua
Participantes/muestra
Se seleccionarón el registro histórico de los escurrimientos directos de una de las estaciones hidrométricas de la CFE.
Técnicas e instrumentos
Distribuciones continuas de probabilidad
Análisis de frecuencias y frecuencias relativas
Estimación de máxima verosimilitud
Estadística paramétrica
Materiales
Software R (libre) para análisis de datos
Google Earth software
QGIS software
Procedimiento para la recolección de datos
Datos proporcionados por la Comisión Federal de Electricidad (CFE) en las bases de datos libres.
Procedimiento para el análisis
Muestreo estadístico
Análisis de medias, varianza, desviación estándar, coeficiente de correlación, coeficiente de asimetría
Histogramas
Frecuencias relativas y frecuencias acumuladas
Riesgos o amenazas posibles
Congruencia de los datos de la CFE y CONAGUA
Posibles errores humanos en la toma de mediciones
Cancelación de eventos académicos dada la situación de contingencia sanitaria actual del SARS COVID-19
Formas de afrontar los riesgos y amenazas
Análisis estadístico para eliminación de errores e incertidumbres
Alternativa de asistencia a eventos virtuales
Desarrollo de Actividades
1. Resumen de conceptos de interés en una cuenca
2. Delimitación de la cuenca Tehuantepec
3. Colocación de estaciones en la cuenca Tehuantepec
4. Registro de tormentas para la cuenca Tehuantepec
5. Cálculo de precipitaciones medias (método aritmético)
6. Actualización de estaciones
7. Resumen cambio climático artículo.
8. Elaborar manual CLICOM
9. Realizar un ejemplo con CLICOM mapa
10. Realizar un ejemplo con CLICOM malla
11. Descarga de datos diarios de sih.conagua.mx
12. Obtener las precipitaciones máximas anuales en 24 horas de la pagina smn.
13. Prueba de Fischer
14. Crear una base de datos de estaciones
15. Resumen de algoritmos genéticos
16. Resumen de Escurrimientos.
17. Cálculo de año hidrológico
18. Redacción de un artículo de investigación.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos en el área de hidrología especificamente conceptos relacionados a las cuencas y se puso en práctica con la modelación de las características fisiográficas, hidrológicas e hidráulicas de la cuenca (del Río Tehuantepec) siendo muy satisfactorias. Además, está experiencia será muy provechosa en la ejecución de la carrerra profesional
Casco Domínguez Jorge Alejandro, Instituto Tecnológico de Apizaco
Asesor:Dr. Raúl Cortés Maldonado, Instituto Tecnológico de Apizaco
MOVIMIENTO CIRCULAR CON FRICCIóN UTILIZANDO MATLAB-SIMULINK
MOVIMIENTO CIRCULAR CON FRICCIóN UTILIZANDO MATLAB-SIMULINK
Casco Domínguez Jorge Alejandro, Instituto Tecnológico de Apizaco. Asesor: Dr. Raúl Cortés Maldonado, Instituto Tecnológico de Apizaco
PLANTEAMIENTO DEL PROBLEMA
El movimiento circular con fricción es estudiado en tres situaciones típicas: 1. Una partícula deslizándose sobre una esfera con fricción, 2. Rapidez de una partícula cuando recorre un cuarto de una trayectoria circular con fricción y 3. Movimiento sobre un aro vertical con fricción. Los tres ejercicios se pueden resolver de forma sencilla considerando una situación ideal, donde no hay una fuerza de fricción, aplicando la conservación de la energía mecánica. Sin embargo, las situaciones que consideran la presencia de la fricción resultan ser más complejas debido a que la fuerza normal depende de la rapidez, ésta a su vez depende de la posición angular del bloque.
Por tal motivo y, con la finalidad de presentar una solución alternativa que permita al docente y estudiante centrarse en los conceptos físicos del problema durante este verano de investigación se diseñara una solución gráfica a las ecuaciones diferenciales que surgen de analizar este tipo de problemas y de esta forma, sea más fácil de comprender.
METODOLOGÍA
Como se mencionó en el planteamiento del problema, en este proyecto se analizarán tres problemas típicos al estudiar el movimiento circular con fricción. Los problemas a analizar son una partícula deslizándose sobre una esfera con fricción, la rapidez de una partícula cuando recorre un cuarto de una trayectoria circular con fricción y el movimiento sobre un aro vertical con fricción.
Para el análisis de los tres problemas se aplica la segunda ley de Newton en coordenadas tangencial y normal, la fuerza de fricción se modela como f = µFn, donde Fn es la magnitud de la fuerza normal y µ es el coeficiente de fricción cinética, esto da origen a una ecuación diferencial de primer orden no lineal.
Esta ecuación diferencial de primer orden no lineal se encuentra dada en los términos de la velocidad de la partícula, el ángulo de la distancia recorrida con respecto al centro de la superficie y el tiempo. La ecuación se muestra a continuación:
(1) dv/dt = f(Ø)±µ(V2(Ø)/R)
En (1) el termino f(Ø) es una función asociada a las componentes normal y tangencial del peso de la partícula. Mientras que los signos positivo (negativo) se refieren al tipo de curva que recorre la partícula, esta puede ser cóncava (convexa) respectivamente.
La ecuación 1 servirá como base para la realización de un diagrama de bloques en Simulink - Matlab, que resuelva los tres problemas mencionados. El diagrama de bloques estará conformado por 5 bloques independientes conectados entre ellos. Donde cada uno resuelve una parte de la ecuación (1) dando una solución de forma rápida y precisa.
En el bloque 1(B1) se calcula dv/dt. Para ello en este bloque se realiza una función que calcula f(Ø) y también se usa un bloque para realizar la operación f(Ø)±µ(V2(Ø)/R). Sus entradas son Ø,µ,g y µV2/R y su salida es dv/dt.
En el bloque 2 (B2) se calcula por medio de integradores, las variables de velocidad (v) y ángulo (Ø). Además se calcula V/R y V2(Ø)/R. Sus entradas son dv/dt, V0,R y µ y su salidas son V,Ø y µV2/R.
En el bloque 3 (B3) se calculan las condiciones iniciales del problema. Sus entradas son V,g y R y sus salidas son (gR)½ y v/(gR)½.
El bloque 4 (B4) es el encargado de graficar la velocidad en función del ángulo (V(Ø))
Por último el bloque 5 (B5) establece las condiciones físicas para detener el cálculo numérico del problema.
La forma de conectar los bloques es la siguiente, partiendo de B3 que son las condiciones iniciales:
1. La entrada de B1 está conectada a la salida de B2.
2. Las entradas de B2 están conectadas a las salida de B1 y B3.
3. La entrada de B3 está conectada a la salida de B2 que calcula V.
4. La entradas de B4 están conectadas a las salidas de B2 y B3
5. Las entradas de B5 están conectadas a las salidas de B4 y B2
CONCLUSIONES
El movimiento circular con fricción se estudió en tres situaciones típicas de los cursos introductorios de Física. Se presentó un modelo generalizado para las ecuaciones de movimiento que surgen de aplicar la segunda ley de Newton en coordenadas tangencial y normal en problemas de movimiento circular con fricción. La programación gráfica fue aplicada para resolver de forma numérica las ecuaciones de movimiento, se logrando reproducir las curvas de la rapidez como función de la posición angular que han sido reportadas en [1] . Finalmente, se concluye que el modelado matemático y la programación gráfica son una técnica adecuada y universal para simular sistemas físicos con fricción, especialmente en situaciones de aprendizaje a distancia, permitiendo que los docentes y estudiantes se concentren en el significado físico de los problemas.
[1] R. Cortés-Maldonado, M. C. Gómez-Conde, C. Bueno-Avendaño y J. F. Casco-Vásquez, Estudio teórico-experimental de la dinámica del movimiento circular con fricción, Revista Mexicana de Física E 18, 020204 1-7. DOI:https://doi.org/10.31349/RevMexFisE.18.020204
Castellanos Cruz Alejandro, Universidad de Guadalajara
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
REFRACTIVE INDEX SENSOR USING WEAK-GUIDING APPROXIMATION.
REFRACTIVE INDEX SENSOR USING WEAK-GUIDING APPROXIMATION.
Castellanos Cruz Alejandro, Universidad de Guadalajara. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Sensors with high-resolution capacity are essential to be aware of alterations of the current state of the medium that we are interested in analyzing. There are many advantages of using an optical sensor. For example, they can be adapted to the specific scenario we are considering. The overall idea of this work is to model an optical system that detects tiny variations in the refractive index of the medium using a system of coupled waveguides. This system will be modeled using the weak-guidance approximation and perturbation theory.
METODOLOGÍA
The weak guidance approximation will be essential to build the scalar propagation equation for our specific physical phenomenon. On the other hand, the perturbation theory will be used for coupling two waveguides.
We will use finite method analysis with different mesh densities to obtain numerical solutions. Those solutions will be compared with an analytical approach. Finally, we will discuss the results of the two methods to obtain a better idea of how the sensor will respond to different scenarios.
CONCLUSIONES
We related the energy transferred between two identical waveguides with respect to distance. It was found that the energy was completely transferred between the waveguides at a distance of g/(Pi/2), where g represents the absolute value of the difference between the eigenvalues of the system. This was the case for a refractive index of the cladding of 1.4440, incident light of 1550 nm, and a core radius of 10x10^-6. Then, it was compared the difference between the energy transferred for different variations in the refractive index of one core, and we related it to the case where we had two identical waveguides. We were able to identify tiny variations of 0.00001 between the refractive indexes of the cores. For strong refractive index changes, it is necessary to have a high-resolution irradiance device to relate the measurements with this particular model.
Castillo Islas Daira Yazmin, Instituto Politécnico Nacional
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
MODELOS MATEMÁTICOS A NIVEL
INGENIERÍA POR MEDIO DE PROYECTOS.
MODELOS MATEMÁTICOS A NIVEL
INGENIERÍA POR MEDIO DE PROYECTOS.
Castillo Islas Daira Yazmin, Instituto Politécnico Nacional. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Esta investigación es para resaltar que las matemáticas son una herramienta esencial en la vida diaria de todas las personas, este tema se debe profundizar, ya que estas nos pueden ayudar a resolver problemas que se nos presenten, por ejemplo: cuando los alumnos se enfrentan a algún desafío deben ser capaces de enfrentar cualquier situación de modo matemático, en esto también se debe involucrar el conocimiento que ya tenga para poder darle una solución a dicho problema, en donde se deberá de resaltar la creatividad con la que el estudiante se desapegara con la monotonía, y conocerá nuevos métodos de estudio e incluso llegar a ejemplificar todos sus trabajos.
El aprendizaje a nivel ingeniería en el área de matemáticas suele tener muchas complicaciones debido a que no todos los alumnos aprenden de la misma forma, por lo tanto, se necesita buscar alternativas para lograr adaptar estrategias con el fin de que el alumno pueda realizar actividades o tareas de forma autodidacta, brindándole la oportunidad de adaptarse a sus necesidades, y como él se sienta mejor.
En donde nuestro objetivo es mostrar técnicas de enseñanza y aprendizaje de la matemática e ingeniería para poder crear una técnica la cual sea aplicable al nuevo contexto educativo actual que le permita al estudiante desarrollar tanto el razonamiento lógico matemático así cómo creativo, es de gran importancia actualizar los currículos educativos, para que así sea posible un contenido que sea de ayuda para el futuro de los estudiantes, además de que ellos puedan usar esto en proyectos de mejora ambiental.
METODOLOGÍA
Dentro de la misma, se usó como instrumento la encuesta, en donde obtuvimos resultados de que al menos el 5.9% los alumnos sienten que la realización de algunas tareas son una forma de evidenciar sus deficiencias de manera positiva debido a que pueden identificar mucho más rápido sus deficiencias y buscar alternativas de mejora, mientras que el 2.9% no, esto es debido a que se sienten expuestos ante su falta de conocimiento, además de que el 52.9% están acostumbrados a trabajar de forma individual ya que su forma de aprendizaje o ritmo de trabajo no suele adaptarse a la de los demás , por lo tanto esto genera fricciones y complejos; sin embargo, la interacción que tienen con otras personas, les ayuda a aprender de forma mucho más rápida, permitiéndoles poner sus habilidades y conocimientos de manera más práctica.
Para eso se adaptó la estrategia buen y mal ejemplo, en donde el aprendizaje observacional del entorno, es aplicable el desarrollo de comportamientos morales, ya que cuando los niños crecen y aprenden por imitación y modelo, ya que la moral empieza a evolucionar remontándose en su propio medio, por lo tanto el comportamiento, conductas y valores de los adultos que los rodean es bastante crucial.
Algunas estrategias fueron las siguientes:
Los estudiantes escriben con libertad sus emociones, lo que piensan, y lo que satisface sus necesidades, por lo tanto, de esta manera se estimula la escritura, haciéndolo por sí mismos.
El aprendizaje se da de manera natural, ya que la metodología usada es principalmente la interacción social, que parte de un proceso de construcción individual a uno que es por medio social y colectivo.
El aprendizaje se da por medio de la interacción con el uso de esquemas y mapas mentales, o con uso de libros de texto con el fin de interactuar e intercambiar conocimientos con los demás compañeros a través de una lluvia de ideas.
Por lo tanto podemos deducir que para que el alumno aprenda de forma correcta y adecuada el aula deberá tener un entorno que sea correcto para el mismo, que además puede ser favorecido e haciendo que sea forma de motivación para el alumno.
CONCLUSIONES
Teniendo como resultado que mientras para el alumno más compleja sea la acción exigida en la solución de una actividad y menos directa sea la solución, mayor es la importancia del uso del lenguaje, es decir, si al alumno no se le permite hablar o expresarse, no podrá realizar la actividad solicitada, ya que el lenguaje le permite al alumno planear una solución o más soluciones del problema antes de lograr llevar a cabo su ejecución, y evitar que realice acciones impulsivas, teniendo como resultado la dominación de su conducta.
Castro Rendon Humberto Brayan, Instituto Politécnico Nacional
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
SOLUCIóN DE LA ECUACIóN DE CALOR CON PYTHON.
SOLUCIóN DE LA ECUACIóN DE CALOR CON PYTHON.
Castro Rendon Humberto Brayan, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Conocer el proceso de transmisión y difusión de calor dentro de un material es importante dentro del área industrial y producción. Además, el conocimiento de dicho fenómeno físico ha permitido explicar procesos dentro de otras áreas de conocimiento, desde sistemas financieros hasta química.
En matemáticas, existe un modelo que permite observar la evolución del calor durante el tiempo mediante una ecuación diferencial de tipo parabólico. Obtener la solución analítica de la ecuación permite conocer de manera ideal el comportamiento de propagación. Sin embargo, en la práctica es posible obtener las mediciones de calor y modelar su flujo, es cuando es necesario resolver por otros métodos.
Es así como surge el problema de dar solución a una ecuación diferencial de manera aproximada, existen métodos que permiten este objetivo, entre ellos diferencias finitas.
METODOLOGÍA
Diferencias finitas
Las aproximaciones a derivadas por diferencias finitas es uno de los métodos más simples y viejos para resolver ecuaciones diferenciales. Consiste en la aproximación del operador diferencial reemplazándolo, usando cocientes. El dominio es particionado en espacio (representado por las variables x, y y z) y en tiempo (con variable t) y aproxima la solución mediante el cómputo de los puntos.
El mallado es el conjunto de ubicaciones donde la solución discreta es operada; los puntos son llamados nodos. Los parámetros clave son los incrementos en cada variable, conocidos como tamaño de paso. El concepto de diferencia finita está relacionado con la definición de derivada de una función suave, es decir un incremento en la función por cada incremento de tiempo.
Hay diferentes aproximaciones a la derivada de una función, entre ellas se encuentran diferencias finitas hacia adelante, hacia atrás, centrado en tiempo y de Crank Nicolson.
En resumen, las aproximaciones correspondientes son:
Primera diferencia dividida hacia adelante. Es el cociente de la diferencia entre el sucesor de la ordenada i-ésima y la ordenada i-ésima con el tamaño de paso. Al ser aplicado a una ecuación diferencial ofrece un orden de precisión uno. Existen métodos más eficientes y estables para la solución de la ecuación parabólica, da lugar al conocido método explícito, que solo requiere de la implementación de la ecuación discreta para obtener la solución en el tiempo.
Primera diferencia dividida hacia atrás. Cociente de la diferencia entre la ordenada i-ésima y el antecesor con el tamaño de paso. La discretización tiene un orden de precisión uno, da lugar al método implícito, requiere de la solución de un sistema de ecuaciones que da el valor de la temperatura en el tiempo.
Primera diferencia dividida centrada. Cociente de la diferencia entre el sucesor de la ordenada i-ésima y el antecesor con el tamaño de paso. El posterior valor de la ecuación diferencial requiere del anterior si se centra el punto i-ésimo, el orden de precisión es dos, pero no se obtiene la solución desde el valor inmediato anterior. Es así como ha surgido una manera adicional de discretizar la ecuación y que guarde el mismo orden de precisión.
Primera diferencia dividida de Crank Nicolson. Cociente de la diferencia entre el punto i-ésimo y el antecesor con el tamaño de paso. La diferencia de la discretización es que está centrada en la abscisa i-ésima con medio tamaño de paso menos, considera hacia adelante y hacia atrás medio tamaño de paso para obtener la discretización. El orden de precisión es dos, debe aproximarse cualquier expresión adicional mediante un promedio entre las ordenadas. Requiere de la aplicación y resolver un sistema de ecuaciones para conocer la temperatura, requiere un mayor costo operacional para su cálculo, pero es más preciso.
La discretización en el espacio requiere de una aproximación para una segunda derivada, el método más eficiente es segunda diferencia dividida centrada, pues tiene orden de precisión dos.
La implementación de diferencias divididas en la solución de calor describe un conjunto de fórmulas que se deben de cumplir para conocer la temperatura en el siguiente tamaño de paso en tiempo.
Condiciones a la frontera
Existen dos tipos importantes de condiciones a la frontera: Dirichlet y Neuman.
La condición de Dirichlet brinda un valor de función particular, es decir que algunas incógnitas ya son conocidas. Debe ubicarse los valores de función ya sea al inicio o final de una discretización, en los cuatro lados del dominio o bien en las seis caras tratándose de un dominio en tres dimensiones.
La condición de Neuman da un valor en la derivada de una función, debe ser el incremento entre el punto final y su inmediato anterior. La discretización centrada da una alta precisión y mejor manera de manejar los resultados.
CONCLUSIONES
El uso de las herramientas computacionales fue muy importante en la solución de cada discretización obtenida. Las ecuaciones trabajadas son de tipo no homogéneas, si se trabaja las funciones de lado derecho distintas de cero tiene una fuente de calor que le transfiere su energía cinética al sistema, provocando el enfriamiento o incrementar la temperatura con el transcurso del tiempo.
De tratarse de un problema homogéneo, la ecuación es un estabilizador de temperatura. Una vez calentado el material la expresión describe el decremento hasta llegar a temperatura ambiente, esto en las tres dimensiones.
Durante la elaboración del programa, se hacía cada vez más complejo el análisis y la manera de obtener los siguientes valores de función respecto de los anteriores.
Python es un leguaje que es eficiente en el desarrollo del código, pero para realizar los cálculos computacionales, trabajar con cada tipo de dato y operarlo de la manera que diferencias finitas lo exige tiene un alto costo computacional, traducido en tiempo de ejecución. Finalmente debe buscarse alternativas más eficientes en tiempo y recursos.
Cervantes Guevara Luis Roberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Claudia Moreno González, Universidad de Guadalajara
RECONOCIMIENTO DE LAS ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
RECONOCIMIENTO DE LAS ONDAS GRAVITACIONALES CCSNE INCRUSTADAS EN DATOS DEL LIGO MEDIANTE REDES NEURONALES CONVOLUCIONALES
Cervantes Guevara Luis Roberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Planteamiento del problema:
En 2015 se produjo la primera observación directa de las ondas gravitacionales (GW) por parte del Observatorio de Ondas Gravitacionales por Interferómetro Láser (LIGO) y comenzó la era de la astronomía de ondas gravitacionales. El inicio de la astronomía de ondas gravitacionales trajo consigo algunos retos para la correcta detección y caracterización de las mismas.
La técnica utilizada para la detección se denomina Matched Filter (Filtro Adaptado, MF). Esta técnica supone que las señales a detectar están embebidas en un ruido gaussiano aditivo, de esta manera, los datos de los detectores se emparejan con plantillas de GW. Y las que minimizan la relación señal-ruido (SNR), se seleccionan.
Aunque el uso de MF ha sido capaz de proporcionar resultados precisos en la detección de GW, también es una técnica limitada. Una de esas limitaciones es que no hay plantillas para las GW generadas por supernovas tipo 2, o de colapso de núcleo (CCSNe), por lo tanto, la búsqueda de nuevos caminos se centra en la detección de ese tipo de GW.
Una opción que surge es implementar un modelo de Inteligencia Artificial (IA) que sea eficiente en el procesamiento de una gran cantidad de datos. El aprendizaje profundo (DL) es el subcampo del aprendizaje automático (ML) que ha demostrado ser competente en el análisis de datos y su posterior clasificación. Todo ello mientras es capaz de aprender y mejorar continuamente.
Mediante el uso de algoritmos de DL podemos identificar el ruido no gaussiano en la señal y así esa señal puede ser clasificada en dos conjuntos diferentes, uno que contiene sólo ruido y el segundo que está compuesto por ruido y una especie de GW.
Existe un algoritmo de DL llamado Red Neural Convolucional (CNN) que requiere un preprocesamiento mínimo de los datos en comparación con otro tipo de algoritmos de clasificación. Una CNN es capaz de aprender características siempre que se le proporcione suficiente entrenamiento. Además, los algoritmos CNN ya se han utilizado en el pasado para el reconocimiento de la GW.
METODOLOGÍA
Metodología
Se utiliza la primera parte de la estancia para entrar en contacto con los conceptos que se trabajarán a lo largo del verano. Por ejemplo, las ondas gravitacionales y cómo se detectan. También se trabaja con los recursos. Para esto, se requirió herramientas computacionales como: Sistema operativo linux como entorno de desarrollo, python3 como lenguaje de programación, un paquete de software que contiene módulos para analizar datos de ondas gravitacionales y procesamiento de señales llamado PyCBC, además de TensorFlow para crear, entrenar y validar la Red Neuronal. Después, el profesor nos dio una guía donde explican e implementan una CNN con el fin de tener claro la arquitectura que se va a utilizar para la detección de GW.
Luego, ya configurado nuestro ambiente de trabajo, el investigador a cargo del proyecto nos proporcionó datos del LIGO. Estos datos contienen información de ambos interferómetros, H1 y L1, donde para cada uno de estos datos, la onda tiene una duración de 1200 segundos. Ya teniendo estos archivos, se implementaron los scripts para leer estos archivos, poder mostrarlos en una gráfica y a partir de módulos de pycbc, agregar a cada onda 61 inyecciones de GW distribuidas dando un factor. Una vez hecho esto, se procede a formar dos arreglos de datos, uno para H1 y L1 que contengan 6 segmentos de la onda por cada inyección, tres de estos son segmentos contienen solo ruido y los otros tres contienen ruido más onda gravitacional. Esto quiere decir que por cada Job se extraen 366 datos diferentes. Este número viene del producto entre el número de Jobs por el número de segmentos que se extraen por Job(61*6).
Ya teniendo estos datos(Strain Data H1 y Stain Data L1), se debe hacer un preprocesamiento antes de formar el dataset .Este preprocesamiento consta de tres pasos,el primero es un pasabanda HighPass, un filtro que da paso alto a los datos de baja frecuencia y este se aplica para eliminar ruido.El segundo, blanqueamiento de los datos, toma los datos e intenta hacer que la densidad espectral sea plana, de modo que todas las frecuencias contribuyan por igual. El tercer paso, la transformación constante-Q, es similar a un espectrograma estándar hecho con transformación de fourier de corto tiempo con la ventaja de que los contenedores de frecuencia están más espaciados a altas frecuencias. Por último, antes de pasar al entrenamiento de la CNN, se debe formar el dataset. Para esto se guarda la información de Stain Data H1 y L1 ya preprocesado, seguido de la etiqueta correspondiente si es o no GW ( 0 = ruido, 1 = ruido + GW) y también un arreglo con el tipo de inyección..
Ahora, ya previamente generado el dataset, se hizo el entrenamiento de la red neuronal basándonos en la arquitectura CNN estudiada al principio de la instancia.
CONCLUSIONES
Conclusiones:
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre las ondas gravitacionales, cómo son detectadas y su caracterización. También se adquirieron conocimientos teóricos además de destrezas prácticas con temas relacionados con la inteligencia artificial, más específicamente Deep Learning, área del Machine Learning.
La red neuronal desarrollada que fue entrenada y probada con un dataset generado durante la estancia y entrega una eficiencia de alrededor del 85% para detectar correctamente si en una señal capturada por los interferómetros podemos encontrar solamente ruido o ruido acompañado de una onda gravitacional.
Por limitaciones de recursos computacionales y de tiempo, la red neuronal fue entrenada y testeada con solamente una parte del dataset generado. Por esta razón se espera que el porcentaje de efectividad de la CNN pueda mejorar sustancialmente al utilizar la totalidad de los recursos generados para ello durante la estancia.
Chamorro Rea Brenda Azucena, Instituto Tecnológico Superior de Guanajuato
Asesor:Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PROPUESTA DE GAMIFICACIóN EDUCATIVA
PROPUESTA DE GAMIFICACIóN EDUCATIVA
Chamorro Rea Brenda Azucena, Instituto Tecnológico Superior de Guanajuato. Asesor: Mtra. María Guadalupe de Lourdes Acosta Castillo, Instituto Tecnológico Superior de Guanajuato
PLANTEAMIENTO DEL PROBLEMA
En México es posible ver que actualmente la educación no ha podido avanzar, hay mucho rezago de personas que han dejado trunco su desarrollo académico, un gran porcentaje de la población tienen truncos sus estudios en niveles básicos, muchos de los habitantes no pasan siquiera por la secundaria, esto es debido a muchos factores sobre economía y el desarrollo tecnológico, sin embargo, podemos de igual manera ver las cifras aumentando de jóvenes que están familiarizados con el mundo tecnológico y como se desenvuelven dentro de él. De hecho, la mayoría de la población considera que ya no es una habilidad, si no que se ha convertido en una necesidad, el mundo se mueve a través de la tecnología, por lo tanto, la tecnología es fundamental para su desarrollo a fututo como persona en el ámbito académico y profesional, y lo podemos ver en cualquier vacante de trabajo, los requisitos para la mayoría de los trabajos en la actualidad es el manejo de las TICS. Pese a esta información, se puede observar que en México no se ha invertido adecuadamente en la innovación hasta hace muy poco tiempo que se vio obligado por las condiciones sanitarias que atravesó el mundo entero referente al COVID 19. Gracias a ello se han notado algunos cambios positivos, pues e empiezan a agregar métodos y formas de aprendizajes que antes ni siquiera eran una opción.
Por lo anterior se presenta este proyecto, el cual tiene en consideración plataformas que son utilizadas para la elaboración de juegos didácticos incluyendo así el aprendizaje de gamificado de manera personalizada, en la realización se buscó hacer que temas complejos terminen siendo comprendidos de una manera más fácil. Se buscaron que fueran actividades fáciles de entender sin que perdieran cierto grado de complejidad, se buscó un ajuste entre la facilidad del juego y la complejidad de los temas.
METODOLOGÍA
Para el desarrollo del proyecto se ha establecido una metodología de aprendizaje gamificada. Con lo anterior se pretende llevar al estudiante a un entorno de aprendizaje en el cual pueda potenciar su motivación, concentración y competitividad en temas complejos como lo es la metería de Algebra, con el objetivo de obtener mejores resultados en su educación. Se busca agregar la motivación intrínseca en las aulas, de esta manera el alumno podrá tener la capacidad de tomar iniciativa respecto a los objetivos de aprendizaje, implicando cognitivamente en una tarea y objetar un alto rendimiento académico en el software es posible encontrar actividades dinámicas con temas de algebra, siguiendo una secuencia de aprendizaje óptimo de acuerdo al orden en que se enseña tradicionalmente, este proyecto es una combinación de lo tradicional a conceptos nuevos como lo es la gamificación. A lo largo del desarrollo de las dinámicas virtuales en diversos softwares, el usuario podrá interactuar con la digitalización al resolver algunos ejercicios o simplemente ver el tema de una manera que se le haga más sencillo comprender. Los temas los podrá ir viendo de acuerdo a la aplicación de la gamificación, ya que podrá ser bonificado, desbloqueando niveles del programa o avanzando simplemente y que dicho usuario pueda autoevaluarse objetivamente de acuerdo a su esfuerzo recibiendo puntos, o una posición de ranking general de todos los usuarios que también han utilizado la plataforma. Estos programas notifican a cada alumno u alumna si una de las respuestas que ha contestado ha sido correcta o incorrecta.
Para el desarrollo de las actividades en los diferentes softwares con gamificación, se utiliza un modelo prototipo funcional. La utilización del modelo prototipo permite poder realizar diversas modificaciones que pueden ser claves para realizar cambios a las características del software, con el único fin de progresar agregando calidad en su estructura.
CONCLUSIONES
Los descubrimientos realizados a lo largo del experimento han permitido criticar y cuestionar ciertas características que se creían esenciales del softwares educativos Sin embargo, se ha podido determinar que un software educativo con inclusión de características de personalización no siempre puede ayudar a obtener un mejor aprendizaje. Por otro lado, en cuanto a los tiempos dispuestos no fueron completamente propicios para el experimento ni sus propósitos, dado que existían factores que impedían una aplicación correcta de las pruebas a realizar, tanto escrita como en software. Pese a lo anterior mencionado se ha podido seleccionar una muestra que pudiera cumplir con los requisitos del experimento presentado y poder concretar los análisis, esto fue debido a que Educaplay la plataforma pide un correo para poder identificar a los usuarios, y asi registrar la actividad realizada, la situacion es que la plataforma deja contestar las actividades sin registrase pero en si no queda registrado el tiempo ni los resultados, impidiendo tener un resumen real de la actividad y extracción de resultados. El desarrollo de software educativo ofrece una gran cantidad de posibilidades para iniciar una actualizacion en la manera de educar a los estudiantes. Los colegios e instituciones educacionales son cada vez más abiertos a la utilización de software educativo para implementar nuevas modalidades de aprendizaje, se recomienda tener un amplio panorama hacia los posibles obstaculos que se van a presentar como por ejemplo el desarrollo tecnologico del area en donde se desemvuelven los alumnos que participaran en la gamificacion, creo que es muy importante ya que en algunas lugares del pais, el desarrollo tecnologico aun es muy obsoleto, como resultado seria un caos, ya que no podriamos registrar resultados de aprendizaje, puesto que la evaluacion no seria muy clara. Se propone también el diseño de nuevos estudios que permitan determinar la correlación entre el desempeño y otros factores como: la satisfacción, autonomía, creatividad y pensamiento crítico de los estudiantes, cuando se usa la estrategia de Gamificación para apoyar las clases presenciales de una asignatura específica. Finalmente, replicar la experiencia en otros contextos para demostrar que la estrategia de Gamificación tiene el mismo efecto sobre el desempeño, competencia matemática y la motivación de un grupo de estudiantes.
Chávez Aguirre Bruno Uriel, Instituto Politécnico Nacional
Asesor:Dr. Lamberto Castro Arce, Universidad de Sonora
CARACTERIZACIóN DE NANOPARTíCULAS MEDIANTE STM-AFM
CARACTERIZACIóN DE NANOPARTíCULAS MEDIANTE STM-AFM
Chávez Aguirre Bruno Uriel, Instituto Politécnico Nacional. Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La tecnología es la aplicación de la ciencia a la resolución de problemas específicos, ordenando un conjunto de saberes que permiten diseñar y crear servicios o bienes con el fin de satisfacer necesidades humanas.
Nano es un prefijo del Sistema Internacional de Unidades que indica un factor de 10^(-9), por consecuencia, al hablar acerca de la escala nanométrica, se hace alusión a los objetos cuyo tamaño oscila entre 1-1000nm.
En particular, la nanotecnología es la manipulación y entendimiento de la materia a escala nanométrica, lo que nos permite crear y diseñar ciertas estructuras para resolver necesidades variadas, entre las cuales se pueden destacar la electrónica, las comunicaciones, la biomedicina, etc.
Con la evolución progresiva de estos conceptos, se ha tenido que innovar para desarrollar técnicas de microscopía que nos permitan localizar y manipular estas versátiles herramientas.
Con ello surge el objetivo individual de investigación, elaborar un artículo acerca de la caracterización de nanopartículas mediante STM-AFM, con la intención de exponer el proceso de planeación y creación de nanopartículas, detallando las propiedades particulares de estos cuerpos e indagando en sus posibles aportaciones a distintas disciplinas científicas.
METODOLOGÍA
Se comenzó la investigación con el planteamiento de la idea central y posteriormente se investigaron las bases pertinentes en la literatura perteneciente a las nanopartículas y sus propiedades.
Posteriormente se organizó el trabajo partiendo de imágenes expositivas elaboradas en el proceso para proporcionar una ayuda conceptual al lector, de manera que los tópicos que estas condensaban fueron desarrollados particularmente.
Entre estos tópicos podemos encontrar las propiedades magnéticas, ópticas, químicas y térmicas de las nanopartículas. Una de las causas principales de que las nanopartículas tengan propiedades distintas a objetos de la misma composición, pero de diferentes escalas es el área superficial. Dos cosas importantes que se observan al reducir el tamaño de una nanopartícula, son el aumento considerable de su área superficial relativa y con ello el incremento notable del número de átomos en la superficie.
De igual manera se hizo énfasis en la descripción general de los equipos de caracterización STM y AFM, los principios físicos bajo los que basan su funcionamiento y las características del equipo y la muestra. El microscopio de efecto túnel (STM por sus siglas en inglés) es un instrumento que permite visualizar regiones de alta o baja densidad electrónica superficial y de ahí deducir la posición de átomos individuales o moléculas en la superficie de una red; Esta técnica se aprovecha de las cualidades que presentan las cosas de ese tamaño, su funcionamiento se basa en el efecto túnel que sufren los electrones que viajan entre la punta del instrumento y una muestra muy cercana al aplicar una diferencia de potencial, esto nos crea una corriente túnel.
El efecto túnel, que es el principio físico bajo el que opera un STM, mediante el cual una partícula material escapa de un pozo de potencial atravesando regiones que dentro de lo que se considera física clásica están prohibidas. Esto es gracias a la naturaleza de la materia a esa escala, donde las propiedades de la mecánica cuántica influyen y afectan sus comportamientos, en el mundo cuántico siempre hay una cierta probabilidad de que una partícula traspase o viole una barrera que no debería desde el punto de vista clásico.
Por su parte el microscopio de fuerza atómica (AFM por sus siglas en inglés) es un instrumento mecano-óptico que forma imágenes de las superficies utilizando una sonda o micropalanca, esta recorre la muestra que queremos observar línea por línea, y gracias al fotodetector escanea en función de la posición generando una imagen.
Este instrumento tiene un contexto interesante, ya que dentro de la historia de estos equipos el hecho de que el microscopio de efecto túnel (STM) no permitiera ver nítidamente muestras no conductoras, ya que estos se basan en el paso de una corriente, llevó a que la técnica AFM tuviera más relevancia y
atención para este tipo de muestras.
Las fuerzas de atracción entre partículas que ocurren entre la punta del instrumento y la muestra, es decir, las fuerzas intermoleculares de Van der Waals son el principio físico en el cual esta técnica de análisis y caracterización de nanopartículas está fundamentada. Las fuerzas intermoleculares de Van de Waals son las fuerzas atractivas o repulsivas entre moléculas distintas, hay tres tipos notables de fuerzas intermoleculares, las interacciones dipolo-dipolo o también
conocidas como fuerzas de atracción de Keesom, las interacciones dipolo permanente-dipolo inducido o también conocidas como fuerzas de atracción de Debye y las llamadas fuerzas de dispersión de London que son interacciones dipolo inducido-dipolo inducido.
CONCLUSIONES
Durante la estancia se logró adquirir los conocimientos pertenecientes al marco teórico de las nanopartículas y el proceso de caracterización de las mismas a través de diversas técnicas de análisis. Se planteó como objetivo inicial de la investigación el elaborar un artículo que desarrollara el tópico de una manera más extensa, sin embargo, al ser un trabajo que demanda cierto tiempo, aún se encuentra en una fase de desarrollo.
Chávez Pérez César Iván, Instituto Tecnológico de Matamoros
Asesor:Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa
PROGRAMA DE SUSTENTABILIDAD Y EFICIENCIA ENERGéTICA COMO UNA HERRAMIENTA EN LA INDUSTRIA
PROGRAMA DE SUSTENTABILIDAD Y EFICIENCIA ENERGéTICA COMO UNA HERRAMIENTA EN LA INDUSTRIA
Chávez Pérez César Iván, Instituto Tecnológico de Matamoros. Asesor: Dr. Eber Enrique Orozco Guillen, Universidad Politécnica de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Es un hecho que el ahorro de energía es tan vital e importante como la utilización de alternativas renovables. Actualmente el tema de la eficiencia energética y sustentabilidad es cada vez más tocado en la industria, desafortunadamente no todos están interesados en aplicar este conocimiento o no tienen una noción clara de cómo hacerlo. Cuando se habla de ahorro de energía nos referimos a la reducción o eliminación de actividades que evitan el consumo, mientras que la eficiencia energética se trata de poder realizar las mismas actividades consumiendo menos recursos y sin resignar calidad de vida por lo que se busca un uso eficiente de la energía. Ambas estrategias son igual de importantes y, cuando se atacan ambos objetivos de manera paralela, se puede llegar a ahorrar hasta un 70% de energía. La problemática es la desinformación acerca de los beneficios que trae consigo adoptar un programa de eficiencia energética y sustentabilidad, no se le da la importancia e incluso se llega a pensar que es una inversión muy poco redituable.
METODOLOGÍA
Se realizó una investigación detallada tratando los temas y términos conceptuales que abarcan la sustentabilidad y la eficiencia energética con el objetivo de desarrollar nuestro programa, para ello se indago en diversas fuentes y casos reales dentro de una organización con lo que se fue formando una metodología a partir de las necesidades y preocupaciones de la empresa en cuestión creando una herramienta capaz de generar un impacto positivo en el consumo energético de cualquier organización así mismo en para contribuir con el medio ambiente. Se realizó una revisión del estado de arte de las acciones que realizan las organizaciones en términos de sustentabilidad y eficiencia energética a nivel global y en México, como una evaluación de sus acciones revisando sus sitios y propuestas, así como resultados logrados. También se logró identificar los elementos que compone un sistema de gestión ambiental y energético como apoyo a la promoción de estrategias que involucren más beneficios con la implementación de este programa apuntando a las certificaciones. Algunas de las acciones enlistadas en el programa son:
Evaluación del panorama general dentro de la empresa para la identificación de puntos clave.
Selección y planificación de las áreas a tratar y formulación de propuestas adicionales.
Monitoreo, medición y Análisis de consumo energético. (Balances de materia y energía).
Auditoría del sistema de gestión energética.
Una vez aplicado este programa se haría un registro de los resultados logrados como una base de datos para la generación de un programa digitalizado.
CONCLUSIONES
Durante esta estancia de verano científico se trataron una variedad de términos conceptuales, así como temas que en la actualidad son de vital importancia y se proyectan como el futuro de las empresas. Se amplió la visión que se tiene tanto de los sistemas de gestión energética como del consumo energético en general, el uso correcto y eficiente de la energía debería ser una obligación.
Se pretende presentar esta investigación como una iniciativa para dar paso a un proyecto de asesorias a las empresas impulsando el uso eficiente de la energía.
Cisneros Chumacero Arturo Alán, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
ENERGíAS RENOVABLES APLICADAS A SEGUIDOR DE PANELES SOLARES
ENERGíAS RENOVABLES APLICADAS A SEGUIDOR DE PANELES SOLARES
Cisneros Chumacero Arturo Alán, Benemérita Universidad Autónoma de Puebla. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las energías renovables han surgido como medida de recuperación del ambiente por las décadas que el ser humano ha contaminado, desde la revolución industrial hasta la fecha con la quema de combustibles fósiles y gases. Es claro ver que la energía que se necesitó en la época medieval no es la misma que la necesaria en la actualidad para el ser humano, por poner un ejemplo. El hombre actual está inmerso en el uso de energía, debido al desarrollo de la tecnología en su vida cotidiana y el avance de hacer cada vez objetos inteligentes que faciliten las actividades del día a día, o procesos de automatización para satisfacer más rápido las necesidades de toda una población.
Desde que se levanta una persona promedio utiliza un celular, la TV, se baña y ocupa un calentador de gas, prepara el desayuno con una estufa de gas o alguna parilla eléctrica, se va al trabajo usando un automóvil de combustión, (sin mencionar que todo los productos que usa como vestimenta utilizaron algún tipo de energía para su creación) utilizará alguna computadora o algún otro dispositivo que ocupara electricidad la mayor parte del día conectado y si es un estudiante o realiza home office necesitará la computadora para realizar sus actividades ya que la pandemia de Covid-19 aumento el uso de estos dispositivos electrónicos.
Dado a esto es necesario innovar sobre los sistemas de producción de energía, ya que, los más populares (hidrocarburos) son la principal causa de los grandes problemas climáticos actuales.
METODOLOGÍA
La metodología aplicada para el desarrollo de la investigación se dividió en actividades semanales donde se iba llevando un monitoreo por parte del investigador, la estructura es la siguiente:
Semana 1: -Investigar sistemas de Paneles Solares, 4 sistemas citadas
-Investigar que son energías renovables aplicadas a paneles solares
Semana 2: -Selección de un panel solar o diseño de panel solar.
Semana 3: -Explicación física del panel seleccionado
-Explicar uso y funcionamiento de panel
Semana 4: -Explicación matemática del funcionamiento del panel solar.
Semana 5: Crear herramientas matemáticas para mejor funcionamiento para el panel solar.
Semana 6: -Crear documento abordando todos los puntos anteriores.
Semana 7:- Exponer método y preparar una exposición.
CONCLUSIONES
Gracias a esta investigación se ha comprobado el poco impacto y popularidad de energías renovables, en particular la producción de energía eléctrica a partir de energía solar, ocupando apenas un 0.64% del total de la producción de energía en México. También realizado un pronóstico a partir de fórmulas, para los años de la vida útil de un sistema de paneles solares, que un hogar necesita, su consumo y el retorno de inversión. La simulación hecha hizo que la implementación de panales solares sea mas asequible para toda la población sin importar cualquier caracteristica fisica, social o economica. Es importante recalcar que esta simulación se hizo a partir del cálculo de que una sola persona compra el sistema de paneles solares, pero los beneficiarios serian muchos más si se fueran más de 1 hogar quien adquiera los sistemas.
Está claro que es una propuesta al gobierno o a una empresa privada que quiera innovar y contribuir a la expansión de este tipo de energías y también a la disposición de la población. El fin es claro, que sea aumentar ese porcentaje de energía solar lo máximo posible en los años venideros, y como consecuente retrasar y evitar las catástrofes del cambio climático.
Corona Mindiola Omar Esteban, Universidad de Guadalajara
Asesor:Dr. Everardo Santiago Ramirez, Universidad Autónoma de Ciudad Juárez
EVALUACIóN DE LSTM EN EL RECONOCIMIENTO DE PERSONAS POR SU MANERA DE CAMINAR EN AMBIENTES INTERIORES Y EXTERIORES
EVALUACIóN DE LSTM EN EL RECONOCIMIENTO DE PERSONAS POR SU MANERA DE CAMINAR EN AMBIENTES INTERIORES Y EXTERIORES
Corona Mindiola Omar Esteban, Universidad de Guadalajara. Santana Ruiz Ricardo Abdiel, Universidad de Guadalajara. Asesor: Dr. Everardo Santiago Ramirez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El uso de inteligencia artificial para el reconocimiento de personas ha aumentado su uso en los últimos años, siendo utilizada desde motivos de seguridad, como lo es para dar acceso a lugares especiales o para la identificación de personas en las fronteras.
Así, se ha encontrado que la manera de caminar también se puede utilizar como rasgo biométrico, ya que hay hasta 24 características distintas que distinguen la forma de andar de cada persona.
Existen hasta la fecha varios algoritmos que utilizan una vectorización de las características de cada individuo, sin embargo, en este caso se evaluó el desempeño de una red neuronal con una de sus capas de tipo LSTM, con el objetivo de que esta aprendiera a partir de una secuencia de imágenes el patrón de caminata de ciertas personas.
METODOLOGÍA
Se grabaron en distintas locaciones varios vídeos que ejemplifican en su totalidad, la manera de caminar del individuo en varios entornos. Primero, las imágenes a color en los vídeos fueron transformados a escala de grises. Luego, mediante el método de valor umbral para binarizar la imagen y segmentar la imagen de la persona. Esto con el objetivo de eliminar el fondo y quedarnos solamente con la silueta de la persona. Se debe mencionar que trabajar en una escala de grises funciona también para hacer más sencillo el entrenamiento de la red neuronal, pues se realiza solo en una dimensión, y no en 3 como sería en imágenes en el modelo de color RGB. Para obtener las siluetas, se comenzó por utilizar un método de substracción de fondo tradicional, es decir, utilizando un frame donde solo apareciera el fondo, este se iba restando a las demás imágenes, quedando teóricamente solo la silueta del sujeto. Sin embargo, nos encontramos con varios problemas al realizar este procedimiento, el primero es que en ciertos entornos existen varios distractores como la sombra, el reflejo, el movimiento de las plantas, entre otras cosas que causan ruido en la segmentación de la imagen. Se encontró también que la vestimenta de la persona crea problemas en ciertas ocasiones, ya que al convertir la imagen a una escala de grises, algunas de las prendas de color negro o algún tono oscuro, desaparecen de la imagen.
Nos enfrentamos entonces al problema de no poder obtener siluetas bien definidas para su evaluación, por lo que pasamos a utilizar otro método más sofisticado. Esto es, usar un modelo de segmentación que utiliza redes neuronales convolucionales para detectar distintos objetos en una imagen. Entre los objetos capaces de detectar por este modelo, llamado YOLACT++, se encuentran las personas, por lo que solucionamos dos problemas al utilizar el modelo, uno es que la segmentación se realiza de forma completa, es decir, sin huecos dentro de la silueta. Y el otro es que, dada la segmentación en la imagen, el modelo crea un rectángulo que atrapa solo la silueta de la persona.
Se agregó solo un filtro más a las imágenes segmentadas por el modelo, y es que la segmentación que agrega dicho modelo se trata de una máscara encima de la imagen color rojiza, pero si recordamos lo mencionado en un inicio, buscamos imágenes en una escala de grises, por lo que fue necesario eliminar los colores que no se presentaran en la segmentación realizada. Dicho proceso se llevo a cabo con el paquete OpenCV, que nos permite seleccionar un rango de colores en escala HSV y eliminar el resto de colores de la imagen. Se crearon por separado, dos modelos, uno para evaluar ambientes interiores y otro en el caso de ambientes exteriores. Se utilizaron 23 conjuntos de 60 imágenes para el caso de ambientes interiores y 24 conjuntos igualmente de 60 imágenes para ambientes exteriores, 20 proporcionados por el conjunto de datos de CASIA, y los otros obtenidos por nosotros con el método antes descrito. El modelo utilizado para nuestra red, consta de una capa con filtro de convolución, un filtro "max pooling", la capa de LSTM, una capa totalmente conectada y un optimizador de modelo de tipo adam, que en conjunto evalúa un total de 414,834 parámetros.
Tomando otros 23 conjuntos para la fase de prueba con 60 imágenes cada uno, para el caso de ambientes interiores se encontró una precisión del 82.6 % con una pérdida del 0.05, correspondiente a la identificación de 19 sujetos de 23. Cabe recalcar que entre los aciertos encontrados se encuentran las imágenes generadas por nosotros y que independientemente del conjunto de prueba, se realizó una evaluación del modelo en otros tres vídeos que fueron clasificados correctamente por el modelo. Dando así un 100 % de precisión en las imágenes generadas por nuestro método.
Para el caso de los 24 conjuntos en ambientes exteriores se obtuvo una precisión del 75 % con una pérdida de 0.08 que equivale a identificar 18 de los 24 sujetos utilizados. Si embargo, para este caso el modelo tuvo problemas para identificar nuestras siluetas para cuando se tenía el perfil trasero y que identificó el perfil izquierdo como el derecho, aunque acertando en la persona que se trataba.
CONCLUSIONES
Se encontraron resultados aceptables con el uso de LSTM para este problema, encontrando un mejor rendimiento para el caso de ambientes interiores que de exteriores, pudiéndose deber a varios factores externos que conlleva estar en el exterior. Esta red fue capaz de reconocer satisfactoriamente nuestras siluetas en comparación con las dadas por el conjunto de imágenes que se utilizaron para el entrenamiento y la evaluación. Además, fue capaz de hacer una distinción de cuando se le daban imágenes con perfiles laterales a cuando se trataba de los perfiles frontales o traseros.
Se propone para trabajos a futuro el entrenar esta red con más perfiles para cada sujeto para que sea capaz de hacer una detección de personas que vayan desde diferentes ángulos y en situaciones más cotidianas. También, se espera automatizar de mejor manera el algoritmo de segmentación de imágenes.
Cota Santeliz Manuel Andrés, Universidad de Sonora
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
MODELO DEL SISTEMA DE 6 CUERPOS DE PLUTóN Y SUS LUNAS
MODELO DEL SISTEMA DE 6 CUERPOS DE PLUTóN Y SUS LUNAS
Cota Santeliz Manuel Andrés, Universidad de Sonora. González de la Rosa Luis Andrés, Universidad Autónoma de Coahuila. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
A manera de divulgación y para dar a conocer un poco más las circunstancias del sistema local de Plutóny sus seis lunas, Caronte (Ca), Estigia (Es), Nix (Ni), Cerbero (Ce) e Hidra (Hi), creamos diferentes modelos que se aproximan lo más posible a los datos del JPL/NASA de la trayectoria de los cuerpos. A diferenciade otros cuerpos en el sistema solar, Plutón tiene una órbita local ya que el centro de masa del sistema seencuentra fuera de Plutón, debido a que Caronte tiene una masa comparable a la de Plutón. Ésto, junto alhecho de que es un sistema de 6 cuerpos, lo vuelve un sistema interesante y útil para mostrar aplicaciones dela mecánica celeste.
Para los modelos, involucramos variaciones modificadas y ajustadas del problema de Kepler, problema de6 cuerpos y la inclusión de un término perturbativo debido a la oblatés de Plutón y Caronte.
METODOLOGÍA
Primeramente, extrajimos los datos de posición y velocidad de cada cuerpo del sistema HORIZONS delJPL/NASA. Especificamente, extrajimos los datos de 4 meses, desde el 1/Ene./2021 hasta 1/May./2021,obteniendo un dato cada 30 min. El resultado fueron 5761 coordenadas y velocidades por cuerpo. Una vez tuvimos la información, hicimos un análisis de las trayectorias ajustando una elipse y obteniendo sus parámetros. Confirmamos que el momento angular se conserva.
En el primer modelo usamos la solución conocida del problema de Kepler (PK a partir de ahora). Calculamos la energía de cada cuerpo según el potencial del PK y, al ver que se mantiene relativamente constante, tomamos su promedio para cada cuerpo. Usando esos datos, obtuvimos los parámetros de la elipse resultante según la solución analítica del PK.
En el segundo modelo permitímos que todos los cuerpos sintieran la atracción gravitatoria de cada cuerpo,teniendo entonces un problema de 6 cuerpos (P6C a partir de ahora). Ya que ésto implicó un sistema de 6 ecuaciones acopladas no integrable analíticamente, utilizamos el método de Runge-Kutta (RK a partirde ahora) de 4to orden. Se usó un ancho de paso de h=4e-5 días dejandolo modelar las trayectoriasde 40 días. Usamos de condiciones iniciales los primeros datos del JPL/NASA (00:00:00 1/Ene./2021). Obtuvimos las elipses de mejor ajuste. También se confirmó que tanto el momento angular como las energías se mantienen relativamente constantes.
El siguiente modelo fue dividido en dos. Incluimos el hecho de que Plutón y Caronte no son esferas sino oblatos. Regresamos a la consideración de que cada luna siente solo la interacción gravitacional de Plutón. Al agregar al potencial los términos perturbativos, la solución analítica del problema de Kepler ya no fue válida. Por lo tanto, de nuevo integramos numéricamente con RK de 4to orden para ambas versiones del tercer modelo. Con anchos de paso h=6e-5 días durante 60 días para la primer versión y h=4e-5 días durante 40 días para la segunda.
Para la primer versión, Plutón y Caronte Oblatos como Problema de Kepler (PCO(PK) a partir de ahora), Plutón se mantuvo fijo en el orígen. El resultado no fueron trayectorias elípticas. Aún asi, para mantenernos en el proceso metódico, analizamos las trayectorias como con los otros modelos. También se mantuvieron relativamenteconstantes el momento angular y las energías.
En la segunda versión del tercer modelo, permitimos que Plutón tuviera movilidad, tratando cada combinación de Plutón con una luna como si fuera un problema de 2 cuerpos integrado numericamente con las condiciones iniciales mencionadas previamente. Ningun problema de dos cuerpos fue bueno, pues la velocidad inicial de Plutón se debe casi enteramente a Caronte. Con todos los demás problemas de 2 cuerpos, la luna no tiene suficiente masa como para mantenera Plutón en una órbita.
Para el cuarto y último modelo, de nuevo uilizamos el P6C pero ahora incluímos los términos perturbativosde la oblatés de Plutón y Caronte (PCO(P6C) a partir de ahora). La integración numérica fue básicamente igual a la del segundo modelo (h=4e-5 días por 40 días). De nuevo, obtuvimos las elipses de mejor ajuste. Confirmamos también que el momento angular y las energías se mantienen relativamente constantes.
CONCLUSIONES
El primer modelo, aunque fue un buen primer paso, no dió resultados aceptables en cuanto a aproximarse a los datos del JPL/NASA. Demostramos que el sisitema no puede ser aproximado mediante el PK.
El segundo modelo resultó una muy buena aproximación. Sin embargo, aunque a simple vista las trayectorias parecen ser prácticamente idénticas, el modelo presenta una precesión de la órbita mucho más marcada que la que hay según los datos del JPL/NASA.
La primer versión del tercer modelo, con el simple hecho de que la trayectoria resultante no tiene forma elíptica, no es útil como aproximación a los datos del JPL/NASA.
La segunda versión del tercer modelo, aunque con muchos fallos, nos permitió confirmar que la dinámica del sistema esta regída por Plutón y Caronte.
Por último, el cuarto modelo mejoró la aproximación del segundo modelo. El P6C ya había dado resultados bastante cercanos. Al agregarle la consideración de la oblatés de Plutóny Caronte, la interacción no cambió mucho. Pero la ligera diferencia presente fue en la dirección correcta, acercandose a los datos del JPL/NASA. La precesión órbital aún está presente.
Nuestros objetivos a futuro son cambiar del método de RK de 4to orden a una versión de integrador simpléctico, además de considerar que el sistema de referencia que usamos no es inercial. También considerar otros potenciales teóricos.
Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
ECUACIóN DE MOVIMIENTO DEL GRAFENO EN UN CAMPO MAGNéTICO CONSTANTE
ECUACIóN DE MOVIMIENTO DEL GRAFENO EN UN CAMPO MAGNéTICO CONSTANTE
Covarrubias Morales Mario Alan, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Yajaira Concha Sánchez, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Haciendo uso de los conocimientos adquiridos durante la estancia de verano gracias a la bibliografía proporcionada por el supervisor y por el curso de funciones especiales de la licenciatura en física aplicada, se logró concluir satisfactoriamente el producto de investigación. Este constó a grandes rasgos de solucionar la ecuación de Dirac-Weyl de manera analítica bajo ciertas consideraciones usando la mecánica cuántica como paradigma.
Para llegar a su solución, se hizo una revisión matemática e histórica de los temas de oscilaciones, formalismo hamiltoniano y lagrangiano, teoría de operadores y mecánica cuántica.
METODOLOGÍA
Cada semana se investigó sobre un tema en específico, se desarrollaron las matemáticas necesarias y se ejemplificaron. Todos los temas investigados y el material creado fue sintetizado en un documento hecho en el procesador de textos científicos LATEX, estos temas se dividieron como se muestra a continuación:
1. Metas del proyecto
2. Semana 2
2.1.Oscilaciones armónicas
2.2.Ley de Hooke
2.3.Solución de oscilador armónico simple en una y dos dimensiones
2.4.Lagrangiano
3. Semana 2
3.1.Hamiltoniano
3.2.Ecuaciones de Hamilton
4. Semana 3
4.1.Ecuación de Schrödinger
4.2.Superposición de ondas
5. Semana 4
5.1.Oscilador armónico cuántico
5.2.Soluciones exactas
5.3.Operadores de aniquilación y creación
6. Semana
6.1.Velocidad de Fermi
6.2.Niveles de Landau
6.3.Ecuación de Dirac-Weyl
7. Semana 6
7.1.Gráficas de potenciales
7.2. Gráficas de densidad de probabilidad y de densidad corriente
CONCLUSIONES
La dinámica de un electrón de Dirac en el grafeno bajo la acción de un campo magnético constante perpendicular a la superficie se reduce al comportamiento de un oscilador armónico, pues el potencial efectivo es de la forma a(x+b)^2+c. Esto nos permite llevar las ecuaciones diferenciales provenientes del formalismo Hamiltoniano aplicado en la ecuación de Dirac-Weyl a otras ecuaciones diferenciales equivalentes con soluciones analíticas en términos de polinomios de Hermite y funciones exponenciales. En la parte numérica, se hizo uso de la paquetería de Python para realizar los gráficos de los potenciales así como de las densidades. Se teoriza que las soluciones son obtenibles de manera analítica gracias a la simetría del grafeno así como de su estructura bidimensional, que reduce el problema a propuestas por el método de funciones separables y problemas de Eigenvalores. Los resultados de esta línea de investigación dan pie y sirven como base para la simulacion a computadora de grafeno y complementan la bibliografía existenten para la implementación, estudio de propiedades y fabricación de este material.
Cristóbal Pérez Fermín, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
Cristóbal Pérez Fermín, Universidad Michoacana de San Nicolás de Hidalgo. Fernández Durán Oscar, Universidad Michoacana de San Nicolás de Hidalgo. Hernández Martínez Braulio Ramses, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
PLANTEAMIENTO DEL PROBLEMA
Durante la pandemia provocada por la Covid-19 se normalizó el uso de cubrebocas debido a las medidas de seguridad que hay que seguir para evitar la propagación y contagio de dicha enfermedad. Los establecimientos y lugares donde exista mucho tránsito de personas y aglomeraciones implementaron el uso obligatorio de cubrebocas. Por lo que es muy importante que haya alguien o algo que verifique que todo aquel que circule por dicho espacio esté portando un cubrebocas.
En este punto es importante aclarar que a pesar de usar cubrebocas, este solo disminuye la posibilidad de contagio, pero no la elimina, entonces es correcto suponer que quien esté a cargo de revisar el uso de la mascarilla será expuesto a una probabilidad más grande de contagiarse de la enfermedad. Entonces, sería conveniente pensar en el desarrollo de un sistema automatizado que se encargue de hacer esta labor haciendo uso de las tecnologías actuales que se tengan disponibles, donde dicho sistema sea seguro y confiable.
METODOLOGÍA
El desarrollo científico desarrollado a lo largo de la estancia fue dividido en cuatro etapas principales, las cuales se mencionan a continuación, con una breve descripción de lo que se hizo en cada etapa.
Encontrar un algoritmo de redes neuronales funcional y ejecutarlo para ver que su funcionamiento fuera el que esperábamos.
Probar la eficiencia del algoritmo con un dataset diferente.
Entrenar el algoritmo con un dataset diferente.
Verificar la eficiencia de otro algoritmo con el mismo dataset y hacer la comparación de cada algoritmo.
Primeramente los alumnos investigadores Fermin, Ramses y Oscar se dieron a la tarea de buscar un algoritmo de redes neuronales que ya fuera funcional, con el objetivo de que cada quien probara su algoritmo correspondiente y se viera que tan eficiente era. Para este punto se utilizó el mismo dataset con el que venía el algoritmo, por lo que cada estudiante probó su algoritmo con un dataset diferente en esta primera parte.
Para la segunda parte de la investigación, cada alumno hizo la prueba de la eficiencia de su algoritmo pero ahora todos usamos el mismo dataset de prueba, lo que nos dio una muy buena idea de que tan eficientes eran los algoritmos con los que trabajó cada quien.
Para la tercera parte de las actividades se nos proporcionó un dataset con un cuerpo de 10,000 imágenes divididas en dos grupos; el primero donde se verifica el uso de mascarillas y el segundo donde no hay uso de cubrebocas. En los distintos algoritmos se modificaron los modelos con los que se reconocía el uso de cubrebocas y dando como resultado métricas para seguir con los pasos.
Por último se tuvo que hacer una prueba de cada algoritmo en igualdad de condiciones para revisar su desempeño comparado con el de los otros. Para así ver de mejor manera cuál se comporta de una forma más óptima y se acopla más a nuestras necesidades.
CONCLUSIONES
Al completar con la experimentación logramos notar la diferencia que existe entre los diferentes modelos, así como la importancia con la que se debe seleccionar un conjunto robusto de imágenes con las que entrenar nuestros modelos. De esta manera logramos obtener conocimientos en el entrenamiento para las tecnologías que implementamos durante la estancia.
Al comparar los diferentes algoritmos llegamos a los siguientes resultados; Usando las métricas de precisión,recuperación y F1.
precisión | recuperación | F1
Algoritmo1(default): %94.73 | %69.23 | %79.99
Algoritmo1(entrentado):%90.9 | %83.3 | %86.93
Algoritmo2(default): %99.1 | %76.26 | %86.15
Algoritmo2(entrenado): %85.49 | %83 | %84.22
Cruz Hernandez Juan Antonio, Universidad de Guadalajara
Asesor:Dr. Milton Muñoz Navia, Universidad de La Ciénega del Estado de Michoacán de Ocampo
SIMULACIóN DE CAMPOS ELéCTRICOS Y MAGNéTICOS PARA EL MAPEO DE LíNEAS DE CAMPO (FUERZA) Y SU APLICACIóN EN EL DISEñO DE LENTES ELECTROMAGNéTICAS.
SIMULACIóN DE CAMPOS ELéCTRICOS Y MAGNéTICOS PARA EL MAPEO DE LíNEAS DE CAMPO (FUERZA) Y SU APLICACIóN EN EL DISEñO DE LENTES ELECTROMAGNéTICAS.
Cruz Hernandez Juan Antonio, Universidad de Guadalajara. Delgadillo Lizaola James Frank, Universidad de Guadalajara. Asesor: Dr. Milton Muñoz Navia, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
En nuestra vida diaria convivimos con distintos tipos de tecnología. Sin darnos cuenta, la mayoría de ellas producen campos magnéticos y eléctricos y a pesar de no ser perceptibles a nuestros sentidos de manera directa, dichos campos se afectan e interactúan entre ellos. El estudio de los campos eléctrico y magnético es importante en el desarrollo de instrumentos de caracterización de nanomateriales como son los microscopios electrónicos, cromatografía de gases-masas, espectroscopías. Además, con ellos definiremos el movimiento de cualesquiera partícula cargada. Con esto incluso podríamos tener una herramienta para la síntesis de nanomateriales (por ejemplo el ION BEAM FOCUS o la Litografía de materiales). El diseño de lentes electromagnéticos permite observar con mejor resolución algún objeto, es importante tomar en cuenta distintas formas geométricas y tamaños para su construcción, cada una de ellas se ve afectado por el tamaño y figura en el que se encuentre, por eso es necesario investigar cuál es la figura y tamaños adecuado en la aplicación de lentes electromagnéticos en el uso de microscopía electrónica.
METODOLOGÍA
Se realizaron diferentes simulaciones para observar la aplicación de lentes electromagnéticas, campos electromagnéticos (aplicaciones y efectos), campos magnéticos (formas, efectos e interferencias), así como la caracterización de campos magnéticos en aparatos de uso cotidiano. Todos estos se discutieron en el contexto de sus implicaciones al momento de diseñar lentes electromagnéticas.
En las primeras simulaciones, trabajamos para entender cómo influyen los campos eléctricos y magnéticos en la interacción con algún material, las líneas de campo que presentan en distintas geometrías, la importancia de las distribuciones de carga, peso, carga de una partícula, fuerzas magnéticas, eléctrica entre otros conceptos. Podemos mencionar que la fuerza eléctrica puede afectar una partícula, aunque no se encuentre en movimiento mientras que la fuerza magnética es necesario que la partícula se encuentre en movimiento. Para complementar los conceptos básicos se trabajó en una simulación que, al colocar cargas eléctricas en algún lugar del espacio, se visualizaban las líneas de campo eléctrico. Como en un juego de hockey el cual se pretende meter gol en la portería, para poder guiar el disco (partícula) es necesario poner cargas eléctricas en una configuración tal que la fuerza resultante la mueva en la dirección deseada. Conforme se va avanzando con los niveles la dificultad va aumentando y en algunos existen obstáculos y es necesario conducir el disco hasta la portería y poder anotar, en el juego se puede modificar la masa del disco, además se puede observar las líneas de campo que producen las cargas, mientras existan varias cargas en el campo la dirección del disco se verá afectado. Cuando el disco va aumentando de masa es necesario que la carga se encuentre más cerca o existan más cargas para que se mueva con mayor velocidad mientras que cuando una carga tiene poca masa no es necesario que una carga se encuentre cerca y mucho menos que haya muchas, para dirigir el disco por varios obstáculos es necesario tomar en cuenta que debe haber una correcta distribución de las cargas y recordar la importancia de atracción y repulsión que pueda generar cada una de ellas, las líneas de campo producidas son de mucha importancia para dirigir partículas. Como ya se había mencionado anteriormente, un campo magnético también presenta líneas de campo, a diferencia de las del campo eléctrico estas se conectan entre el mismo objeto (ejemplo un imán) es decir son cerradas. Para tener una idea de cómo funciona el campo magnético en distintas figuras se realizó una simulación de dichos campos con distintas figuras geométricas tanto regulares e irregulares con la finalidad de observar cómo se verían las líneas de campo de dicha figura, también se tomó en cuenta la zona magnética que se puedan encontrar un imán u objeto que produzca el campo magnético. La medición del campo magnético ambiental (campo magnético terrestre y el producido por las fuentes de campo magnético presentes alrededor) se realizó en base al efecto hall, utilizando uno de los sensores integrados en nuestro propio celular como aparato de muestreo. El uso del celular como sensor nos permitió detectar el campo magnético generado por el consumo de energía eléctrica o por aparatos de alto consumo, además de detectar el campo magnético de la tierra.
Al final, en la simulación del microscopio electrónico de barrido, pusimos en práctica todos los conocimientos discutidos en el verano y generamos micrografías de hormiga, azúcar y sal.
CONCLUSIONES
Con base en las simulaciones utilizadas durante el verano, encontramos diferentes efectos que se producen en presencia de campos magnéticos y eléctricos ya sea separados o influyendo uno en otro. Además de observar cómo el cambio de morfologías de los objetos que hacen las funciones de lentes, se modifican las líneas de transmisión de campo magnético. Con lo visto en este verano nos quedó claro que si se desea instalar un microscopio electrónico de barrido es necesario tomar en cuenta las interferencias que este pueda tener ya que si los lentes o el equipo se encuentra cerca de un circuito eléctrico o un campo magnético se puede ver afectado por ello influyendo en el enfoque del objetivo, esta clase de equipos es muy delicado a campos externos por lo cual se deben establecer en habitaciones aisladas con recubrimientos y materiales especiales que no permitan campos ajenos al equipo. El uso de lentes electromagnéticas en la industria espacial es muy llamativo debido a proyectos futuros de compañías de telecomunicaciones cuyos satélites en órbita estos deben tener opciones de movimiento para su ajuste de posición en caso de ser requerido, por lo cual se desarrollaron sistemas de propulsión en base a lentes electromagnéticas que tienen gran impacto en el tamaño y peso de los satélites.
Cruz López Elienai, Universidad de Ciencias y Artes de Chiapas
Asesor:M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
ADSORCIóN DE CO2 POR CARBóN ACTIVADO A BASE DE RESIDUOS AGROINDUSTRIALES PRODUCIDOS EN EL ESTADO DE TABASCO
ADSORCIóN DE CO2 POR CARBóN ACTIVADO A BASE DE RESIDUOS AGROINDUSTRIALES PRODUCIDOS EN EL ESTADO DE TABASCO
Cruz López Elienai, Universidad de Ciencias y Artes de Chiapas. Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Los procesos de adsorción han sido ampliamente utilizados en el tratamiento y remoción de contaminantes tanto aguas como en gases. Existen una amplia gama de materiales adsorbentes, siendo el carbón activado uno de los mas empleados por su versatilidad en la remoción de contaminantes, además que puede obtenerse por fuentes renovables y no renovables. La adsorción con materiales absorbentes porosos carbonosos es una alternativa muy prometedora cuando se obtienen a partir de residuos agroindustriales (Bargougui, et al., 2018). Tradicionalmente los residuos de la agroindustria, principalmente en los procesos de maquila y extracción, son empleados como una fuente alterna de combustibles, sin embargo, la posibilidad de valorizar algunos de los materiales que no reúnen las características energéticas necesarias, puede ser una opción para aumentar su ciclo de vida.
En el estado de Tabasco existe una gran producción agrícola, con base en el Anuario Estadístico de la Producción Agrícola 2019 el cultivo perenne de mayor importancia es el cacao con 40,913.26 hectáreas sembradas, de igual manera son relevantes los cultivos de Palma de aceite y Plátano macho con 26,718.74 y 2,331.59 hectáreas respectivamente (SIAP, 2021). Esta alta productividad agrícola también trae consigo una gran cantidad de residuos (cascara de cacao, pinzote de plátano, cascarilla de palma de aceite, entre otros) los cuales no tiene un aprovechamiento como fuente alterna de combustible. Sin embargo, se reportan la ventaja absorbente a base de compuestos químicos orgánicos para capturar CO2, considerando que estos residuos se componen principalmente de celulosa, hemicelulosa y lignina se consideran factibles para esta aplicación (Bargougui, et al., 2018).
Anteriormente Bargougui, et al., 2018 hicieron estudios de adsorción de CO2 bajo condiciones normales a partir de residuos agroindustriales como la cascara de cacao, presentando una capacidad de adsorción de 0,015 mmol g-1 para la materia prima y 0.24 mmol g-1 al modificar la superficie con un injerto de (3-aminopropil)trietoxisilano (APTES).
Por tanto, en este trabajo se busaca evaluar la capacidad de adsorción del carbón activado a partir de residuos agroindustriales (cascara de cacao) producidos en el estado de Tabasco, a condiciones normales en un ambiente saturado con CO2.
METODOLOGÍA
Diseño y fabricación de la cámara de medición de adsorción.
Para poder realizar la caracterización de adsorción se deseño una cámara con sistema de fluido aislado que permitirá evaluar las muestras en un ambiente saturado con dióxido de carbono y que permitiera observar el volumen adsorbido de dicho gas. Para elaborar la cámara de medición, se adaptaron materiales de laboratorio reciclados que formaron un manómetro de tubo en U, que utiliza aceite de silicón como fluido de trabajo, conectado a una cámara donde se colocaron las muestras a evaluar controlando el flujo de dióxido de carbono.
Preparación de muestras.
Las muestras o los residuos agroindustriales en este caso fueron cascara de cacao, el tratamiento que se le dieron a las muestras después de la recolección consistió en quitar la mayoría de humedad secándolas en horno, posteriormente se realizó un proceso de triturado y tamizado con el fin de obtener un tamaño de fragmentos deseado.
Se carbonizaron las muestras de cascara de cacao en una adaptación de horno tubular con pared de cuarzo a 300° C por 30min, con un flujo constante de 200 mL/min de nitrógeno, para evitar la oxidación de la muestra.
Al tener las muestras carbonizadas, estas se activaron bajo un flujo de vapor de agua según las corridas experimentales proporcionadas por un diseño de experimentos de compuesto central que nos indica once condiciones distintas de activación, variando temperatura y tiempo, esto con el fin de encontrar las condiciones óptimas que proporcionen mayor adsorción al material.
Pruebas de adsorción de CO2.
Para realizar las pruebas de adsorción se coloca la muestra a evaluar en la cámara, así mismo se sellan las posibles fugas en las conexiones, posteriormente se conecta al tubo en U y se equilibra las columnas de aceite de silicón inyectando dióxido de carbono sintético en la cámara de adsorción con ayuda de una jeringa de cromatografía de gases, finalmente teniendo la cámara equilibrada y saturada con CO2 se inicia la prueba de adsorción.
Para concluir, se analizaron los resultados bajo el método de superficie de respuesta en un diseño central compuesto.
CONCLUSIONES
Los materiales carbonosos porosos utilizados mostraron una significativa capacidad de adsorción en contacto con CO2 sintético bajo condiciones normales. La capacidad de adsorción del carbón activado a base de cascara de cacao obtenido bajo condiciones de mayor tiempo y temperatura de activación fue significativamente mayor a la presentada por la materia prima. Por otra parte, se recomienda el uso de grasa de silicona para evitar fugas en las conexiones de la cámara de medición.
Cruz Robles Angeles, Instituto Tecnológico Superior de Ciudad Serdán
Asesor:Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
MéTODO MONTE CARLO APLICADO A OPCIONES FINANCIERAS
MéTODO MONTE CARLO APLICADO A OPCIONES FINANCIERAS
Cruz Robles Angeles, Instituto Tecnológico Superior de Ciudad Serdán. Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En los diferentes instrumentos financieros encontramos, las Opciones Financieras Europeas. Estas son contratos que se comercializan entre compradores y vendedores. Otorgan a sus poseedores la posibilidad (pero no la obligación) de comprar (si tomo una Call) o vender (si tomo una Put), dichos valores a un precio fijado en el futuro. Poder ejercer este contrato y derecho no es gratis, ya que si lo fuera sólo existiría la posibilidad de ganar o de perder una cantidad ilimitada. Para poder comprar este contrato hay que pagar lo que se conoce como Prima al vendedor. Por el contrario, si uno es el vendedor, se vuelve receptor de esta prima. Esta misma consiste en un pago por el derecho a asegurarse un precio en un futuro de otro activo (activo subyacente), en cuestiones de compra o venta.
Las opciones se han vuelto extremadamente populares, tan populares que en muchos casos se invierte mas dinero en ellas que en los activos subyacentes, de esta manera son atractivas para los inversionistas, tanto para la especulación como para la cobertura, por lo general, se puede obtener con su pago original de lo que haría simplemente comprando las acciones. Otro atractivo es que, al combinar diferentes tipos de opciones, un inversor puede tomar una posición que obtenga beneficios de varios tipos de comportamiento de los activos. Para entender esto, es útil visualizar las opciones en términos de diagramas de pagos. Dejemos que E denote el precio de ejercicio y S (T) el precio del activo en la fecha de vencimiento. (Por supuesto, S (T) no se conoce en el momento en que se saca la opción.), S (t) se usará para denotar el precio del activo en un tiempo general r, y T denotará el vencimiento. Al vencimiento, si S (T)> E, entonces el tenedor de una opción de compra europea puede comprar el activo por E y venderlo en el mercado por S (T), ganando una cantidad S (T) E. Por otro lado, si E> S (T) entonces el tenedor no gana nada. Decimos que el valor de la opción de compra europea en la fecha de vencimiento, denotado por C, es C = Max (S (T) E.0), Si, al vencimiento. E> S (T) entonces el tenedor puede comprar el activo a S (T) en el mercado y ejercer la opción vendiéndolo a E. ganando una cantidad E S (T). Por lo tanto, el valor de la opción de venta europea en la fecha de vencimiento, denotado por P, es P = Max (E S (T). 0).
METODOLOGÍA
Se utilizaron bases de datos históricos proporcionados de la plataforma de finanzas Yahoo!, de esta misma se descargaron bases históricas de dos empresas las cuales llevan por nombre; WALLMART y CEMEX. Se analizó el comportamiento de los datos a considerar precios de cierre de activos, durante un periodo de 6 meses. El primer grupo de datos correspondiente a WALLMART, determinó el comportamiento de entradas y salidas de datos, esto fue posible analizarlo, por medio del método Monte-Carlo el cual le debe su nombre al Casino Montecarlo de Mónaco, a través de una simulación de la realidad reemplazando esta por un plano hipotético haciendo uso de números aleatorios.
Con ayuda del programa de análisis financieros R, se procede hacer y ejecutar dicho algoritmo para implementar la simulación de dichas opciones financieras, el cual analiza el riesgo para la toma de decisiones de una empresa, en determinado lapso de tiempo.
Una vez que se calcula los resultados, esta simulación se ejecutara una y otra vez, cada vez usando un grupo diferente de valores aleatorios de las funciones de probabilidad. De esta forma, dependiendo del número de riesgos o incertidumbres y de los rangos especificados, pueden ser necesarios miles de recálculos para completar la simulación.
Bueno ahora bien, calcularemos el valor de una opción la cual dura 6 meses con S0 de valor inicial 5000, una tasa libre de riesgo del 5% y una volatibilidad del 20%, la cual al calculamos por medio del promedio, por la rentabilidad de la cantidad de datos, por los días del año, ahora determinaremos el precio de una Call, con el modelo Monte Carlo mediante la fórmula, que calcule el valor futuro posible, del activo subyacente, nos dice que el valor futuro será igual al valor inicial (o de hoy) por la exponencial de la tasa libre de riesgo, menos la volatibilidad, al cuadrado entre dos, por el tiempo, más la volatibilidad, por la distribución normal estándar inversa de un numero aleatorio, de esta manera le daremos un numero aleatorio a la fórmula para que nos calcule, la posición en la curva de distribución normal, y eso lo multiplicamos por la raíz del tiempo, de esta manera cada vez que corremos el programa cambia, esto será el futuro de mi activo subyacente, vamos a calcular los pay-off de las call, los cuales calcularan cuánto dinero se ganó en caso de que la prima se ejerza, o un cero en caso de que esta no se ejerza, ahora para calcular dicha CALL, debemos seguir la formula la cual dice, que la exponencial menos la tasa libre de riesgo por el tiempo, por el máximo de ST-K, 0, ya que si esta es ejercida, nos arrojara los valores de ganancia a modo de interpretación y será fácil reconocer dicho valor y cuánto vale a manera, si es mayor que 50, en caso contrario si ST-K no se ejerce, el resultado presente será cero. Ahora de igual manera me di a la tarea de ejecutar solo este método a través de la evaluación y movimiento del precio de una acción durante medio año, dio como resultado el siguiente código, anexado al que soluciona una Call.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de cómo puede ser evaluada una opción a futuro con un activo subyacente ya sea una call o una putt según convenga al activo dentro del mercado financiero de igual manera me queda demasiado claro que dentro de estas no hay arbitraje, y que para poder tener ganancias antes debes invertir en el mercado, pero dentro de este tiene varias complejidades, donde en el se pueden comprar o vender fracciones de activos o el bien de derecho mas no la obligación, de esta manera comprendí que no se puede dividir por partes el pago, ni los costos de sus transacciones.
En este link, podras encontrar el reporte completo y mas detallado, https://www.dropbox.com/s/3cjwayahsiobh2d/M%C3%A9todo%20Monte.pdf?dl=0
Cuevas Munguía Luis Fernando, Universidad de Guadalajara
Asesor:Mtro. Juan de Dios Viramontes Miranda, Universidad Autónoma de Ciudad Juárez
TEORíA DE TRANSFORMACIóN DE áREAS
TEORíA DE TRANSFORMACIóN DE áREAS
Cuevas Munguía Luis Fernando, Universidad de Guadalajara. Asesor: Mtro. Juan de Dios Viramontes Miranda, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El estudio riguroso del área de una figura plana así como la medida de cualquier magnitud para tener una comprensión clara es necesario el concepto de número real, en este trabajo de investigación veremos como los matemáticos griegos clásicos pudieron resolver el problema del área aun sin disponer de una elaboración precisa del conjunto de los números reales, usando como herramienta principal la comparación de figuras geométricas por medio de la analogía, para la elaboración de estas figuras los griegos se basaron en el uso de regla y compas, el tema se concentró en los Elementos de Euclides una de las causa fue su rigurosidad al hacer las demostraciones a comparación de otras escuelas.
METODOLOGÍA
Los problemas de área comienzan muy temprano en los Elementos, en este caso empezamos a analizar su uso de área desde la proposición 43 del primer libro, la cual comienza a comparar dos paralelogramos usando la palabra igual. Antes de esta proposición Euclides había usado la igualdad con sentido estricto de congruencia, y solo había aplicado la idea a rectas, ángulos y tríangulos, al llegar a la proposición 35, sin previo aviso afirma igualdad de paralelogramos aún teniendo formas distintas y a partir de entonces lo sigue utilizando, afirmando igualdad de contenido. Aunque se sienta que esta igualdad la haya dado sin previo aviso esta bien sustentada debido a las nociones comunes 2 y 3 del primer libro.
Todas las demostraciones tienen un carácter geométrico que no precisa de número, otra cosa que se nota es que las proposiciones están enumeradas de una forma muy especial ya que sigue un orden donde se deduce lo que se sigue a partir de las suposiciones anteriores y cada una tiene relación con la anterior.
Una de las proposiciones que más resalta en este estudio es la 47 la cual dice En los triángulos rectángulos el cuadrado del lado opuesto al ángulo recto es igual a la suma de los cuadrados de los lados que forman, la mayoría de las personas si no es que todas la conocemos como el teorema de Pitágoras, aunque no se sabe con certeza si los Pitagóricos la demostraron de una forma correcta, lo que resalta de esto es la forma en que lo demuestra Euclides, con congruencia de triángulos.
En las proposiciones siguientes podemos encontrar los resultados de suma y resta de rectángulos, la cual coincide con la suma y resta de productos, la construcción de un cuadrado cuya área sea igual a la de un rectángulo que se podría ver como la extracción de una raíz cuadrada.
En las primeras proposiciones del libro II de los Elementos se dan diferentes resultados geométricos que se pueden ver como proposiciones algebraicas que conocemos, entre ellas está la distribución del producto sobre la suma y la solución de algunas expresiones algebraicas como x^2=ab
CONCLUSIONES
Durante la estancia de verano se realizó una revisión de la obra los elementos de Euclides, nos enfocamos en el método de construcción de Euclides para la transformación de áreas, de los cuales también se vio que las proposiciones analizadas de este tema tienen una gran relación con los resultados que se obtiene en la rama del algebra, algo curiosos ya que en la época de Euclides no se tenía una noción de número a la actual, pero por medio de la geometría logro conseguir resultados similares, por desgracia debido a las condiciones actuales de la pandemia y de las condiciones climáticas no se tuvo una comunicación como se esperaba, pero se pudo lograr una discusión aceptable sobre el tema, en resumen, podemos decir que el estudio de áreas en la matemática griega se realizó por comparación de figuras geométricas.
de la Cruz López Carlos Alberto, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
IMPLEMENTACIóN DE METAMATERIALES COMO ALTERNATIVA EN LA DISIPACIóN DE ENERGíA DE LAS ONDAS SíSMICAS GENERADAS EN EL SUELO.
IMPLEMENTACIóN DE METAMATERIALES COMO ALTERNATIVA EN LA DISIPACIóN DE ENERGíA DE LAS ONDAS SíSMICAS GENERADAS EN EL SUELO.
de la Cruz López Carlos Alberto, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Una onda sísmica es una perturbación vibracional periódica en la cual la energía se propaga a través del medio sin desplazamiento de masa. Esto en la Tierra, corresponde a los sismos, los cuales son generados por el rompimiento de una placa, fracturas, etc. Más específicamente, en la ingeniería geofísica, esto puede ser entendido como la interacción del suelo con las ondas sísmicas generadas por una fuente, ya sea de manera natural o antrópica. Es así que, cuando el suelo tiene ciertas propiedades en un estado sin alteraciones, las ondas sísmicas que viajan por este medio corresponderán directamente con las propiedades de ese estado, como puede ser la densidad, los módulos de elasticidad, etc. No obstante, recientemente se ha implementado una definición innovadora que juega un papel muy importante en la geometría del suelo, puesto que, si se modifica dicho estado con una red de pozos vacíos, las propiedades generales del mismo se verán alteradas. Esto corresponde con los metamateriales sísmicos, en la cual la red de pozos antes mencionada sirve como base de experimentación para poner en perspectiva la distribución de energía de las ondas sísmicas generadas por una sonda en el suelo modificado.
METODOLOGÍA
Para poder poner a prueba esto, se hizo el uso de dos aplicaciones con licencia estudiantil: la primera corresponde a Fusion 360 donde se diseñó la geometría del suelo la cual consistió en 31 pozos con un diámetro de 0.32 m distribuidos periódicamente con una separación entre centros de 1.73 m y una profundidad de 5 m. Además, se indicó que la fuente generadora de dichas vibraciones corresponde a una frecuencia de 50 Hz que crea un desplazamiento en el plano XY de 0.014 m. Por otro lado, las consideraciones del suelo en cuanto a densidad se tomaron como 1500 kg/m^3, mientras que en los pozos rellenos de aire se consideró una densidad de 1.2 kg/m^3, teniendo en cuenta que en la simulación este proceso se trataría con dos materiales distintos; aquí queda a prueba igual con distintos materiales en el pozo para determinar la efectividad del arreglo borehole. Por último, cabe destacar que los módulos elásticos juegan un papel importante en la simulación, dado que, en el segundo software, ANSYS, se introdujo todos los parámetros anteriormente mencionados, así como las condiciones de frontera Floquet-Bloch, el cual indica la periodicidad del arreglo. En este software se empleó la opción transient structural dado que se está empleando una fuente vibratoria monocromática que genera ondas sísmicas en un cuerpo determinado.
CONCLUSIONES
Una vez hecha la prueba en el software ANSYS con la geometría ya definida, así como con los métodos y condiciones pertinentes, se demostró que el arreglo provee una gran ventaja para la disipación de energía sísmica ante el paso de un tren de ondas que producen perturbaciones en el suelo, lo cual, en el ámbito de la ingeniería, se tomaría como base para futuros desarrollos de dispositivos que ayuden a disipar la energía sísmica de fuentes naturales y antrópicas, así como en la construcción de edificios sismorresistentes. Igualmente, se puede agregar que este tema de investigación ha ido en aumento debido a los recientes casos donde las edificaciones han sido los principales puntos de susceptibilidad, lo cual a su vez reduciría las pérdidas económicas y humanas.
de la Fuente Bonfil Alan, Instituto Politécnico Nacional
Asesor:Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México
OBSPY: PRIMER PASO DE ENTRADA AL “BIG DATA” EN SISMOLOGíA
OBSPY: PRIMER PASO DE ENTRADA AL “BIG DATA” EN SISMOLOGíA
Bello Hernández Diana Marbeli, Instituto Politécnico Nacional. de la Fuente Bonfil Alan, Instituto Politécnico Nacional. Asesor: Dr. Juan Martín Gómez González, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
México está ubicado en una zona altamente sísmica. Una gran cantidad de sismos son registrados a través de pocas redes sísmicas compuestas por un número moderado de estaciones. Por ejemplo, la red del Servicio Sismológico Nacional (SSN) está compuesta por 57 estaciones de banda ancha, distribuidas en todo el país, con una mayor densidad hacia las costas del océano Pacífico. Para procesar la información registrada se utiliza software especializado, el cual generalmente es muy caro para los países en desarrollo. Una alternativa para procesar los datos son las herramientas de código abierto, como SEISAN, CPS, etc. En el caso de SEISAN, contiene varios programas de procesado y análisis de señales sísmicas. En 2010 apareció Obspy, una herramienta con una gran capacidad para el procesamiento masivo de datos sísmicos, la cual está basada en Python. Obspy facilitar el ensamble de programas de sismología y el flujos de datos, por lo que funciona como un puente entre la sismología y el ambiente científico más grande de Python. Mediante programas más pequeños se pueden utilizar diferentes tipos de datos, p.ej. SEED, MiniSEED, GSE2, SAC, AH, entre otros. Además de realizar la lectura, escritura y conversión de datos, filtrado, corrección instrumental, simulación de instrumentos, rutinas de visualización extendida y graficado. Python permite aumentar enormemente los alcances de Obspy, ya que cada vez se crean nuevos programas.
Aún son pocos los centros de investigación en México que han implementado esta herramienta tan valiosa. Si queremos reducir la brecha tecnológica entre México y los países más avanzados, e incluso entre instituciones dentro de nuestro mismo país, es importante conocer las herramientas de vanguardia de código abierto, especialmente las que permiten el procesado de señales de Sismología.
METODOLOGÍA
Durante la estancia de verano del programa Delfín realizamos un trabajo de sensibilización con base en el análisis de datos de un evento sísmico ocurrido en Turquía (fecha y Magnitud)., Se estudiaron algunos conceptos teóricos sobre la lectura de primeros arribos y polaridades de ondas de cuerpo, así como su graficación en falsillas estereográficas con base en el azimut y ángulo de salida. El uso de la esfera focal nos permitió determinar soluciones de plano de falla de forma manual. Si bien actualmente se pueden calcular con algunos programas de cómputo, el objetivo de esta asignación fue el comprender el proceso y las variables que influyen en el resultado, ya que la dificultad en la construcción de los mecanismos focales reside en entender el procedimiento y establecer rangos de errores posibles en las soluciones de plano de falla. Se llevó a cabo el cálculo y corrección de los azimuts fuente-estación para cada estación y del ángulo de salida. Se pudo obtener el ángulo del strike, del echado, del rake y del plunge.
Se hizo una búsqueda y revisión de los centros de datos, las redes mundiales y de algunos programas, la mayoría de ellos disponibles en el portal del consorcio internacional IRIS (liga). Se trabajó con registros sísmicos proporcionados por el departamento de Ciencias de la Tierra de la Universidad de Bergen, Noruega. También analizamos registros sísmicos lobtenidos de la base de datos del SSN y la red sísmica del Centro de Geociencias (Querétaro). Todos estos registros fueron analizados para familiarizarnos con los datos y el software más común.
SEISAN permite leer y analizar una base de datos sencilla de terremotos de México, se utilizó el programa SAC para visualizar de forma rápida las formas de onda. De estas se calcularon los espectros de amplitud y potencia, se realizó la identificación y marcado de fases de los primeros arribos de las ondas P y S, lo que permitió localizar espacialmente los sismos y estimar sus respectivas magnitudes. Mediante el uso del programa FOCMEC, y con los primeros arribos de onda, se calcularon los mecanismos focales para determinar los tipos de fallas de la fuente. Por último, se utilizó el programa GMT para elaborar mapas y gráficas de las localizaciones y magnitudes, respectivamente.
Otro programa utilizado fue Obspy, el cual permitió leer cualquier tipo de formato de ondas (GSE2, MiniSEED, SAC, Seisan, ASCII) mediante la conexión hacia varios centros de datos, (IRIS, FDSN, WS) con base en varios protocolos de comunicación, como Seedlink. A las formas de onda, se les aplicaron filtros para disminuir el ruido, a éstas se les calcularon espectrogramas para observar la distribución de frecuencias y energía. La correcta lectura de los primeros arribos de ondas P y S permitió estimar las magnitudes y profundidades de los sismos. Obspy también permite construir los mecanismos focales de forma automática. Las tareas se pueden automatizar en una notebook, lo que facilita una apreciación más rápida y mejorada. Las localizaciones y la generación de mapas permitió comparar los tiempos de procesamiento de SEISAN. Hemos enlazado las bases de datos extranjeras y mexicanas como los registrados en la red sísmica del Centro de Geociencias para realizar un mejor procesamiento de registros de forma rutinaria y masiva.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos y prácticos de conceptos básicos de Sismología. Comparamos dos herramientas tecnológicas, Seisan y Obspy, esta última presenta varias ventajas, como la rapidez, una mayor automatización, visualización, ahorro de tiempo y recursos. Facilita la creación de bases de datos, que, conforme aumente el número de estaciones, se aproximará al big data cuando se analicen diferentes parámetros o atributos. Con las herramientas de uso masivo de datos no importa la condición ni extensión de los mismos, pues la exploración de parámetros es muy amplia. Con la constante incorporación de nuevas rutinas en Obspy se pueden procesar y analizar datos de distintas partes del mundo y generar mapas de sismicidad y peligro sísmico con mayor precisión.
de la Rosa Flores Gregory, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
de la Rosa Flores Gregory, Benemérita Universidad Autónoma de Puebla. Paz Saavedra Marcos, Benemérita Universidad Autónoma de Puebla. Varela Pérez Jaret Wendolyn, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Existen diversos métodos de síntesis de TiO2, como el método Sol-Gel, el método de Micela y Micela Inversa, el método Hidrotermal, el método de oxidación directa, entre otros. La importancia de su producción reside en las propiedades que este material posee como fotocatalizador, el dióxido de titanio posee la propiedad de degradación fotocatalítica de contaminantes orgánicos usando la radiación solar disponible en nuestro planeta. El TiO2 puede mejorar su actividad fotocatalítica por la radiación recibida a través de la luz visible. Se ha propuesto mejorar las propiedades superficiales del TiO2 mediante el dopaje con metales. En especial mediante la incorporación de metales de transición como iones dopantes, con la intención de extender la absorción de la luz del material en la región visible del espectro de radiación electromagnética, siendo el Au y la Ag algunos metales que reúnen las características necesarias para mejorar la absorción del TiO2.
METODOLOGÍA
El método de combustión es una técnica viablemente económica y muy fácil para preparar cerámicas y nanomateriales, algunas de las características más importantes son los calentamientos rápidos y tiempos de reacción cortos. Es una técnica de reacción redox exotérmica que produce polvos finos homogéneos de óxido metálicos y comienza con la formación de una solución acuosa que contiene un oxidante fuerte, el nitrato de un metal y un combustible orgánico para después calentar la solución hasta evaporar el agua, al no tener presencia de agua, la mezcla enciende espontáneamente por la combustión del nitrato del metal y el combustible formando polvos finos, liberando gases como N2, CO2, y H2O. Algunas ventajas de esta técnica son:
Empleo de equipo relativamente simple (parrilla eléctrica, mufla, centrífuga).
Condiciones de preparación simples como la calcinación y la pulverización.
Formación de productos de alta pureza.
Estabilización de fases metaestables.
Los compuestos se forman en sólo 5 minutos de calentamiento.
A continuación, se describe la obtención y depósito de nanopartículas de Ag sobre dióxido de titanio por el método de combustión.
Para el proceso se coloca una mezcla que contiene Urea, TiO2, AgNO3 y H2O tridestilada, dicha mezcla se homogeniza en un vaso de precipitados con 5 mL de agua tridestilada para llevarla a evaporación en una parrilla eléctrica a temperatura de 60 a 70 °C.
Posteriormente la mezcla homogeneizada se deposita en un crisol de porcelana y se introduce en una mufla marca FELISA modelo FE361 precalentada a 800°C durante 5 minutos.
Las muestras se someten a 5 lavados con agua tridestilada en una centrífuga Herme Labnet Z206 a 6000 rpm por 5 minutos cada lavado, con el propósito de eliminar residuos de carbono productos de la combustión. El secado se realiza en un horno BINDER durante 24 horas a temperatura de 40 °C.
Un proceso similar es requerido para el dopaje de partículas de oro, esta vez utilizando hidróxido de oro como precursor.
CONCLUSIONES
Durante la investigación, se encontró que existen más metales que se utilizan como dopantes, cada uno de ellos tiene un efecto diferente en la generación de pares electrón-hueco, por lo que se altera su permanencia sobre la superficie durante la carga transferida en la interfase, cabe destacar que estos dopantes pueden ocupar diferentes posiciones en la estructura cristalina del material, todo esto da como resultado que la eficiencia fotocatalítica sea variada, según el metal que se utilice.
Durante nuestra estancia, estudiamos y analizamos diferentes métodos de obtención de TiO2 mediante diversos artículos científicos, aprendiendo más sobre las diferentes técnicas de caracterización de nanomateriales, como es el caso de la Difracción de Rayos-X (XRD), la Microscopía Electrónica de Barrido (SEM), el Análisis Termogravimétrico (TGA) y la Espectroscopía UV-vis.
Si bien, la situación social actual nos negó la posibilidad de desarrollar una estancia presencial, durante este proceso de investigación hemos incorporado muchos nuevos conocimientos que nos permitirán formar parte de proyectos futuros relacionados con los nanomateriales y los fotocatalizadores para dar respuesta a severos problemas ambientales.
Durante la estancia se lograron adquirir conocimientos básicamente teóricos sobre la síntesis y caracterización de TiO2 dopado con Au y Ag, al ser una estancia virtual no fue posible llevar a cabo las pruebas experimentales respectivas. No obstante, el análisis, selección y discusión de toda la información recopilada muestra la amplia investigación que existe sobre el TiO2 dopado con iones metálicos y las aplicaciones potenciales de este material en la degradación de distintos colorantes.
Delgadillo Lizaola James Frank, Universidad de Guadalajara
Asesor:Dr. Milton Muñoz Navia, Universidad de La Ciénega del Estado de Michoacán de Ocampo
SIMULACIóN DE CAMPOS ELéCTRICOS Y MAGNéTICOS PARA EL MAPEO DE LíNEAS DE CAMPO (FUERZA) Y SU APLICACIóN EN EL DISEñO DE LENTES ELECTROMAGNéTICAS.
SIMULACIóN DE CAMPOS ELéCTRICOS Y MAGNéTICOS PARA EL MAPEO DE LíNEAS DE CAMPO (FUERZA) Y SU APLICACIóN EN EL DISEñO DE LENTES ELECTROMAGNéTICAS.
Cruz Hernandez Juan Antonio, Universidad de Guadalajara. Delgadillo Lizaola James Frank, Universidad de Guadalajara. Asesor: Dr. Milton Muñoz Navia, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
En nuestra vida diaria convivimos con distintos tipos de tecnología. Sin darnos cuenta, la mayoría de ellas producen campos magnéticos y eléctricos y a pesar de no ser perceptibles a nuestros sentidos de manera directa, dichos campos se afectan e interactúan entre ellos. El estudio de los campos eléctrico y magnético es importante en el desarrollo de instrumentos de caracterización de nanomateriales como son los microscopios electrónicos, cromatografía de gases-masas, espectroscopías. Además, con ellos definiremos el movimiento de cualesquiera partícula cargada. Con esto incluso podríamos tener una herramienta para la síntesis de nanomateriales (por ejemplo el ION BEAM FOCUS o la Litografía de materiales). El diseño de lentes electromagnéticos permite observar con mejor resolución algún objeto, es importante tomar en cuenta distintas formas geométricas y tamaños para su construcción, cada una de ellas se ve afectado por el tamaño y figura en el que se encuentre, por eso es necesario investigar cuál es la figura y tamaños adecuado en la aplicación de lentes electromagnéticos en el uso de microscopía electrónica.
METODOLOGÍA
Se realizaron diferentes simulaciones para observar la aplicación de lentes electromagnéticas, campos electromagnéticos (aplicaciones y efectos), campos magnéticos (formas, efectos e interferencias), así como la caracterización de campos magnéticos en aparatos de uso cotidiano. Todos estos se discutieron en el contexto de sus implicaciones al momento de diseñar lentes electromagnéticas.
En las primeras simulaciones, trabajamos para entender cómo influyen los campos eléctricos y magnéticos en la interacción con algún material, las líneas de campo que presentan en distintas geometrías, la importancia de las distribuciones de carga, peso, carga de una partícula, fuerzas magnéticas, eléctrica entre otros conceptos. Podemos mencionar que la fuerza eléctrica puede afectar una partícula, aunque no se encuentre en movimiento mientras que la fuerza magnética es necesario que la partícula se encuentre en movimiento. Para complementar los conceptos básicos se trabajó en una simulación que, al colocar cargas eléctricas en algún lugar del espacio, se visualizaban las líneas de campo eléctrico. Como en un juego de hockey el cual se pretende meter gol en la portería, para poder guiar el disco (partícula) es necesario poner cargas eléctricas en una configuración tal que la fuerza resultante la mueva en la dirección deseada. Conforme se va avanzando con los niveles la dificultad va aumentando y en algunos existen obstáculos y es necesario conducir el disco hasta la portería y poder anotar, en el juego se puede modificar la masa del disco, además se puede observar las líneas de campo que producen las cargas, mientras existan varias cargas en el campo la dirección del disco se verá afectado. Cuando el disco va aumentando de masa es necesario que la carga se encuentre más cerca o existan más cargas para que se mueva con mayor velocidad mientras que cuando una carga tiene poca masa no es necesario que una carga se encuentre cerca y mucho menos que haya muchas, para dirigir el disco por varios obstáculos es necesario tomar en cuenta que debe haber una correcta distribución de las cargas y recordar la importancia de atracción y repulsión que pueda generar cada una de ellas, las líneas de campo producidas son de mucha importancia para dirigir partículas. Como ya se había mencionado anteriormente, un campo magnético también presenta líneas de campo, a diferencia de las del campo eléctrico estas se conectan entre el mismo objeto (ejemplo un imán) es decir son cerradas. Para tener una idea de cómo funciona el campo magnético en distintas figuras se realizó una simulación de dichos campos con distintas figuras geométricas tanto regulares e irregulares con la finalidad de observar cómo se verían las líneas de campo de dicha figura, también se tomó en cuenta la zona magnética que se puedan encontrar un imán u objeto que produzca el campo magnético. La medición del campo magnético ambiental (campo magnético terrestre y el producido por las fuentes de campo magnético presentes alrededor) se realizó en base al efecto hall, utilizando uno de los sensores integrados en nuestro propio celular como aparato de muestreo. El uso del celular como sensor nos permitió detectar el campo magnético generado por el consumo de energía eléctrica o por aparatos de alto consumo, además de detectar el campo magnético de la tierra.
Al final, en la simulación del microscopio electrónico de barrido, pusimos en práctica todos los conocimientos discutidos en el verano y generamos micrografías de hormiga, azúcar y sal.
CONCLUSIONES
Con base en las simulaciones utilizadas durante el verano, encontramos diferentes efectos que se producen en presencia de campos magnéticos y eléctricos ya sea separados o influyendo uno en otro. Además de observar cómo el cambio de morfologías de los objetos que hacen las funciones de lentes, se modifican las líneas de transmisión de campo magnético. Con lo visto en este verano nos quedó claro que si se desea instalar un microscopio electrónico de barrido es necesario tomar en cuenta las interferencias que este pueda tener ya que si los lentes o el equipo se encuentra cerca de un circuito eléctrico o un campo magnético se puede ver afectado por ello influyendo en el enfoque del objetivo, esta clase de equipos es muy delicado a campos externos por lo cual se deben establecer en habitaciones aisladas con recubrimientos y materiales especiales que no permitan campos ajenos al equipo. El uso de lentes electromagnéticas en la industria espacial es muy llamativo debido a proyectos futuros de compañías de telecomunicaciones cuyos satélites en órbita estos deben tener opciones de movimiento para su ajuste de posición en caso de ser requerido, por lo cual se desarrollaron sistemas de propulsión en base a lentes electromagnéticas que tienen gran impacto en el tamaño y peso de los satélites.
Deniz Gálvez Paola, Universidad de Colima
Asesor:Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
MODELO BINOMIAL APLICADO A LA VALUACIóN DE OPCIONES FINANCIERAS
MODELO BINOMIAL APLICADO A LA VALUACIóN DE OPCIONES FINANCIERAS
Deniz Gálvez Paola, Universidad de Colima. Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El modelo binomial es un modelo discreto que nos permite observar el comportamiento de las acciones a través del tiempo. Fue propuesto por Cox-Ross-Rubinstein en 1979, que nos permite valuar opcioes en tiempo discreto, el cual está basado en la suma finita de variables aleatorias independientes e idénticamente distribuídas de forma binomial.
Dentro del modelo binomial se sigue la técnica basada en la construcción de arboles binomiales, consiste en un esquema que representa las trayectorias que puede seguir el precio de las acciones subyacentes durante la vida de la opción.
La valoración de opciones se encarga del estudio de activos financieros, cuya rentabilidad depende de otros activos o de sus precios y en un marco de probabilidad. Valuar opciones es importante en el ámbito financiero pues podemos obtener ganancias acertando con las previsiones acerca de las tendencias futuras del mercado. El objetivo principal de este proyecto es aprender a valuar opciones financieras utilizando el modelo binomial.
METODOLOGÍA
En el modelo binomial los precios del bien subyacente se modelan siguiendo el supuesto binomial, para ello asumiremos que el precio de una acción sigue un proceso binomial multiplicativo en tiempo discreto. En otras palabras, el precio de una acción en el siguiente periodo tomará solo dos valores que dependen de dos factores multiplicadores, uno cuando el precio esté a la alza, y otro cuando esté a la baja. El primer factor multiplicador lo denotaremos por la letra u, donde u>1, representará el evento en que el precio por acción se incremente en el siguiente periodo de análisis y el segundo factor lo representaremos como d, d<1 que corresponde con un escenario donde el precio por acción disminuye con respecto a su valor actual S.
El modelo binomial mas simple es el de un periodo, donde el tiempo de vigencia se divide en dos instantes de tiempo t0=0 y tn=T. Durante el desarrollo del proyecto analizamos el modelo binomial para un periodo, para dos periodos y para n periodos.
CONCLUSIONES
Sea el modelo binomial para la valuación de opciones basado en una variable aleatoria discreta con distribución binomial sabemos cómo calcular la probabilidad de éxito del evento. Por lo tanto, la aplicación de este modelo en la valuación de activos resulta efectiva pues se tiene la capacidad de dismunir el riesgo que implica predecir las tendecias futuras en el mercado. Los resultados obtenidos en este proyecto son entender y desarrollar el análisis de valuacón de opciones mediante el modelo binomial y ejecuación de opciones de venta o compra principalmente en opciones europeas.
El siguiente enlace lleva al reporte completo del proyecto:
https://drive.google.com/drive/folders/1tYVdZBf29O68m6hXNfuny_MfZMqSEy3V?usp=sharing
Diaz Ortega Angel David, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
BLOQUE PARA CONSTRUCCIóN DE MUROS DIVISORIOS A BASE DE DESPERDICIO DE NOPAL.
BLOQUE PARA CONSTRUCCIóN DE MUROS DIVISORIOS A BASE DE DESPERDICIO DE NOPAL.
Diaz Ortega Angel David, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Actualmente el uso desmedido de recursos es uno de los mas grandes problemas que enfrenta México y una de sus causas es el incremento continuo en la población, esto se conecta directamente con el aumento de la construcción ya que se necesitan más hogares para esa población que esta en constante aumento, lo cual a su vez genera una sobre explotación de los recursos naturales produciendo así un gran deterioro ambiental.
Mas sin embargo la industria de la construcción no puede detenerse ya que es uno de los sectores principales de la economía mexicana y el más importante en cuanto a valor de mercado en toda América Latina, tal es así que, en 2020 el ramo de la construcción contribuyó con alrededor del 6,3% del producto interno bruto (PIB) de México. Debido a lo anterior resulta indispensable innovar en los materiales que se usan y además en el aprovechamiento de los recursos para así dar un gran paso en el desarrollo de bajo impacto ambiental sin dejar de lado la parte económica de la construcción.
Por otro lado, con respecto a los recursos naturales en abundancia podemos decir que en algunas regiones de México se tienen grandes cultivos de nopales, lo cual ha llevado a nuestro país a ser el primer productor de nopal, produciendo cerca de 777,000 toneladas anuales, dicha producción proviene principalmente de la Ciudad de México, Estado de México y Morelos. Hablando específicamente del Estado de México en el valle de Teotihuacán podemos destacar que según la SIAP cerca del 27.5% de la superficie territorial se encuentra sembrada con nopal. Los datos que se mencionan anteriormente representan que con la gran cantidad de producción y cultivo tambien existen muchos desperdicios los cuales pueden ser aprovechados a manera de materiales de construcción en las regiones de producción para así contribuir a un desarrollo sustentable en construcción de viviendas y producción de nopal.
METODOLOGÍA
Este proyecto se lleva bajo una metodología no experimental basada en la investigación cuantitativa, la cual tiene como propósito dar una serie de pasos a seguir para la realización de un bloque hecho a base de desperdicios de nopal y una lista de las características que tiene el bloque para que posteriormente se pueda aplicar a la construcción; para la obtención de estos datos se han tomado como referencia simulaciones por computadora y prototipos de diferentes personas.
Con respecto a las investigaciones que se llevaron a cabo en este verano de la investigación se encontró que del desperdicio de nopal se pueden aprovechar las fibras de este para obtener un bloque de construcción de muros divisorios que tiene características destacadas en aislamiento térmico, aislamiento acústico y bajo costo. Representando una buena alternativa en comparación a los prefabricados ligeros.
De la misma manera como resultado de esta investigación se tiene el siguiente proceso de fabricación del bloque:
Obtención de las fibras de nopal:
Limpiar con un cepillo de plástico el cladodio del nopal para eliminar el polvo y grana que pueda haber en este; posteriormente eliminar las espinas.
Dejar secar al sol en una superficie plana y seca por 2 días, aplicando al cladodio una ligera capa de cal hidratada.
El resultado del paso anterior debe trozarse en pedazos más pequeños para poder ser utilizado, se recomienda sean pedazos de 1 o 2.
Elaboración de la mezcla:
Se utilizará cemento portland CPC 30R en una concentración de 25% del volumen total de la mezcla.
Agregar agua en una proporción del 20% del volumen total deseado.
Agregar los cladodios secos y trozados en una proporción del 55% del volumen total deseado.
Vaciado en moldes:
Se recomienda el uso de un molde de 120 mm de grosor, 600 mm de largo y 300 mm de ancho.
Se vierte la mezcla en el molde y se espera a que este esté seco para desmoldar.
Debido a la emergencia sanitaria derivada del COVID-19 no se han podido realizar los estudios mecánicos para obtener características más detalladas del mismo, pero se pretenden realizar 10 muestras del bloque para medir los parámetros pertinentes.
CONCLUSIONES
Como se ha mencionado anteriormente debido a la emergencia sanitaria que se vive actualmente, esta investigación se limita a la búsqueda bibliográfica, mas sin embargo se pretende darle continuidad en el apartado experimental para así obtener los datos faltantes.
A continuación, se presentan los datos que se esperan obtener en cuanto se realicen las pruebas mecánicas; es importante mencionar que estos datos han sido obtenidos en base a prototipos de bloques similares y a simulaciones por computadora que se han realizado.
Densidad cuando este seco: 310 < ρ < 360 [kg/m³]
Resistencia a la compresión: fb > 300 [kPa]
Conductividad térmica cuando está seco: λd < 0.07 [W/mK]
Resistencia al vapor de agua: µ < 3 [-]
Superficie de cohesión: > 100 [kPa]
De la misma manera se espera que se tenga una huella de carbono de 76 kg de CO2 por cada metro cubico de bloques.
Díaz Pérez Alejandra, Universidad Veracruzana
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
CORRELACIóN ENTRE LA TSM Y TEMPERATURA DEL AIRE EN PUERTO DE VERACRUZ, VERACRUZ DEBIDO A EL NIñO (1997, 1998) Y LA NIñA (1999, 2000)
CORRELACIóN ENTRE LA TSM Y TEMPERATURA DEL AIRE EN PUERTO DE VERACRUZ, VERACRUZ DEBIDO A EL NIñO (1997, 1998) Y LA NIñA (1999, 2000)
Díaz Pérez Alejandra, Universidad Veracruzana. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La interacción de las aguas y la atmósfera es el origen de fenómenos climatológicos, su revisión y chequeo continuo son necesarios para entender el comportamiento y causalidad de estos. Tal es el caso de los fenómenos sudamericanos de La Niña y El Niño, los cuales alteran la actividad climática del Pacífico, sin embargo estas variaciones no se quedan ahí. Otros cuerpos de agua importantes se ven afectados por estas manifestaciones, como la región del Atlántico. En este estudio buscamos responder cómo afectan el Niño y la Niña al Golfo de México, concretamente en la región del Sistema Arrecifal Veracruzano, colindante al Puerto de Veracruz y Antón Lizardo, buscando la correlación entre la Temperatura Superficial del Mar y la Temperatura del Aire. La presencia de los arrecifes permitió ubicar a la ciudad donde permanece; por lo tanto, una inspección continua de las aguas es crucial, para proteger a la población debemos proteger el arrecife y revisando las condiciones del mar, en este caso su temperatura superficial.
METODOLOGÍA
Primeramente, se seleccionaron años específicos para observar las condiciones del arrecife debido a los fenómenos de América del Sur. Dicho esto, los años elegidos fueron 1997 y 1998 para El Niño y 1999 y 2000 para La Niña.
A medida que los datos fueron proporcionados, se calculó la temperatura promedio por día obtenida por la estación.
Finalmente, se adquirieron los coeficientes de correlación y se obtuvieron los gráficos adjuntos.
CONCLUSIONES
Se encontró que durante los años Niña 1999 y 2000, la actividad climática fue más tranquila. A diferencia de los años Niño 1997 y 1998, en 1999 y 2000 hubo menos variaciones de temperatura tanto de aire como en el mar. En las gráficas correspondientes se puede apreciar que en dichos años los datos se acercan más a la línea de tendencia. Por el contrario en los años Niño las temperaturas obtenidas difieren más unas de otras. Es justo concluir que el ENSO altera las variaciones de temperatura en el área de estudio.
En general observamos que en verano se presenta un comportamiento irregular en todos los años, recordemos que es una temporada de lluvias y huracanes para la costa. Este es un elemento que evidentemente afecta el clima de la zona, no podemos atribuir todo a la Niña y el Niño. Sin embargo es válido decir que la temporada más afectada por los fenómenos de Sudamérica es el verano, siguiéndole el otoño.
Durand Ramírez Mary Sol, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
CAUSAS Y REPERCUSIONES POR LA APARICIóN DEL SOCAVóN - SANTA MARíA ZACATEPEC PUEBLA 2021
CAUSAS Y REPERCUSIONES POR LA APARICIóN DEL SOCAVóN - SANTA MARíA ZACATEPEC PUEBLA 2021
Durand Ramírez Mary Sol, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. María Dolores Guevara Espinosa, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La comunidad de Santa María Zacatepec se encuentra ubicada en el Municipio Juan C. Bonilla, dónde el pasado 1 de junio de 2021, se comenzó a generar de manera visible, en la capa externa del suelo la falla geológica conocida como Socavón de Santa María Zacatepec. Suceso que ha tenido una importante extensión a partir del primer instante en que se presentó el desastre natural.
La presente investigación se realiza bajo la principal función de informar de manera teórica sobre posibles sucesos que podrían ser los causantes de dicho desastre natural, desarrollando una visión general respecto a los ámbitos de medio ambiente y alimentos, para así poder generar una conclusión informativa con los datos planteados que se analizarán
METODOLOGÍA
Los pasos a seguir para realizar la investigación son:
- Planteamiento del problema , Justificación, Objetivos, Procesos y Actividades, Determinaciones, Resultados de las determinaciones , Conclusiones y posibles trabajos futuros
Justificación
La presente investigación se enfocará en estudiar cuáles son los parámetros ambientales, agrícolas e industriales que se encuentran en la localidad de Santa Maria Zacatepec, debido al suceso ocurrido el 1 de junio de 2021, donde se comenzó a generar en la capa externa del suelo la falla geológica conocida como Socavón de Santa María Zacatepec.
Así, el presente trabajo nos ayuda a encontrar posibles teorías del porqué se originó este comportamiento del suelo, apoyándonos de teorías, análisis y datos históricos importantes del sitio, del mismo modo nos enfocaremos en integrar un estudio sociológico donde de integra la resiliencia y cambios que experimentaran los pobladores de dicha comunidad.
Objetivos
- General
Investigar y deducir mediante análisis teórico que es lo que ocasionó la formación del socavón.
- Especifico
Determinar en que características se encontraba el suelo en la comunidad.
Analizar si la localidad de Santa María Zacatepec está preparada para los cambios futuros que enfrentarán tras lo sucedido.
Procesos y actividades
Dadas las circunstancias de riesgo de la zona elegida para para dicha investigación, no puede ser posible llevar a cabo los análisis correspondientes para la misma, pero se tratará de plantear todas las posibles pruebas que se pueden llevar a cabo en un futuro.
Una de las herramientas más usadas para realizar un diagnóstico de suelos es el análisis físico-químico del mismo.
CONCLUSIONES
- Toma de muestra de campo
Por la gravedad y sensibilidad del sitio la toma de muestra para la investigación deberá realizarse en una zona segura, si no es posible acceder al sitio, de unos metros más atrás, como se considera que es el mismo perfil de suelo, pero la diferencia que se podría presentar son las fallas geológicas que se pudieran encontrar por su ubicación.
- Se consideran las determinaciones químicas cualitativas en campo que son:
Cloruros, sulfatos y carbonatos;
Esta técnica consiste en analizar las características en estado de saturación en el contenido de aniones, necesaria cuando se trata de calcular la dosis de riesgo en suelos salinos o en aguas salinas, como se estima que en donde se generó el suceso se espera que estos parámetros se encuentren positivos, por el tipo de actividad que se generaba en la localidad.
Arcilla naturalmente dispersa
La acción de lluvia a través del tiempo puede ir lavando el perfil del suelo formando que algunos compuestos se acumulen en cierta profundidad formando horizontes de acumulación, de arcilla y de calizas es por esto que se considera que este rango podría encontrarse como positivo.
Alcalinidad
Un suelo alcalino es aquel que presenta un exceso de sodio intercambiable que a medida que incrementa su concentración empieza a reemplazar otros caniones.
Por las actividades que se registraban en el sitio podemos deducir que no existiría presencia.
Materia Orgánica
La determinación de materia orgánica se evalúa a través del contenido de carbono orgánico, donde se oxida el carbono orgánico por medio de una disolución de dicromato de potasio, se estima que como es una zona de cultivos haya mucha presencia de materia orgánica.
Infiltración, Densidad Aparente, Densidad Real, Determinación de color, Coeficiente de Extensión Lineal, Estabilidad de Agregados, pH, Textura, Porcentaje de saturación y pasta saturada, Porcentaje de carbono orgánico y materia orgánica, Coeficiente de Electricidad, Acidez extraible, Capacidad de intercambio catiónico, Determinación de nitrógeno total.
La investigación presenta determinaciones que quedan como resultados por obtener ya que se requieren equipos de laboratorio para poder llegar a resultados, sin embargo se estipula cuales serían los posibles resultados y rangos.
Dentro de los municipios que forman parte del Estado de Puebla está la localidad de Santa María Zacatepec situada en el municipio de Juan C. Bonilla la cual cuenta con 14,823 habitantes.
Siendo uno de los pueblos más poblados de todo el municipio, es el número 1 del ranking. Santa María Zacatepec está a 2,220 metros de altitud.
Los siguientes datos anexados son para darnos una idea de que tan grande es la población, así mismo de los posibles daños futuros que pueden repercutir en el municipio debido a estos desastres naturales, y cómo poder ayudar a los habitantes de la misma.
El municipio y todos su habitantes deben de estar preparados para cualquier suceso que se pueda presentar en un futuro ya que existe la probabilidad de que pueda generarse un nuevo socavón esto debido a que el recurso predominante en el municipio es el agua, por ser una zona acuífera en su totalidad. Así mismo hay que tomar en cuenta que el municipio se ubica en la parte central de la cuenca alta del río Atoyac, una de las cuencas más importantes que tiene su nacimiento en la vertiente oriental de la Sierra Nevada.
Es atravesado de oeste a este por el río Actiopa, que desaparece al llegar a la localidad de Santa María Zacatepec; al oriente es atravesado por el Metlapanapa, que posteriormente se unirá al Atoyac.
Echeverri Gonzalez Katherine, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
ESTIMACIóN DE LOS CAMBIOS EN VEGETACIóN DESPUéS DE UN INCENDIO FORESTAL EN UN ECOSISTEMA DE PASTIZAL MEDIANTE IMáGENES SATELITALES
ESTIMACIóN DE LOS CAMBIOS EN VEGETACIóN DESPUéS DE UN INCENDIO FORESTAL EN UN ECOSISTEMA DE PASTIZAL MEDIANTE IMáGENES SATELITALES
Echeverri Gonzalez Katherine, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
En México, los incendios forestales queman en su mayoría el 70 al 90% de los pastizales y arbustos. Los primeros se recuperan en la temporada de lluvia e incluso estos incendios son de su beneficio, pero las zonas arboladas tienden a recuperarse en un tiempo mayor. Por consiguiente, el presente trabajo analiza los cambios de la vegetación en una fracción de la cuenca Río verde Grande, ubicada en el estado de Jalisco. Dichos cambios fueron calculados por medio del Índice de Vegetación de diferencia normalizada (NDVI), mediante imágenes satelitales Landsat 8, recolectadas por el sensor OLI. Se analizó un periodo de 2013-2021, en el cual la fecha del incendio corresponde al año 2017, obtenido de estos tres resultados de NDVI, donde se puede apreciar el cambio inmediato en dos perspectivas diferentes (antes y después de la quema). La variación en el NDVI mostró una recuperación positiva de la vegetación después del incendio, lo que afirma la teoría mencionada con anterioridad. Finalmente, se calculó el índice de quema normalizado (NBR), con el fin de evaluar la afectación al ecosistema del área quemada debido a la intensidad del fuego.
METODOLOGÍA
Las características espectrales de la vegetación permiten la captura de información por parte de sensores de observación de la superficie terrestre instalados a bordo de satélites artificiales. La vegetación fotosintéticamente activa presenta una elevada reflectividad de la radiación electromagnética en la región espectral del infrarrojo cercano. Por el contrario, la mayor parte de la radiación que recibe la vegetación en la región visible del espectro es absorbida por los pigmentos fotosintéticos (Knipling, 1970). Debido a tales propiedades, y gracias a la disponibilidad de imágenes de satélites que cubren estas regiones del espectro electromagnético, se pueden calcular varios índices de vegetación que permiten medir el estado y grado de actividad de la cubierta vegetal (Bannari et al., 1995). Entre ellos el más utilizado y el calculado es el Índice de Vegetación de diferencia Normalizada, que se formula así:
NDVI= B5-B4/B5+B4
Donde B5 es la reflectividad en la región espectral del infrarrojo cercano y B4 es la reflectividad en la región espectral del rojo.
los valores de NDVI están en un rango de -1 a 1, en los cuales los valores entre 0,2 y 0,4 corresponden a zonas con vegetación escasa; la vegetación moderada tiende a variar entre 0,4 y 0,6; mientras que cualquier valor por encima de 0,6 indica la mayor densidad posible de hojas verdes.
Adicionalmente, se realiza el cálculo del índice de quemado normalizado (NBR), para las imágenes del 2017.
NBR=NIF-SWIF/NIF+SWIF
Donde NIF es el infrarrojo cercano y SWIF Infrarrojo de onda corta, correspondiente a la Banda 5 y Banda 6 de las imágenes Landsat 8, respectivamente.
Sus valores varían en un rango de entre -2 y 2, representando el resultado de la diferencia previa y posterior al fuego, en donde los valores positivos se asocian a una severidad elevada, disminuyendo hasta valores cercanos a 0 de severidad baja en donde la afectación es nula, valores negativos corresponderían a la señal de los nuevos rebrotes de vegetación u otras coberturas. (Parsons et al., 2010).
Por consiguiente, se descargaron imágenes satelitales Landsat 8, las cuales están compuestas por 7 u 8 bandas espectrales, especialmente elegidas para el monitoreo de la vegetación, aplicaciones geológicas y estudio de los recursos naturales. Se analiza un periodo 2013-2021, en el que el incendio forestal se ubica en el año 2017; se obtuvieron 2 imágenes por año (en temporada seca y lluvia), y en el año de enfoque (2017) se obtuvieron 3 imágenes de referencia del incendio (antes, durante y después).
CONCLUSIONES
Se observa en los valores NDVI para el año del incendio (2017), un cambio significativo entre las fechas del antes, durante y después, en el cual se resalta el impacto positivo del incendio, ya que favoreció este ecosistema, pues al ser un pastizal se activa o se recuperan muy rápidamente con los primeros pulsos de precipitación. Esto se debe a la eliminación de los macollos grandes que impedían el paso de luz hacia los nuevos rebrotes, lo que permitió que estos pudieran crecer y desarrollarse mejor, garantizando así una mayor producción de biomasa, siendo esta la materia orgánica para tratamiento de suelos. Además, este impacto es de beneficio para la alimentación de diversos organismos, que se convierten en productos y servicios beneficiosos para el hombre. Por otro lado, con el cálculo de NBR, se puede concluir que la severidad del incendio fue baja, debido a que los valores en la mayor parte del área corresponden a valores negativos, lo que puede indicar un nuevo crecimiento después de la quema.
Elizarrarás Botello Miranda, Universidad Autónoma de Baja California
Asesor:Dr. Armstrong Altrin Sam John S. -, Universidad Nacional Autónoma de México
ESTUDIO DE GRANULOMETRíA DE MONTEPíO Y PUNTA ROCA PARTIDA, EN EL ESTADO DE VERACRUZ.
ESTUDIO DE GRANULOMETRíA DE MONTEPíO Y PUNTA ROCA PARTIDA, EN EL ESTADO DE VERACRUZ.
Elizarrarás Botello Miranda, Universidad Autónoma de Baja California. Robles Olivas Frida Sofía, Universidad Autónoma de Baja California. Asesor: Dr. Armstrong Altrin Sam John S. -, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El estudio de la clasificación del tamaño de partículas sedimentarias, así como el tipo de movimiento que presentan, son características que permiten inferir el transporte litoral, además de las fuentes de origen. A dicho estudio, se le conoce como Granulometría. El sedimento es clasificado dependiendo de su tamaño, en: gravas (>2 mm), arenas (2 mm a 62 micras), limos (62 a 4 micras) y arcillas (<4 micras), que adquiere durante su transporte desde la fuente originaria hasta el lugar de depósito. Cuando la partícula tiene que enfrentarse a un recorrido mayor, el fluido en movimiento aplicará una fuerza de erosión casi constante que resultará en una partícula pequeña, pulida y redonda. Por otra parte, si el recorrido no es tan extenso, la partícula no presentará tanta erosión, y su superficie será dominada por aristas pronunciados.
Con el fin de comprender la dinámica sedimentaria de Montepío y Punta Roca Partida en el estado de Veracruz, se analizaron 5 muestras sedimentarias, a través de análisis granulométricos y estadísticos. Dichos análisis proporcionaron información sobre el fluido de transporte, la distancia, caracterización del sedimento, y por tanto permite la diferenciación de los dos ambientes de depósito Montepío y Punta Roca Partida.
METODOLOGÍA
Teniendo en cuenta la importancia de los estudios granulométricos, se recolectaron distintas muestras situadas en San Andrés Tuxtla, Veracruz. Dichas muestras se resguardaron en bolsas Ziploc y se etiquetaron con las coordenadas, nombre del sitio y recolector. Para el análisis granulométrico de cada una de las cinco muestras de la zona 1, Montepío (S1, S2, S3, S5 y S11) y la zona 2, Punta Roca Partida (RS3, RS9, RS12, RS14 y RS15) en una balanza analítica se pesaron y separaron 35 gr. de cada una de las muestras. Después, los 35 gr. de muestra se colocaron en una serie de tamices (en orden decreciente) con tamaños de -1 a 3.75 phi, que se taparon con una charola de colecta de fracción menor a 4 phi. Cada muestra fue llevada al tamizador, donde se homogeneizó durante 10 minutos. Una vez transcurrido el tiempo, se recolectaron las fracciones separadas por cada uno de los tamices, y se pesaron las submuestras resultantes sobre los distintos tamices. A partir de esto, se calculó el peso en porcentaje y el percentil acumulado, con lo que fue posible conocer la distribución de tamaño de grano en cada una de las cinco estaciones de los dos sitios analizados. Además, fue posible comprender la dinámica física en las regiones costeras de Montepío y Punta Roca Partida, mismas que fueron comprobadas con el apoyo de bibliografía especializada.
CONCLUSIONES
De las dos regiones analizadas en el estado de Veracruz puede destacarse que las cinco muestras de Montepío presentan altos contenidos de arenas medias, de al menos 20% del sedimento total; sobre todo en las estaciones tres (S3) y cinco (S5); al igual que ocurre con las estaciones de Punta Roca Partida. El primer diagrama bivariante nos indica que para Montepío, los sedimentos de las estaciones uno (S1), cinco (S5) y once (S11), corresponden a procesos fluviales, mientras que las estaciones dos fueron transportadas por la aledañas al ambiente deposicional de la playa. A partir del diagrama bivariantes de energía publicado por Friedman (1967) y el diagrama resultante de los límites proporcionados por de Halls y Hoyt (1969) y de Moiola y Weiser (1968) se distinguió que todos los sedimentos de las cinco estaciones de Montepío pertenecen a la playa. Los diagramas bivariantes de transporte en Punta Roca Partida señalan que los sedimentos de las estaciones tres (RS3) y nueve (RS9) fueron transportados por procesos fluviales; los de la estación 15 (RS15) por procesos de playa y los 9 y 14 (RS9 y RS14) por la plataforma continental. Por otra parte, fue evidente que los sedimentos de Punta Roca Partida pertenecen en su mayoría a sedimentos de playa, a excepción de la estación 15 (RS15) que contiene sedimentos de posible procedencia dunar.
La localización de las estaciones y el tamaño de grano predominante en cada una, nos permitieron conocer parte de las dinámicas físicas predominantes de las dos zonas. Las corrientes superficiales frente a la zona de Tuxpam, desplazan el sedimento del sureste hacia el noroeste. Se menciona sin embargo que en las temporadas de suradas, los vientos veracruzanos y por lo tanto las corrientes superficiales (en consecuencia el efecto de coriolis) que se dirigen al norte, deflectan el agua hacia el mar abierto, generando así parte del fenómeno de surgencias y hundimientos costeros.
Espinosa Fernández Estefanía, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
GALERKIN DISCONTINUO Y ELEMENTOS ESPECTRALES PARA EL PROBLEMA DE LAMB
GALERKIN DISCONTINUO Y ELEMENTOS ESPECTRALES PARA EL PROBLEMA DE LAMB
Espinosa Fernández Estefanía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jonas D. de Basabe Delgado, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El problema de Lamb analiza el caso de propagación de ondas mecánicas provocadas por una fuente puntual en un espacio semi-infinito y elástico. Múltiples soluciones analíticas han sido propuestas para dicho problema; no obstante, las soluciones numéricas han adquirido una gran importancia, pues permiten generar modelos mediante sistemas computacionales de una manera eficiente. Uno de los métodos numéricos más populares es el de elementos finitos, a partir del cual surgen ciertas variantes, como Elementos Espectrales (SEM) y Galerkin Discontinuo (DG), que han encontrado aplicaciones en el campo de la sísmica. Es por lo anterior que este trabajo busca estudiar ambos métodos, generando modelos con medios que corresponden a las características del problema de Lamb.
METODOLOGÍA
Debido a las necesidades de procesamiento para estos métodos, fue necesario trabajar de manera remota con la supercomputadora Lamb del Centro de Investigación Científica y Educación Superior de Ensenada (CICESE), a la cual fue posible conectándose a través de un VPN y utilizando la consola de Linux.
Con ayuda de los recursos de la supercomputadora y utilizando el software creado por De Basabe se generaron cuatro modelos para cada método, utilizando polinomios de grados 8, 4, 2 y 1 con mallas cuadradas con 250, 500, 1000 y 2000 nodos por lado, respectivamente. Para el medio de propagación se utilizó un modelo de superficie libre con una sola capa, condiciones de frontera absorbentes, una fuente puntual con una ondícula de Ricker como función generadora, velocidad de onda P de 2.7 km/s, velocidad de onda S de 1.56 km/s y una densidad de 1.2 g/cm3.
Finalmente, se generaron sismogramas sintéticos y se visualizaron y compararon con ayuda del software libre SAC (perteneciente a IRIS).
CONCLUSIONES
A pesar de que se redujeron a la mitad los tamaños de la malla al duplicar el grado de polinomio, la calidad del sismograma no se vio perjudicada y se pudieron reducir los tiempos de cómputo considerablemente. Así, es posible afirmar que elevar el grado de los polinomios en ambos métodos presenta resultados positivos, e incluso una mejora con respecto a sus contrapartes de menor grado.
Los tiempos de cómputo entre DG y SEM también presentaron variaciones, especialmente significativas con grados de polinomio mayores, con SEM presentando mayor rapidez de cómputo al generar los distintos modelos. Sin embargo, no se encontró gran diferencia en cuanto a su dispersión con respecto a la solución analítica, pero sí se pudieron observar diferencias notorias entre la solución analítica y las numéricas pues, aunque la tendencia general es similar, se puede observar un mayor número de oscilaciones en el componente x, y oscilaciones de mayor amplitud en la componente z, aunque bien esto podría deberse a la tasa de muestreo, por lo que podría ser necesario realizar pruebas relacionadas a la frecuencia de muestreo para comprender mejor estas diferencias.
Esquivel Andrade Ruth Stephanie, Universidad de Guadalajara
Asesor:Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
APLICACIóN DEL PROCESO DE DIAGONALIZACIóN A LOS SISTEMAS DINáMICOS PARA
ESTUDIAR LA APLICACIóN DE LA ECUACIóN DE CALOR
APLICACIóN DEL PROCESO DE DIAGONALIZACIóN A LOS SISTEMAS DINáMICOS PARA
ESTUDIAR LA APLICACIóN DE LA ECUACIóN DE CALOR
Esquivel Andrade Ruth Stephanie, Universidad de Guadalajara. Asesor: Mg. Angie Rocio Melo Casas, Universidad Católica de Colombia
PLANTEAMIENTO DEL PROBLEMA
Los sistemas dinámicos conllevan el estudio de la evolución de magnitud a lo largo del tiempo. De esta forma, cada modelo estudia la evolución de diferentes fenómenos ya sean físicos, químicos, biologicos, sociales, etc. En la realización de este proyecto se consideró el aplicar la diagonalización de matrices para resolver el sistema dinámico asociado a la ecuación del calor la cual intenta inferir los cambios biologicos, físicos y químicos que se tienen en el proceso de calentamiento.
METODOLOGÍA
Puntualizaremos conceptos básicos correspondientes a algebra lineal tales como matriz diagonalizable, vectores propios relacionados con el polinomio característico en otros conceptos y teoremas más. Después continuaremos definiendo lo que es un sistema dinámico haciendo una diferenciación entre la dinámica discreta y continua, para ambas dinámicas veremos su definición, solución, problemas de valores iniciales y su operador en diferencia. Por otro lado, comenzaremos a estudiar lo que es el proceso de diagonalización de manera general, desarrollado en sistemas lineales y sistemas desacoplados. Luego, para entrar al sistema dinámico perteneciente a la ecuación del calor es necesario tener conocimiento previo acerca de las ecuaciones diferenciales parciales, de este modo se parte de la especificación del problema, se establecen las condiciones tanto iniciales como de frontera y así, después de desarrollar el problema y aplicar dichas condiciones se llega a la ecuación buscada. Mediante el método de separación de variables se obtiene un problema de Sturm Liouville donde la solución estará dada en series de Fourier. Una vez entendido el desarrollo parcial y la solución del modelo se emplea el proceso de diagonalización, así mismo también se establece la estabilidad de cada valor característico.
CONCLUSIONES
En conclusión, se logró desarrollar lo inicialmente establecido, es decir, mediante la diagonalización se logró obtener la solución al sistema dinámico correspondiente a la ecuación del calor, así como también fue posible exponer que, para la solución de un sistema dinámico, no se tiene un método general, pero si se cuenta con diferentes métodos de solución correspondiente a cada área matemática.
Esquivel Tejeda Mario Iván, Universidad de Guadalajara
Asesor:Dr. David Ignacio Serrano García, Universidad de Guadalajara
DETECCIóN DE LUZ NATURALMENTE POLARIZADA EN ESCENAS REMOTAS
DETECCIóN DE LUZ NATURALMENTE POLARIZADA EN ESCENAS REMOTAS
Betancourt Suárez Emmanuel Josué, Universidad de Guadalajara. Esquivel Tejeda Mario Iván, Universidad de Guadalajara. Asesor: Dr. David Ignacio Serrano García, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La luz polarizada ha sido objeto de estudio por sus aplicaciones prácticas en diversos campos, por ejemplo brindar información acerca de la estructura, composición y propiedades de un material o la detección de objetos en un paisaje al reflejar la luz del ambiente que llega a polarizarse. Es por esa razón que desarrollar tecnologías que puedan detectar luz naturalmente polarizada es uno de los campos con un fuerte interés en la actualidad. Es por eso que en este proyecto se desarrolla un dispositivo portable para la detección de la luz naturalmente polarizada.
METODOLOGÍA
Implementación
Se utilizó el RaspBerry Pi 4B por ser un dispositivo asequible, portable y fácil de utilizar, en el cuál se le añadió un módulo de cámara, una celda de cristal líquido y un polarizador lineal de referencia.
Las conexiones de la celda de cristal líquido fueron soldados a cables macho-hembra conectados a los pines 12 (GPIO 23 PCM\_CLK) y 14 (Ground) del Raspberry pi. Posteriormente se implementó el modulo de cámara de Raspberry pi, y el polarizador lineal orientado en 45$^circ$ colocado entre la cámara y la celda de cristal líquido. Una vez teniendo los componentes el dispositivo, se diseñó una carcasa impresa en 3D a la medida y se implementó al dispositivo.
Una vez armado el prototipo, se le instaló el sistema operativo Raspberry OS basado en Debian y se instaló python 3 y los paquetes numpy, pigpiod y Open CV.
Por último, Se realizó un script en Python para la captura de las imágenes, y otro en MATLAB para su procesamiento.
Mediciones experimentales
Se realizaron mediciones controladas en el laboratorio donde se tomaron 80 capturas a cada escena mientras se variaba el estado de polarización de la celda de cristal líquido, tales como polarizadores de referencia, monitores y pantallas de celular, para después almacenarlos en un archivo NPY. Después el archivo fue leído por el código en MATLAB para obtener el absoluto normalizado y fase de las capturas, realizando una transformada de Fourier para observar los objetos que reflejaban luz polarizada naturalmente.
Una vez obtenidos los resultados en el laboratorio, se realizaron mediciones experimentales en escenas reales, tales como en autos, casas y objetos, donde se realizó el mismo procedimiento mencionado anteriormente.
CONCLUSIONES
Se desarrolló e implementó un módulo para sensar luz naturalmente polarizada. El módulo se compone de una raspberry pi, una celda de cristal líquido, una cámara para adquirir las imágenes y una carcasa impresa en 3D. Al módulo se le instaló el Raspberry OS, el Python 3 y se incluyó los paquetes necesarios como el numpy, Open CV y el pigpiod para la creación de un script en Python que permitía tomar capturas y almacenarlos en un archivo NPY. Después se tomaron capturas en el laboratorio con polarizadores de referencia y posteriormente en escenas reales. Por último, se realizó un script en MATLAB para procesar las capturas donde se realizaba una transformada de Fourier y obtener el absoluto normalizado y la fase de las capturas para observar objetos que reflejaban luz polarizada naturalmente.
Falero Uicab Jazzivi Donaghi, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche
PERFILES PLAYEROS MEDIANTE EL LEVANTAMIENTO DE DATOS EN CAMPO OBTENIDAS CON EL USO DE DRONES O VEHíCULOS AéREOS NO TRIPULADOS (VANT) EN PLAYA BONITA, CAMPECHE
PERFILES PLAYEROS MEDIANTE EL LEVANTAMIENTO DE DATOS EN CAMPO OBTENIDAS CON EL USO DE DRONES O VEHíCULOS AéREOS NO TRIPULADOS (VANT) EN PLAYA BONITA, CAMPECHE
Falero Uicab Jazzivi Donaghi, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Se pretende responder y aportar información a la comunidad educativa en relación la utilización de Vehículos Aéreos No Tripulados (VANT) comúnmente llamados drones, en este caso en particular se emplearon datos de levantamiento de perfiles playeros en playa bonita, Campeche.
(Guevara Bonilla, y otros, 2020) El desarrollo tecnológico de los vehículos aéreos no tripulados, VANT´s da acceso a nuevas aplicaciones en múltiples campos de la ciencia y la ingeniería.
Ante el desarrollo que presentan los VANT, es de utilidad conocer las principales características y componentes de estos equipos utilizados con fines prácticos para la ingeniería civil, los trabajos relacionados y su uso potencial en las diferentes áreas de aplicación. Los usos emergentes de los VANT están asociados con la aplicación de técnicas geoespaciales y sensores para caracterizar la variabilidad espacial y temporal con fines de levantamiento de perfiles en este caso en particular, y con ello definir estrategias de manejo.
En la última década se han publicado múltiples trabajos sobre el uso de VANT en diversas áreas del saber humano. Los estudios también indican que estos vehículos son de gran utilidad para el monitoreo y supervisión de la superficie terrestre a través de imágenes georreferenciadas de alta resolución espacial, temporal, y espectral de baja altura. Sin embargo, existen restricciones para su adopción debido a su costo inicial, entrenamiento y software requerido, y regulaciones cada vez restrictivas para su uso.
METODOLOGÍA
Para la obtención del mosaico de fotos ortorectificado, (Garcia Balan, 2021) es necesario realizar tres pasos:
Obtención de puntos de control,
Vuelo y toma de fotografías y
procesamiento de imágenes,
CONCLUSIONES
En ingeniería civil, el uso de VANTs es ahora una herramienta indispensable en la toma de datos espaciales que permiten la discriminación de características de terrenos. En la actualidad en nuestro estado ya se emplea el uso de estos para la realización de tomas fotográficas aéreas en diversos puntos del estado, así como para la supervisión de mediciones geodésicas, entre otras.
Los Vehículos Aéreos No Tripulados (VANT) comúnmente llamados drones están en pleno desarrollo y su aplicación en las diversas áreas del saber humano es cada vez más común, esto debido a que ofrece la posibilidad de generar imágenes de mayor resolución y frecuencia.
El tiempo para realizar los levantamientos con el uso de VANT pueden reducirse significativamente a comparación de realizarlos de la manera tradicional en la que aún se realizan actualmente.
El programa PIX4D es de gran utilidad para el procesamiento de las imágenes que se obtienen del dron, este software cuenta con diversas herramientas para exportar los resultados, así como resulta ser un poco intuitivo para su uso.
Fernandez Aguirre Fatima Leonor, Universidad Mexiquense del Bicentenario
Asesor:Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PRUEBAS NO DESTRUCTIVAS PARA LA DETECCIóN DE FISURAS EN PIEZAS METALMECáNICAS DE LA INDUSTRIA AUTOMOTRIZ
PRUEBAS NO DESTRUCTIVAS PARA LA DETECCIóN DE FISURAS EN PIEZAS METALMECáNICAS DE LA INDUSTRIA AUTOMOTRIZ
Fernandez Aguirre Fatima Leonor, Universidad Mexiquense del Bicentenario. Martínez Márquez Mariana, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Una de las problemáticas de la industria automotriz está relacionada con el control de calidad en las piezas metalmecánicas de los automóviles, pues los protocolos actuales no detectan con eficiencia los defectos en dichas partes. En caso de que estos problemas no se detecten en el área correspondiente, la pieza será enviada a los siguientes procesos de producción lo que generará pérdidas monetarias y retraso en el tiempo de entrega. Es así que las pruebas no destructivas surgen como alternativa a los métodos tradicionales de control de calidad, ya que estas no alteran de forma permanente las propiedades de las piezas a examinar. Se denomina prueba no destructivo a cualquier tipo de prueba practicada a un material que no altere de forma permanente sus propiedades físicas, químicas, mecánicas o dimensionales.Este tipo de ensayos son de vital importancia en la industria en general. En particular un tipo de pruebas no destructivas son las pruebas térmicas, las cuales utilizan la termografía infrarroja (que es la técnica que permite la obtención de imágenes de la radiación térmica emitida por un objeto). En este tipo de pruebas el material es generalmente calentado por una fuente y se estudia la diferencia de temperatura entre un área con defectos y un área sin ellos, pues la temperatura cambia como una función del tiempo después de calentar el material. En este proyecto estudiaremos la aplicación de las pruebas no destructivas térmicas en un ejemplo ideal de la sección de una pieza metalmecánica proveniente de un automóvil. Para ello se simulará el calentamiento de la puerta y los datos obtenidos por una cámara IR, pues realizar pruebas físicas es muy costoso. Y con esto se busca detectar cambios en la densidad del material, las cuales pueden representar fisuras o adelgazamientos de este. Para este análisis se toman en cuenta las siguientes propiedades físicas del material: densidad, conductividad térmica y calor específico, estos datos dependen de la naturaleza del material a analizar y serán obtenidos de la literatura.
METODOLOGÍA
Al inicio de la estancia se leyó el artículo en el que se basa el proyecto (Bayesian inference of hidden corrosion in steel bridge connections: Non-contact and sparse contact approaches de C.J. Earls) para adentrarse en la investigación y entender mejor lo que se iba a trabajar. Posteriormente se buscó bibliografía del material ya que la idea principal era entender porque se causan estas fisuras y como es que la Industria Automotriz no se percatan de este problema en los controles que pasan durante su proceso de manufacturación. Es así como a través de la investigación se entendió la modelación del problema y el cómo toma en cuenta diferentes conceptos como los son propiedades de las aleaciones, el funcionamiento de las pruebas no destructivas térmicas en distintos campos aplicados, el método Bayesiano, la plataforma FeniCS y la cámara la termografía. Cabe destacar que al ser un campo que involucra patentes en cuanto a lo que métodos y materiales concierne las fuentes de bibliografía de consulta en del tema en particular (pruebas no destructivas térmicas en la industria automotriz) fueron escasas e incompletas.
Para el presente proyecto el fenómeno físico es una prueba no destructiva, donde el objetivo es estudiar el comportamiento de las imperfecciones presentes en una lámina de acero después de un proceso industrial. El problema físico se pone en términos del modelo matemático, que modelará el comportamiento de la lámina a través de la ecuación de calor. Al tener el problema físico ya modelado se realiza un análisis del problema, debido a que el problema que se tiene es un problema inverso y su solución analítica no se conoce, se usa el enfoque Bayesiano para conocer la forma en que se distribuirán los parámetros dado la temperatura. Para obtener la distribución posterior se utiliza el algoritmo Metropolis-Hastings un método numérico estadístico que utiliza cadenas de Markov.
1.Estudio del problema directo
En este paso se busca, que basados en una formulación de la ecuación del calor y dados los parámetros densidad, conductividad térmica y calor específico, encontrar una expresión que describa la temperatura en cada punto de la pieza a estudiar.
1.1 Método numérico
Usando el método de elemento finito a través de la plataforma FEniCS para resolver la ecuación diferencial parcial propuesta.
2.Estudio del problema inverso
2.1 Formulación bayesiana del problema inverso
En este caso, se plantea encontrar los parámetros del material físico que se analiza en puntos de interés, para esto se aplica estadística bayesiana. Se fija una distribución de probabilidad para los parámetros (a priori) y la verosimilitud de que los datos tengan ciertos valores dados los parámetros. Así, el resultado es una distribución de probabilidad que nos indica cuál es la probabilidad de que los parámetros alcancen ciertos valores, dados los valores de la temperatura. Estos valores son sintéticos, es decir, son obtenidos a partir de un conjunto inicial de parámetros, y a estos se les agrega ruido. En nuestro caso, el ruido añadido se distribuye de manera normal.
3.MCMC
3.1 Metrópolis Hastings
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos sobre el área de pruebas no destructivas, en particular de su estudio y análisis sin necesidad de desarrollar actividades experimentales, es decir todos los datos obtenidos a través de simulaciones por computadora. Al ser un proyecto de investigación muy extenso, los algoritmos a utilizar aún se encuentran en la fase de desarrollo y no es posible mostrar los resultados obtenidos. Se espera que en un futuro el método provea de una herramienta eficiente y de fácil acceso para la detección de adelgazamientos y fisuras piezas metálicas de la industria automotriz.
Fernández Durán Oscar, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
Cristóbal Pérez Fermín, Universidad Michoacana de San Nicolás de Hidalgo. Fernández Durán Oscar, Universidad Michoacana de San Nicolás de Hidalgo. Hernández Martínez Braulio Ramses, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
PLANTEAMIENTO DEL PROBLEMA
Durante la pandemia provocada por la Covid-19 se normalizó el uso de cubrebocas debido a las medidas de seguridad que hay que seguir para evitar la propagación y contagio de dicha enfermedad. Los establecimientos y lugares donde exista mucho tránsito de personas y aglomeraciones implementaron el uso obligatorio de cubrebocas. Por lo que es muy importante que haya alguien o algo que verifique que todo aquel que circule por dicho espacio esté portando un cubrebocas.
En este punto es importante aclarar que a pesar de usar cubrebocas, este solo disminuye la posibilidad de contagio, pero no la elimina, entonces es correcto suponer que quien esté a cargo de revisar el uso de la mascarilla será expuesto a una probabilidad más grande de contagiarse de la enfermedad. Entonces, sería conveniente pensar en el desarrollo de un sistema automatizado que se encargue de hacer esta labor haciendo uso de las tecnologías actuales que se tengan disponibles, donde dicho sistema sea seguro y confiable.
METODOLOGÍA
El desarrollo científico desarrollado a lo largo de la estancia fue dividido en cuatro etapas principales, las cuales se mencionan a continuación, con una breve descripción de lo que se hizo en cada etapa.
Encontrar un algoritmo de redes neuronales funcional y ejecutarlo para ver que su funcionamiento fuera el que esperábamos.
Probar la eficiencia del algoritmo con un dataset diferente.
Entrenar el algoritmo con un dataset diferente.
Verificar la eficiencia de otro algoritmo con el mismo dataset y hacer la comparación de cada algoritmo.
Primeramente los alumnos investigadores Fermin, Ramses y Oscar se dieron a la tarea de buscar un algoritmo de redes neuronales que ya fuera funcional, con el objetivo de que cada quien probara su algoritmo correspondiente y se viera que tan eficiente era. Para este punto se utilizó el mismo dataset con el que venía el algoritmo, por lo que cada estudiante probó su algoritmo con un dataset diferente en esta primera parte.
Para la segunda parte de la investigación, cada alumno hizo la prueba de la eficiencia de su algoritmo pero ahora todos usamos el mismo dataset de prueba, lo que nos dio una muy buena idea de que tan eficientes eran los algoritmos con los que trabajó cada quien.
Para la tercera parte de las actividades se nos proporcionó un dataset con un cuerpo de 10,000 imágenes divididas en dos grupos; el primero donde se verifica el uso de mascarillas y el segundo donde no hay uso de cubrebocas. En los distintos algoritmos se modificaron los modelos con los que se reconocía el uso de cubrebocas y dando como resultado métricas para seguir con los pasos.
Por último se tuvo que hacer una prueba de cada algoritmo en igualdad de condiciones para revisar su desempeño comparado con el de los otros. Para así ver de mejor manera cuál se comporta de una forma más óptima y se acopla más a nuestras necesidades.
CONCLUSIONES
Al completar con la experimentación logramos notar la diferencia que existe entre los diferentes modelos, así como la importancia con la que se debe seleccionar un conjunto robusto de imágenes con las que entrenar nuestros modelos. De esta manera logramos obtener conocimientos en el entrenamiento para las tecnologías que implementamos durante la estancia.
Al comparar los diferentes algoritmos llegamos a los siguientes resultados; Usando las métricas de precisión,recuperación y F1.
precisión | recuperación | F1
Algoritmo1(default): %94.73 | %69.23 | %79.99
Algoritmo1(entrentado):%90.9 | %83.3 | %86.93
Algoritmo2(default): %99.1 | %76.26 | %86.15
Algoritmo2(entrenado): %85.49 | %83 | %84.22
Figueroa Rodríguez Ana Sofia, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
GRAFICACIóN DE POLINOMIOS EN 2D EN AMBIENTE VISUAL DE PYTHON.
GRAFICACIóN DE POLINOMIOS EN 2D EN AMBIENTE VISUAL DE PYTHON.
Figueroa Rodríguez Ana Sofia, Benemérita Universidad Autónoma de Puebla. Herrera Soto José Alberto, Universidad Autónoma de Sinaloa. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Es sabido que actualmente muchos cientificos o investigadores, grafícan de forma automática en Python usando diferentes paqueterias que este lenguaje de programación trae consigo. Nosotros nos dimos la tarea de graficar diferentes polinomios de una forma diferente, para de esta forma no depender tanto de estas paqueterias, que a veces puede mostrarnos gráficas que no son correctas o que no representan reealmente la realidad.
Con la asesoría del Dr. Moisés Cywiak Garbarcewicz comenzamos desde la instalación de las bliotecas que fueron necesarias para la implementación de nuestro proyecto hasta el desarrollo final del mismo.
METODOLOGÍA
Python es un lenguaje de programación de código abierto, fácil e intuitivo creado en 1989 por Guido Van Rossum. Actulmente es común encontrar aplicaciones y servicios que han sido programados mediante este lenguaje, además de que cada vez más científicos e ingenieros lo utilizan para desarrollar muchos de sus proyectos.
Por otra parte, Kivy es una biblioteca diseñada y desarrollada en Python, útil para la creación y desarrollo de aplicaciones, mismo que es compatible con diversos dispositivos como Computadoras (MacOSX, Windows, Linux), Celulares (Android iOS) y Tabletas en general. Kivy es una biblioteca estable y cuenta con una gran cantidad y variedad de herramientas, además de que es sencillo trabajar en conjunto con otras librerias.
Primero nos dimos la tarea de descargar diferentes librerias para el correcto funcionamiento del programa que realizamos, estas son
Docutils
Pyments
Pywin32
Para instalar las librerias sera necesario abrir la consola o CMD de windows y ubicar la siguiente dirección "../Python/scrips" una vez en esa ubicación usamos "pip" para instalar estas librerias un ejemplo de como hacer esto es:
pip install docutils (Esto debe ser escrito en el CMD para que este descarge e instale la libreria que necesites).
Lo anterior se debera repestir con cada libreria una vez estén instaladas, el siguiente paso a realizar es instalar kivy, para está instalación debera ser necesario seguir el orden en el cual estaran escritas a continuación:
pip install kivy_deps.sdl2
pip install kivy_deps.glew
pip install kivy_deps.gstreamer
pip install kivy_deps.angle
pip install kivy
La siguiente libreria es opcional:
6. pip install kivy_examples
Despues generaremos una nueva carpeta la cual se pueda identificar, en esta carpeta crearemos dos archivos uno con extención .kv y otro con .py, el que tenga la extención .kv contendra todo lo que sea visual o que permita interactuar con la aplicación donde se mostraran los polinomios, en el archivo .py pondremos las intrucciones que dictan como serán los polinomios.
Como preambúlo e introducción dibujamos en el programa algunas figuras tales como una estrella, un rectángulo y triángulo, de una manera más convencional y con mayor cantidad de instrucciones para la graficación de las mismas. A partir de esto, se buscó optimizar nuestros dibujos, con comandos sencillos de la biblioteca para concluir con un proyecto más avanzado.
Los primeros polinomios que dibujamos fueron un triángulo, uun rectángulo y por ultimo un pentágono, tambien agregaremos un boton para dibujar estas figuras y otro para borrarlas, por ultimo realizamos un poco de teoria para poder girar las figuras, estas estaran vinculadas a dos botones uno para girar a la derecha y otro a la izquierda. Creando una aplicación capaz de dar los comandos para hacer aparecer las figuras, girarlas, detenerlas y borrarlas.
CONCLUSIONES
Durante este verano cientifico fuimos capaces de desarrollar aun más nuestras habilidades de programación, las cuales nos serviran en el futuro, a parte de una mayor comprensión sobre la creación de polinomios y gráficas, lo cual es necesario para el desarrollo de las investigaciones como una interpretación de los datos que se obtienen en estas. Además de aprender como es que la computadora se comporta con el codigo que nosotros escribimos, refierindonos a como es que la aplicación se comunica con el CPU y el SO.
Finalmente podemos concluir que esta experiencia además de cumplir con sus objetivos nos deja la satisfacción del aprendizaje, mismo que es valioso entre la comunidad científica y nos ayudará en nuestro crecimiento profesional.
Flores González Ana Elizabeth, Universidad Autónoma de Zacatecas
Asesor:Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla
IMPLEMENTACIóN DE ALGORITMOS DE INTELIGENCIA ARTIFICIAL EN LENGUAJE DE COMPUTACIóN CUáNTICA
IMPLEMENTACIóN DE ALGORITMOS DE INTELIGENCIA ARTIFICIAL EN LENGUAJE DE COMPUTACIóN CUáNTICA
Flores González Ana Elizabeth, Universidad Autónoma de Zacatecas. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El desarrollo de los algoritmos de inteligencia artificial se ha aplicado a problemas varios en las últimas décadas. Estos han mostrado acelerar los procesos en diferentes escenarios y han sido implementados en varias plataformas como CPU’s, GPU’s, FPGA’s y ASIC’s. Sin embargo, cuando la escala de aplicación crece se enfrenta a problemas de memoria. Es aquí en donde la computación cuántica puede ser una solución que promete, al representar 2N estados con N bits cuánticos (qubits). Por lo que es inminente saber diseñar algoritmos de inteligencia artificial que puedan correr sobre circuitos cuánticos.
METODOLOGÍA
En éste trabajo se revisó el funcionamiento de las computadoras cuánticas y las redes neuronales clásicas, se realizó una comparación entre algoritmos cuánticos y clásicos haciendo uso de la literatura de la teoría del aprendizaje cuántico, y así mismo se obtuvo el flujo de trabajo general para una red neuronal cuántica.
CONCLUSIONES
Finalmente se realizó la implementación de una red neuronal cuántica que clasifica imágenes utilizando un subconjunto {3, 6} del conjunto de datos MNIST mediante el uso de IBM Qiskit para el diseño de circuitos cuánticos y Pytorch para el proceso de modelos de aprendizaje automático. Donde se observó que el marco de la implementación de redes neuronales en circuitos cuánticos está compuesto por tres componentes principales, que incluyen el preprocesamiento de datos, la aceleración del cálculo neuronal y el postprocesamiento de datos.
Flores Hernández Mario Arturo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Pablo Paniagua López, Instituto Politécnico Nacional
TEORíA DE CHERN-SIMONS PARA CAMPOS DE NORMA ABELIANOS EN EL FORMALISMO DE FORMAS DIFERENCIALES
TEORíA DE CHERN-SIMONS PARA CAMPOS DE NORMA ABELIANOS EN EL FORMALISMO DE FORMAS DIFERENCIALES
Flores Hernández Mario Arturo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Pablo Paniagua López, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Con base en los intereses del estudiante, sus conocimientos previos y las diferentes líneas de investigación establecidas en el programa, se decidió cuál sería el mejor tema para que el alumno trabajara durante el verano. Se decidió que el tema a trabajar sería la teoría de Chern-Simons la cual contiene elementos matemáticos y físicos que son nuevos para el estudiante y que serán desarrollados a lo largo de este verano de investigación. Algunos de los temas planteados son: las formas diferenciables, la teoría de de Rham, haces vectoriales, grupos de Lie y teorías de norma.
METODOLOGÍA
Leer y discutir literatura especializada, realización de ejemplo y ejercicios de tarea. Como principal fuente se utilizó el libro:
Baez, J. C., & Muniain, J. P. (1994). Gauge fields, knots and gravity (Vol. 4). World Scientific Publishing Company
Y como fuentes complementarias las referencias:
Nakahara, M. (2003). Geometry, topology and physics. CRC press.
Atiyah, M., Atiyah, M. F., & Michael, A. (1990). The geometry and physics of knots. Cambridge University Press.
Moore, G. W. (2019). Introduction to chern-simons theories. Available on the internet.
Flanders, H. (1963). Differential forms with applications to the physical sciences by harley flanders. Elsevier.
Basándose en el orden establecido por el contenido del libro 1. el alumno revisó por su cuenta los temas selectos y necesarios para introducir la teoría de Chern- Simons. Algunos te estos temas fueron:
Variedad diferencial
Campo Vectorial
Formas diferenciales
Operador estrella de Hodge
Ecuaciones de Maxwell en el formalismo de formas diferenciales
Teoría de de Rham en electromagnetismo
Grupos de Lie
Haces fibrados
Ecuaciones de Yang-Mills
Una vez revisados los temas, el estudiante consultaba sus dudas con el asesor del programa delfín en las sesiones a largo del verano. También, en estas reuniones se profundizaba más en los temas o se le daba recomendaciones al alumno sobre cómo abordar los temas siguientes. Esto hasta llegar al tema de la teoría de Chern-Simmons en la bibliografía 1.
CONCLUSIONES
La teoría de Chern-Simons es una teoría topológica cuántica de campos que reúne varias áreas de la física y de las matemáticas tales como el formalismo de formas diferenciales, la teoría de cohomología de de Rham, teoría de haces fibrados con conexiones y las teorías de norma. La importancia de la teoría de Chern-Simons es que nos permite describir importantes fenómenos físicos tales como el efecto Hall cuántico. Desde el punto de vista de las matemáticas la teoría de Chern-Simons permite la introducción de importantes invariantes topológicos de nudos.
Por otro lado, el estudiante no solo se introdujo a la teoría de Chern-Simons, si no que adquirió nuevos conocimientos en física y matemáticas que le servirán a lo largo de su carrera académica. Además, el alumno se interesó en un área de la física que era desconocida para él, ayudándolo a decidir sobre sus intereses en sus estudios de posgrado.
Flores Macías Antonio, Universidad de Guadalajara
Asesor:Dr. José Trinidad Ulloa Ibarra, Universidad Autónoma de Nayarit
DISEñO DE APRENDIZAJE
DISEñO DE APRENDIZAJE
Aguirre Cholico Eduardo Ramiro, Universidad de Guadalajara. Flores Macías Antonio, Universidad de Guadalajara. Asesor: Dr. José Trinidad Ulloa Ibarra, Universidad Autónoma de Nayarit
PLANTEAMIENTO DEL PROBLEMA
¿Quién no ha escuchado alguna vez la frase: otro día más sin usar el mínimo común múltiplo (u otra frase que haga alusión a algún conocimiento matemático)? Es una realidad que uno de los principales problemas que existen en la enseñanza de las matemáticas es la incapacidad de ver la relación que tiene su aprendizaje con respecto a su uso en la vida cotidiana.
Los modelos de aprendizaje para la matemática llevan años sin ser cuestionados poniendo en evidencia que pareciera de mayor importancia para los alumnos el memorizar datos para pasar un examen dejando de lado la gran importancia que es el comprender el uso que le pueden dar a la misma. Además, por si fuera poco, la pandemia a causa del COVID-19 ha dejado a muchos estudiantes sin el apoyo que brindaba tener a su maestro a un lado para exponer sus dudas, es por eso, que se necesitan crear modelos de aprendizaje que sean respuesta a la diversidad, considerando que todos los estudiantes independientes de sus características personales debe tener las mismas oportunidades para aprender, planteando un cambio de paradigma respecto al derecho que cada individuo tiene para participar y progresar en la escuela, minimizando las barreras para el aprendizaje existentes en los curriculums tradicionales.
Es por eso que, con el apoyo de simuladores por parte de PhET Interactive Simulations (https://phet.colorado.edu/es/) pretendemos crear modelos que permitan integrar de manera eficaz lo antes mencionado, donde el alumno tenga el crecimiento personal y académico que merece, buscando que en un futuro las frases comiencen con un: un día más usando….
METODOLOGÍA
Se planea hacer un diseño universal para el aprendizaje de temas relacionados con matemáticas, cuyo objetivo primordial es dar respuesta educativa a la diversidad presente en el aula.
Para diseñar este modelo se planea utilizar el método de aprendizaje basado en problemas (ABP). Es un método de enseñanza-aprendizaje centrado en el estudiante en el que éste adquiere conocimientos, habilidades y actitudes a través de
situaciones reales. Su finalidad es formar estudiantes capaces de analizar y enfrentarse a los problemas tangibles.
Se utilizaran simuladores que recrean situaciones reales, dando otro enfoque al análisis de un problema matemático. Tambien se van a utilizar sensores para recolectar datos y poder hacer comparaciones con los datos obtenidos mediante la simulación y con el modelo creado mediante el proceso matemático.
A partir de los simuladores, se hace el diseño de aprendizaje, en el cual se comienza con la descripción del simulador para que este pueda ser manipulado de manera eficiente. Luego se busca recolectar datos del mismo, para después comenzar a hacer uso de la matemática y poder inferir sobre los mismos, esto con el objetivo de evidenciar la utilidad que tienen las matemáticas en el día a día.
CONCLUSIONES
A partir del diseño de aprendizaje propuesto en la metodología, se pondrá en práctica con alumnos del nivel educativo correspondiente. En nuestro caso serán alumnos de nivel preparatoria, para los cuales se tiene preparado una actividad que implica el uso de un simulador para calcular el pH existente en una solución y como este varia con respecto al ir añadiendo agua, esto con la finalidad de logar una aproximación de modelo lógistico. De ser posible, se tiene la intención de llevar la investigación a su máxima instancia para poder concluir en la publicación de un artículo en una revista, en el cual podamos exponer los resultados y conclusiones al respecto.
Flores Pon Jose Luis, Universidad Autónoma de Chiapas
Asesor:Dra. Susana Alvarez Garcia, Universidad de Sonora
ESPECTROSCOPíA RAMAN DE MATERIALES 2D: EVOLUCIóN DEL ESPECTRO RAMAN DEL GRAFENO EXPUESTO A UN LáSER CONTINUO Y UN LáSER DE PULSOS ULTRACORTOS.
ESPECTROSCOPíA RAMAN DE MATERIALES 2D: EVOLUCIóN DEL ESPECTRO RAMAN DEL GRAFENO EXPUESTO A UN LáSER CONTINUO Y UN LáSER DE PULSOS ULTRACORTOS.
Flores Pon Jose Luis, Universidad Autónoma de Chiapas. Asesor: Dra. Susana Alvarez Garcia, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
La espectroscopia Raman es una técnica fotónica de alta resolución no-destructiva basada en el análisis de la luz esparcida por un material al incidir sobre él un haz de luz monocromático. Esta técnica proporciona información química y estructural de casi cualquier material o compuesto orgánico o inorgánico permitiendo así su identificación detallada, específicamente la estructura química del material, cristalinidad, interacciones moleculares, etc.
La espectroscopia Raman actualmente tiene usos importantes en el análisis y caracterización de la estructura cristalina y las propiedades electrónicas, ópticas y fonónicas de distintos materiales tipo grafeno y de esa manera contibuye en la elaboración de nueva tecnología electrónica a base de grafeno. El desarrollo de dispositivos basados en grafeno fabricados mediante técnicas asistidas por láser ha sido crucial para diversas aplicaciones como micro -supercondensadores (MSC), sensores de gas, transistores de efecto campo (FET), celdas fotovoltaicas, etc.
Como una introducción en esta amplia área de conocimiento durante el verano de investigación sé estudió la evolución del grafeno expuesto a un láser continuo y un láser de pulsos ultracortos mediante espectroscopía Raman.
METODOLOGÍA
El sistema experimental está compuesto por un láser continuo (longitud de onda 473 nm, potencia 20 mW) para la excitación Raman (modelo Excelsior One, Fabricante Spectral Physics), un láser Titanio:Zafiro de pulsos ultracortos entorno a 70 fs y frecuencia de repetición 80 MHz, longitud de onda 800 nm y potencia promedio 100 mW (MaiTai, Spectral Physics), un monocromador con rendija de dispersión 1200 gr/mm y rendija de entrada 100 nm (iHR5550, Horiba), un detector CCD (Synapse, Horiba) y un microscopio AFM-Raman con objetivo x100, apertura numérica 0.70 (NTEGRA Spectra II, NT-MDT). Todo el sistema experimental se encuentra sobre una mesa ópticaa antivibracionescon múltiples expejos, filtros y lentes que permiten dirigir los haces láser
Se realizaron diversas mediciones de la evolución temporal del espectros Raman durante 600 s sobre diferentes posiciones de una muestra comercial de grafeno (crecida mediante depósito de vapor químico) irradiando con el láser pulsado y el láser continuo simultáneamente, y únicamente con el láser continuo. En ambos casos se realizaron dos mediciones con el monocromador centrado en 1785 y 2900 cm-1 para cubrir el espectro Raman completo del grafeno.
Empleando el software Labspec 6.0 (Horiba) se realizó la corrección de los espectros Raman y su deconvolución en las diferentes bandas Raman del grafeno: bandas D, G, D ́ y 2D centradas en torno a 1350, 1785, 1605 y 2700 cm-1. De cada banda Raman se obtuvo la anchura, posición e intensidad. Todos los datos fueron exportados para su posterior análisis en el software Gnuplot, donde se graficó la evolución temporal de los parámetros de las bandas Raman del grafeno.
Los resultados muestran que para el caso de exposición sólo al láser continuo, la anchura de la banda G y 2D aumentan ligeramente y su posición e intensidad disminuyen, y la banda D (asociada a defectos) no aparece. Para el caso de exposición simultánea al láser pulsado y al continuo, los cambios en los parámetros de las bandas Raman son mucho más pronunciados, destacando el aumento de la banda D, y la fuerte disminución de las bandas G y 2D, pero sin llegar a desaparecer. Además, posición central de las bandas se desplaza hacia frecuencias menores. Éstos cambios son indicativos de diferentes modificaciones que sufre el grafeno tales como: formación de defectos puntuales y/o lineales, dopaje tipo p o tipo n, tensiones mecánicas, etc. Sin embargo, para su interpretación correcta es necesario conocer en profundidad la bibliografía relacionada, lo cual está fuera del alcance de esta estancia
CONCLUSIONES
Durante la estancia de verano se logró aprender sobre cómo desarrollar, manejar y analizar los resultados de un experimento Raman, igualmente se adquirieron conocimientos sobre cómo utilizar la espectroscopia Raman para analizar muestras de grafeno como un ejemplo de material 2D, el cual juega un papel crucial para el desarrollo de la tecnología electrónica del futuro. Además en la estancia se estudió acerca de los diversos métodos de procesamiento láser de materiales 2D, como escritura láser directa, reducción, dopaje, PTE, adelgazamiento, oxidación y creación de defectos. Aunque aún queda mucho por aprender acerca de la espectroscopia Raman y procesamientos láser de materiales 2D, esta estancia fue útil para iniciar en esta área de conocimiento y así poder trabajar en ella de una manera más especializada en un futuro.
Fonseca Rico Gina Katherine, Universidad Antonio Nariño
Asesor:Dra. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas
DISCURSO DEL DOCENTE EN áLGEBRA GEOMéTRICA: DE LA FACTORIZACIóN POLINóMICA A TRAVéS DEL APRENDIZAJE BASADO EN EL JUEGO DIRIGIDA A ESTUDIANTES DE GRADO OCTAVO
DISCURSO DEL DOCENTE EN áLGEBRA GEOMéTRICA: DE LA FACTORIZACIóN POLINóMICA A TRAVéS DEL APRENDIZAJE BASADO EN EL JUEGO DIRIGIDA A ESTUDIANTES DE GRADO OCTAVO
Fonseca Rico Gina Katherine, Universidad Antonio Nariño. López Pinzón William Alberto, Universidad Antonio Nariño. Asesor: Dra. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La investigación que presentamos centra su atención en el papel de la explicación en el salón de clases y discute la importancia que desempeña en el entendimiento de la factorización polinómica por parte de los estudiantes.
Si bien la participación de los alumnos en las clases de ciencias correspondientes a la educación básica ha sido tratada por Candela (1991, 1999); que la asimetría entre el papel de la explicación didáctica y la científica en la clase de matemáticas (la cual conduce a un desequilibrio entre el estatus no científico de las explicaciones didácticas) ha sido desarrollada por (Sierpinska, 1994), y que ya ha sido abordada la cuestión de la explicación en la enseñanza de las matemáticas dentro de los ciclos de la educación obligatoria (Mopondi, 1995; Josse, E. & Robert, A. 1993), en este trabajo el énfasis se ha puesto en varios planos diferenciados.
Se realiza un análisis del discurso del maestro en el aula, como una herramienta poderosa en cerrar la brecha entre la transición de la aritmética al álgebra.
METODOLOGÍA
La estrategia cualitativa considerada fue la etnografía virtual que permite nuevas relaciones, hábitos, prácticas e interacciones sociales, que no escapan al interés de las prácticas pedagógicas que acuden los docentes para hacer llegar su discurso como un valioso método que permite incorporar nuevos e importantes aportes al proceso de enseñanza-aprendizaje en medio de la pandemia que estamos viviendo.
El trabajo de campo nos llevó a cubrir varias etapas: observación de grabaciones de la situación de campo, análisis, descripción de interpretaciones de resultados, síntesis e interpretación global, integración de productos de investigación y redacción del informe.
CONCLUSIONES
El docente trabaja un discurso que invita al acercamiento de la factorización polinómica por procesos dialógicos, que invitan a un compartir del trabajo logrado, hasta llegar a una socialización de ideas que permitan lograr una puesta en común, facilitando el proceso de aprendizaje por el discurso entre los estudiantes.
La explicación se realiza de manera didáctica y creativa debido a que por la pandemia las clases se deben realizar de manera remota, utilizando ejemplos en contexto obteniendo un aprendizaje significativo. Evidenciando que en la virtualidad se requiere más trabajo de acompañamiento para atender las debilidades en el proceso de aprendizaje.
La labor del profesor de matemáticas es fundamental para desarrollar entre sus estudiantes el interés por el conocimiento, para favorecer el desarrollo de su propio pensamiento matemático y para coadyuvar al crecimiento del saber. Su trabajo normalmente se lleva a cabo de muchas maneras: al preparar sus clases, al decidir sobre los mecanismos de evaluación de los aprendizajes, al dictar su cátedra y al seguir, de alguna manera, la evolución de cada uno de sus estudiantes.
Fortis Hernández Sabina Zoé, Universidad Veracruzana
Asesor:Mg. Diana Suarez Lopez, Corporación Universitaria Americana
AUTOMATIZACIóN DE INDICADORES DE ARTíCULOS CIENTíFICOS
AUTOMATIZACIóN DE INDICADORES DE ARTíCULOS CIENTíFICOS
Fortis Hernández Sabina Zoé, Universidad Veracruzana. Asesor: Mg. Diana Suarez Lopez, Corporación Universitaria Americana
PLANTEAMIENTO DEL PROBLEMA
La extracción de metadatos es un proceso en el que se necesita tiempo para poder ejecutarse, en el caso de que esto sea manualmente existe el riesgo de haber errores humanos. Dichos errores se pueden solucionar con el uso de otros programas automatizados para la realización de estas extracciones. Los metadatos son información, la cual describe y da contexto a los datos, para que se puedan entender mejor
La extracción de metadatos se encarga de sacar los atributos o etiquetas por los que se identifica a cada documento. Los metadatos sirven para la búsqueda, recuperación, autenticación y evaluación de un recurso dentro de una biblioteca digital.
Algunas soluciones a estos problemas que ocurren a la hora de extraer los metadatos han sido aplicaciones o programas, los cuales se pueden utilizar desde la web o ser descargados. La extracción de metadatos tiene como objetivo procesar los documentos científicos para extraer sus metadatos. Los metadatos obtenidos en este proceso son el título, los autores, las afiliaciones de cada autor, el resumen y las palabras claves, pertenecientes a la portada de los documentos científicos (metadatos bibliográficos).
La extracción de metadatos manualmente puede ser muy costoso en cuanto al tiempo, por este motivo se realizan aplicaciones, para poder automatizar este proceso.
Los metadatos se caracterizan por:
Ser datos altamente estructurados que describen características de los datos, como el contenido, calidad, información y otras circunstancias o atributos.
Presentan diferenciaciones que dependerán, en última instancia, de las reglas incluidas en las aplicaciones para determinar la estructura interna de los esquemas de datos.
Pueden clasificarse en función de distintos criterios, como su contenido, variabilidad o función.
El problema con estas aplicaciones es que no siempre encuentra todos los metadatos requeridos, y estos deben ser buscados de forma manual, lo cual retarda el tiempo de trabajo, siento poco eficaz cuando la idea principal es obtener todos los metadatos, por lo que en esta investigación se busca dar solución a este problema, así pudiendo extraer los metadatos de forma automatizada.
La automatización de los metadatos es el procedimiento automático (en este caso sería el programa o sistema a realizar para la obtención de los metadatos) que se hace en un proceso para llevar a cabo una tarea, de la extracción de los metadatos.
METODOLOGÍA
Se busca la automatización de los metadatos, esto es el procedimiento automático (en este caso sería el programa o sistema a realizar para la obtención de los metadatos) que se hace en un proceso para llevar a cabo una tarea, de la extracción de los metadatos.
La idea es crear un sistema o estructurar y normalizar metadatos de documentos; esto se busca mediante dos pasos o tipos de estructura: una busca estructurar los metadatos y especificar los criterios para gestión; y la segunda mapear metadatos, de tal forma que sean de una compresión fácil para el programa que se diseñe, y que con este se establezcan equivalencias o comparaciones con otros conjuntos de metadatos.
El programa se debe encargar de percibir los nuevos documentos como una entidad, la cual comparte datos, por lo tanto, forma parte de él, y utiliza algunos de sus metadatos como comparativa con metadatos propios y de futuros documentos para poder conseguir autenticidad.
Este sistema se basa en tener un gran número de metadatos normalizados para buscar en nuevos documentos metadatos, los cuales sean semejantes, con eso implementado, debe de poder extraer la mayor cantidad de información de nuevos documentos de forma automática.
Este programa de automatización, debe recoger por defecto una serie de metadatos, que dependerá del software que sea diseñado.
Lo primero que se debe hacer es definir los grupos en los que estarán conformados los metadatos que se necesiten. Es decir, los conjuntos de datos que se van a querer conocer sobre cada uno de los tipos de documentos que forman parte del sistema de gestión documental.
Con los siguientes conceptos se pueden entender las principales funciones de los metadatos:
Recuperar la información: Los metadatos permiten recuperar y filtrar la información por criterios más variados que la clasificación y el título del documento.
Automatizar procesos: Gracias a los metadatos, puedes automatizar procesos como la captura de datos, el análisis de datos masivos, etc.
Luego de tener ya establecidos los grupos de metadatos que se requieren se deben construir ficheros con la definición de tipo de documento, y dependiendo el software que se utilizará se deberá definir la estructura y sintaxis, esto para poder indicarlo previamente al fichero a utilizar, y así poder empezar a nombrar los grupos de metadatos.
Estos grupos de metadatos serán los normalizados, como fueron anteriormente mencionados, para la búsqueda de estos mismos, arrojando automáticamente los resultados.
CONCLUSIONES
En este verano de investigación se pudieron adquirir conocimientos sobre los metadatos en artículos científicos, identificar sus partes, así como los datos que conforman estos metadatos. Esta investigación fue algo difícil ya que no se encontraba mucha información de temas específicos, y eso alentó y dificultó el trabajo, ya que, la información también es técnica, lo cual dificultó el lenguaje, pero ayudó a poder entender nuevos conceptos sobre este tema.
Esta investigación, aunque no llegó a su punto final por la extensión de la misma, ayudó para poder plantear una solución a estos problemas que ocurren al extraer los metadatos.
Franco Escudero Emily Andrea, Universidad Autónoma de Chiapas
Asesor:Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
ALGORITMOS CUáNTICOS: AUTóMATAS FINITOS Y SIMULACIóN DE SISTEMAS FíSICOS CUáNTICOS
ALGORITMOS CUáNTICOS: AUTóMATAS FINITOS Y SIMULACIóN DE SISTEMAS FíSICOS CUáNTICOS
Franco Escudero Emily Andrea, Universidad Autónoma de Chiapas. Martinez Vargas Zaira Carolina, Universidad de Guadalajara. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La computación cuántica es una de las áreas de mayor interés en la actualidad, esta relaciona la informática y la mecánica cuántica, y busca producir algoritmos con características propias de esta última. Las computadoras cuánticas aprovechan fenómenos de los sistemas físicos cuánticos como: la superposición, el entrelazamiento, la inferencia, entre otras propiedades con la finalidad de realizar tareas y construir algoritmos que no se pueden implementar en computadores clásicos. Brevemente, se puede afirmar que la superposición se debe a que mientras la unidad fundamental de las computadoras clásicas es el bit y sólo puede tomar los valores de 0 o 1, en las computadoras cuánticas la unidad fundamental es el cúbit, que puede tomar valores de 0, 1 o una combinación de estos, teniendo más elementos de un conjunto de estados. El entrelazamiento corresponde a una fuerte correlación entre cúbits que se origina por alguna interacción, modificando las probabilidades en el resultado de una medición. Uno de los algoritmos que ha demostrado algún tipo de ventaja en la computación cuántica, es el algoritmo de Grover, que hace una búsqueda en datos no ordenados en un número menor de pasos en comparación a un algoritmo clásico de búsqueda que puede realizar hasta N iteraciones para encontrar un objetivo, el algoritmo de Grover reduce este número hasta N.
Además, el computador cuántico puede ser usado naturalmente en la simulación de sistemas físicos cuánticos , en el aprendizaje automático, en simulaciones y en optimización de viajes y transporte, logística, servicios financieros, etc. También se tienen los errores cuánticos que trasladan el problema de la complejidad en el cómputo a un problema de la medida del resultado del mismo por lo que se debe proteger los estados iniciales de posibles errores cuánticos, para llegar a la corrección de errores empezamos definiendo y aplicando los autómatas finitos cuánticos, los cuales nos ayudaran a discriminar el ruido en las mediciones.
Por esta razón, es que se decidió estudiar este cambio tecnológico en dos problemas: la simulación de una partícula en un potencial sin interacción y los autómatas finitos para un lenguaje de dos letras.
METODOLOGÍA
Esta investigación es de naturaleza pura, en la cual se involucra la verificación teórica de algunos elementos y nociones de la mecánica cuántica, por medio de algoritmos que operan según sus reglas. Se desarrolla desde un enfoque cuantitativo, buscando implementar algoritmos cuánticos usando lenguajes de programación que se pueden implementar en tecnologías cuánticas, tales como el computador cuántico de IBM y AZURE de Microsoft. El alcance de la investigación es exploratorio puesto que se apropian técnicas y algoritmos novedosos que usualmente no se estudian en pregrado.
A continuación se presenta la metodología orientada a cumplir con cada uno de los objetivos:
1) revisión de los postulados de la mecánica cuántica siguiendo textos clásicos como Nielsen & Chuang (2002) y Griffiths (2018);
2) implementación de algoritmos cuánticos: autómatas finitos y simulación de sistemas físicos;
3) verificación del funcionamiento de los algoritmos y comparaciones.
CONCLUSIONES
En cuanto a la solución de la ecuación de Schrödinger para una partícula libre, se logró implementar la última parte del código que consistió en aplicar la transformada de Fourier para un número arbitrario de qubits. Asimismo, para la medición de un autómata QFA (Autómata Cuántico Finito por sus siglas en inglés), se logró probar que existe un QFA unidireccional que reconoce el lenguaje ab, lo cual direcciona este trabajo hacia la construcción de autómatas con lenguajes de más de dos letras.
Frieri Bustos Mauricio, Pontificia Universidad Javeriana
Asesor:Dr. Daniel Pellicer Covarrubias, Universidad Nacional Autónoma de México
POLITOPOS QUIRALES DE RANGO 4 CON LOS VéRTICES DE 4-POLITOPOS REGULARES
POLITOPOS QUIRALES DE RANGO 4 CON LOS VéRTICES DE 4-POLITOPOS REGULARES
Frieri Bustos Mauricio, Pontificia Universidad Javeriana. Asesor: Dr. Daniel Pellicer Covarrubias, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El objetivo de la investigación fue estudiar la existencia de politopos quirales de rango completo cuyos vértices son los vértices de un 4-politopo convexo regular.
METODOLOGÍA
En las primeras dos semansa se hizo una revisión bibliográfica para entender el problema y para decidir qué estrategia utilizar. Se optó por hacer unas búsqueda exhaustiva para cada uno de los politopos regulares y todas sus posibles figuras de vértice, ayudandose del software GAP.
CONCLUSIONES
A continuación se listan el número de politopos quirales encontrados segun cada caso:
4 en los vértices del 4-cubo.
20 en los vértices del 120-celda, de los cuales:
4 con figura de vértice icosaedro.
4 con figura de vértice gran icosaedro.
4 con figura de vértice tetraedro.
4 más con figura de vértice dodecaedro.
4 con figura de vértice gran dodecaedro estrellado.
En total 24.
En el tiempo restante de la estancia se trabajó para visualizar uno de los politopos encontrados.
Fuentes Mirón Víctor Manuel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
ESTUDIO DE LAS PROPIEDADES ÓPTICAS DE HETEROESTRUCTURAS BASADAS EN SISTEMAS BICAPA DE GRAFENO ROTADO (TBG)
ESTUDIO DE LAS PROPIEDADES ÓPTICAS DE HETEROESTRUCTURAS BASADAS EN SISTEMAS BICAPA DE GRAFENO ROTADO (TBG)
Fuentes Mirón Víctor Manuel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
El grafeno es un material compuesto por carbono puro y está construido con una estructura parecida a un panal de abeja, es uno de los materiales bidimensionales más estudiados por sus interesantes propiedades físicas. Es un material casi transparente, donde una lámina de grafeno es de un átomo de espesor, y es unas 200 veces más resistente que el acero, siendo su densidad similar a la de la fibra de carbono, y es unas cinco veces más ligero que el aluminio. Un sistema formado por dos capas de grafeno, llamado bicapa de grafeno, tiene propiedades electrónicas y ópticas diferentes a la monocapa, haciendo necesario su estudio de forma más profunda. Las propiedades electrónicas y ópticas de la bicapa de grafeno dependen del ángulo de rotación entre ellas (TBG por sus siglas en ingles), al grado que para un ángulo cercano a 1.45°, la bicapa presenta estado superconductor. Son estas propiedades que hacen interesante su estudio.
En este trabajo estudiamos los espectros de transmisión, reflexión y absorción de un sistema multicapas de TBG inmersas en un medio dieléctrico.
METODOLOGÍA
Se implemento el método de matriz de transferencia tipo Pochi Yeh para el cálculo de los espectros de transmisión, reflexión y absorción del sistema; además se usó la conductividad de la TBG a través de condiciones a la frontera y no como un medio dieléctrico.
Para lograr lo anterior realizamos el siguiente procedimiento. Inicialmente se implementó un código en el lenguaje de programación Python para hallar la respuesta óptica (transmisión, reflexión y absorción) de un haz de luz incidente a cierto ángulo sobre la interface entre dos medios con índices de refracción determinados. Se desarrolló para los casos en los que el haz fuese transversal eléctrico y transversal magnético. Adicionalmente, se desarrolló el código para el caso en que como interfaz se encuentran las bicapas de grafeno rotado a diferentes ángulos en el cual se hizo uso de la matriz G (que indica la respuesta a través de la bicapa de grafeno dependiente de la conductividad en ella). Para hacer uso de este método fue necesario la consulta de artículos que proveían los datos necesarios sobre la parte real de la conductividad en la bicapa, y se obtuvo la parte imaginaria por medio de las relaciones de Kramers-Kronig. Para lograr esto último, digitalizamos la parte real de la conductividad usando el programa WebPlotDigitizer, posteriormente implementamos la transformada de Hilbert para este fin.
CONCLUSIONES
La respuesta óptica de la bicapa de grafeno rotada depende fuertemente del ángulo de rotación de la bicapa, el número de estas, así como el ángulo de incidencia del haz de luz y del índice de refracción del medio dieléctrico que rodea a las bicapas de grafeno.
Galarza Ballesteros Sergio de Jesus, Universidad Autónoma de Sinaloa
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE RESONANCIAS CON ALICE-LHC DEL CERN
ESTUDIO DE RESONANCIAS CON ALICE-LHC DEL CERN
Galarza Ballesteros Sergio de Jesus, Universidad Autónoma de Sinaloa. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La física de partículas es un campo extenso practicado en casi todo el mundo, utilizando diferentes experimentos para hacer descubrimientos a escala subatómica y entender el funcionamiento del universo, uno de los más famosos experimentos se lleva a cabo en el CERN junto con su acelerador de partículas llamado Large Hadron Collider (LHC).
Este acelerador incluye diferentes experimentos (detectores), enfocándonos en el experimento ALICE para el análisis de eventos de colisiones utilizando el software llamado root.
METODOLOGÍA
Manejamos un archivo .root, en el cual contiene un árbol con sus diferentes rama con sus respectivos datos, usamos las ramas de nMuons y Pcov, para hacer el siguiente análisis:
nMuons > 0
nMuons >0 y nMuons < 100
nMuons > 0 y Pcov <100
nMuons > 0 y Pcov < 200
Finalizando este análisis, calculamos el momento promedio (mean Pcov) cuando nMuons = 1, 2, 3, ..., i + 1, graficando los resultados en un grafica con el eje Y que sería momento promedio y en el eje X el número de muones.
CONCLUSIONES
Este verano he adquirido conocimiento sobre el manejo del software root en linux, además del entendimiento de extraer datos de un archivo .txt o .root, graficas, histogramas y árboles, estos análisis aún no han finalizado pero se espera que con estos procedimiento se podría utilizar para eventos de colisión.
Galindo Hernández Maximiliano de Jesús, Universidad Autónoma de Zacatecas
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE MONTE CARLO DE CHUBASCOS ATMOSFéRICOS CON QGSJET-II-04
ESTUDIO DE MONTE CARLO DE CHUBASCOS ATMOSFéRICOS CON QGSJET-II-04
Galindo Hernández Maximiliano de Jesús, Universidad Autónoma de Zacatecas. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los rayos cósmicos son núcleos de elementos químicos ligeros y pesados y partículas como protones, electrones, neutrones, rayos gamma y antimateria que viajan por todo el universo. Su espectro de energía se encuentra en lo que se considera altas energías. Aquí se analiza un efecto que es causado por estos rayos cósmicos que llegan a la atmosfera de la tierra utilizando el método de Monte Carlo.
METODOLOGÍA
Se instaló el programa root para análisis de datos utilizado en el CERN. Después se aprendió el lenguaje de programación que este utiliza (C++). Se aprendió a realizar gráficas, leer datos y graficarlos, hacer un histograma con ellos y así facilitar el análisis de estos datos. Se aprendió el concepto de árbol de datos, ramas y hojas, aprendimos a escribir árboles, a leerlos y hacer gráficas e histogramas con sus datos.
Después de familiarizarnos con estos conceptos y llevarlos a la práctica comenzamos la tarea de analizar un archivo que tenía escrito los resultados de un experimento, en este archivo se encontraba el árbol fDatree que tenía dos ramas que eran de nuestro interés "nMuons" y "Pcov". Posteriormente hicimos un programa que leyera estas dos ramas e hicimos un histograma para los siguientes casos:
1.- nMuons>0
2.- nMuons>0 y nMuons<100
3.- nMuons>0 y Pcov<100
3.- nMuons>0 y Pcov<200
CONCLUSIONES
Las conclusiones están por determinarse.
Gámez Campos Laura Aracelí, Universidad Autónoma de Coahuila
Asesor:Dra. Emma Vianey García Ramirez, Benemérita Universidad Autónoma de Puebla
REPRODUCCIóN NUMéRICA DE CURVAS DE BARRIDO EN Z PARA SISTEMAS AU-AL2O3
REPRODUCCIóN NUMéRICA DE CURVAS DE BARRIDO EN Z PARA SISTEMAS AU-AL2O3
Gámez Campos Laura Aracelí, Universidad Autónoma de Coahuila. Asesor: Dra. Emma Vianey García Ramirez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La óptica no lineal es una rama de la óptica que estudia fenómenos generados por la interacción de la materia con luz de alta intensidad.
Para explicar la óptica no lineal, se debe de estudiar la polarización no lineal. La polarización se puede expresar como
Los números entre paréntesis se conocen como el orden de las cantidades.
Considerando un material que solo presenta polarización de tercer orden, se puede determinar el índice de refracción no lineal a partir de la susceptibilidad de tercer orden.
El índice de refracción se puede calcular por la ecuación
Donde n0 es el índice de refracción lineal, n2 el índice de refracción no lineal, e I la irradiancia.
En el artículo Sensitive Measurement of Optical Nonliarities Using a Single Beam (Sheik-Bahae, 1990) se describe una técnica para obtener el índice de refracción no lineal y se aborda la teoría detrás de esta técnica.
La técnica de barrido en Z consiste en que utilizando un haz gaussiano en una geometría de enfoque pequeño. Se mide la transmitancia de un medio no lineal a través de una apertura finita en el campo lejano en función de la posición de la muestra en z medida respecto al plano focal. El barrido en Z se completa cuando la muestra es colocada lejos del foco (en z positiva) tal que la transmitancia se vuelva lineal y la irradiancia sea baja.
Cuando el índice de refracción no lineal es negativo se obtiene una transmitancia pre focal máxima (pico) y una transmitancia post focal mínima (valle), cuando el índice de refracción es positivo se obtiene el mínimo en la pre focal y el máximo en la post focal.
El trabajo consistió en la reproducción numérica de curvas de barrido en Z para sistemas Au-Al2O3 con el objetivo de la obtención del índice de refracción no lineal de dichas muestras. Todo el trabajo se realizó desarrollando las expresiones mencionadas en el artículo de Sheik-bahae.
METODOLOGÍA
Se realizaron tres programas en Python. En el primer programa se graficó la intensidad del haz para una posición en z fija, así como también se graficó el perfil de intensidad normalizado.
En el segundo programa se reprodujeron las curvas de la transmitancia normalizada mostradas en el artículo.
En el tercer programa se graficaron datos de CS2 y nanovarillas de Au-Al2O3 obtenidos experimentalmente y se realizó un ajuste numérico para determinar el índice de refracción no lineal.
CONCLUSIONES
Del primero programa se obtuvieron las gráficas de la intensidad para una posición en z fija y su respectivo perfil de intensidad (Figura 1). Las posiciones fijas fueron z=0, z=z0 y z=2z0 para las figuras 1.1, 1.2 y 1.3 respectivamente.
Figura 1. Gráficas obtenidas del primer programa
De la Figura 1 se puede observar que el tamaño del spot es más grande conforme aumenta la distancia en Z pero la intensidad es mayor en el spot más pequeño.
Del segundo programa se obtuvo la reproducción de la Figura 2 del artículo. Para esta gráfica (Figura2) se consideró un cambio de fase ΔΦ0 = ± 0.25, el coeficiente de absorción α=0, una longitud de onda λ = 532 nm, y un ancho de cintura w0 = 35 µm.
Figura 2. Gráfica obtenida del segundo programa
Para graficar la transmitancia se hizo uno de los datos obtenidos de la refracción experimentalmente.
Para realizar el ajuste de la muestra de CS2 se modificaron algunos parámetros a α= 1 x 10-4 1/cm, λ = 514 nm, I0=3.191 x 108 W/cm2, L = 1 mm. Se obtuvo el ajuste con ΔΦ0 = 1.30, a partir de este valor se calculó el índice de refracción no lineal que dio como resultado n2 = 3.332744115057807 x 10-13 cm2/W
Figura 3. Ajuste a muestra CS2
Para los sistemas de Au-Al2O3 (Figura 4) se tuvo que considerar también la absorción no lineal para graficar la transmitancia.
Figura 4. Nanovarillas de Au-Al2O3
Para realizar el ajuste de las nanovarillas de 25.82 nm (Figura 5) se modificaron los parámetros a α= 11.0 1/cm, I0=0.9 GW/cm2, L = 25.82 nm. Se obtuvo el ajuste con ΔΦ0 = 0.85, a partir de este valor se calculó el índice de refracción no lineal que dio como resultado n2 = 2.9923307558754945 x 10-9 cm2/W.
Figura 5. Ajuste a muestra de 25.82 nm
Para realizar el ajuste de las nanovarillas de 37.46 nm (Figura 6) se modificaron los parámetros a α= 11.3 1/cm y L = 37.46 nm. Se obtuvo el ajuste con ΔΦ0 = 0.58, a partir de este valor se calculó el índice de refracción no lineal que dio como resultado n2 = 1.4073760413614587 x 10-9 cm2/W.
Figura 6. Ajuste a muestra de 37.46 nm
Para realizar el ajuste de las nanovarillas de 54.13 nm (Figura 7) se modificaron los parámetros a α= 13.94 1/cm y L = 54.13 nm. Se obtuvo el ajuste con ΔΦ0 = 0.62, a partir de este valor se calculó el índice de refracción no lineal que dio como resultado n2 = 1.0411439716059032 x 10-9 cm2/W.
Figura 7. Ajuste a muestra de 54.13 nm
Para realizar el ajuste de las nanovarillas de 60.43 nm (Figura 8) se modificaron los parámetros a α= 17.68 1/cm y L = 60.43 nm. Se obtuvo el ajuste con ΔΦ0 = 0.35, a partir de este valor se calculó el índice de refracción no lineal que dio como resultado n2 = 5.264769855474273 x 10-10 cm2/W.
Figura 8. Ajuste a muestra de 60.43 nm
Como se obtuvieron los datos experimentales con un láser de pulso, los puntos se ven algo dispermos, ya que el láser de pulso oscila en un rango de energía y eso causa la dispersión observada en las gráficas.
En base a los resultados obtenidos, se puede observar que al aumentar el tamaño de las nanovarillas disminuye el cambio de fase requerido para el ajuste y se obtiene un índice de refracción cada vez menor.
Cabe resaltar que el valor del índice de refracción no lineal es muy pequeño lo cual nos indica que es muy poca la diferencia con el índice de refracción no lineal, sin embargo, es importante considerarlo ya que esta diferencia produce diversos efectos.
Referencias
Sheik-Bahae, M., Said, A., Wei, T., Hagan, D., & van Stryland, E. (1990). Sensitive Measurement of Optical Nonlienarities Using a Single Beam. IEEE JOURNAL OF QUANTUM ELECTRONICS, 26(4), 760-769.
Garay Paez Maria Jose, Universidad de Pamplona
Asesor:Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
CARTOGRAFÍA DIGITAL DEL COMPLEJO VOLCÁNICO EL PINACATE
CARTOGRAFÍA DIGITAL DEL COMPLEJO VOLCÁNICO EL PINACATE
Garay Paez Maria Jose, Universidad de Pamplona. Asesor: Dr. Jesús Roberto Vidal Solano, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
El complejo volcánico el Pinacate (CVP) ubicado en la parte noroccidental del estado de Sonora (México) extendiéndose hasta Arizona, EE. UU (al extremo norte del Golfo de California) comprendida entre las coordenadas geográficas longitud máxima -113, 927, longitud mínima -113,929, latitud mínima de 31,505 y latitud máxima 32,168. Siendo uno de los accidentes geográficos más llamativos de la Tierra (por el contraste de tonos oscuros del complejo volcánico y tonos claros por el Gran desierto de Altar), el CVP es uno de los más estudiados por contener alrededor de 400 edificios volcánicos (siendo característico por sus numerosos cráteres maar bien conservados). Esta zona de estudio posee un área aproximada de 5500 𝐾𝑚2.
Dichas características y demás aspectos geológicos lo hacen un gran objeto de estudio científico. Debido a que actualmente no existe una carta geológica pública disponible este trabajo pretende contribuir a la realización de una cartografía digital con representación efectiva de los edificios volcánicos en un SIG, aprovechando los resultados y datos disponibles de otros estudios realizados en el lugar (geocronología, estratigráfica, geoquímica, etc.). Para el objeto de desarrollo de este proyecto, se planteó tener en cuenta el trabajo de prueba piloto para la aplicación de técnicas modernas de cartografía geológica, en campos volcánicos: Ej. Complejo Volcánico Doña Juana, Colombia (Pardo, Pulgarín, Betancourt, Lucchi, & Valencia, 2018). Con los resultados de este trabajo se planea desarrollar la reconstrucción de la evolución geológica del CVP. Con el fin de agilizar y apoyar en el proceso de digitalización del CVP se planteó en esta ocasión un trabajo de investigación basado en el análisis de las características base del mapa más completo publicado hasta el momento de forma impresa (Donelly, 1974). El mapa geológico del CVP pintado a mano por Donelly en 1974 fue un aporte significativo a la cartografía del complejo, debido a que logró distinguir las características litológicas correspondientes a: Flujo volcánico, Basalto de olivino porfídico, Cono de ceniza, Cono aglutinado y Depósitos superficiales no consolidados de lapilli. A su vez, logró determinar 8 grupos estratigráficos para los 400 conos volcánicos (aprox).
METODOLOGÍA
El trabajo realizado en este verano de investigación científica se enfocó en una de las etapas (etapa 2) del proyecto científico general que hace parte del trabajo de grado de la Ingeniera Geóloga Karen Yesenia Murcia. Las etapas metodológicas del proyecto general son 3: La Etapa 1 consiste en la construcción de la base de datos con información existente, la Etapa 2 involucra el procesamiento de la información en un ambiente SIG, finalmente la Etapa 3 consiste en la construcción del mapa geológico del CVP a Escala 1: 50,000.
Para el desarrollo de la etapa 2, este trabajo realizó una correlación litológica considerando aspectos como Nomenclatura, Grupo estratigráfico y Achurado (Asignado por Donelly, 1974), para ser incluidos en la base de datos del mapa (Geodatabase). Dicha labor fue aplicada en 1811 polígonos digitalizados por la autora del trabajo de grado Karen Yesenia Arias. A su vez, se hizo un tratamiento de las imágenes digitales del mapa base por medio del software IMAGEJ, debido a que la información de algunos polígonos era distorsionada o sesgada por los colores empleados en el mismo; con dicha labor hubo el esclarecimiento de 100 polígonos que no tenían una nomenclatura definida por distorsión de información.
CONCLUSIONES
Del siguiente verano de investigación científica se pude concluir lo siguiente:
El uso de SIG por medio del software ArcMap permitió digitalizar eficazmente el mapa geológico impreso del CVP (Donelly, 1974).
La implementación de una Geodatabase permitió agilizar los procesos de digitalización, optimizando el tiempo y la configuración de cada polígono previamente establecidos para todos los shapes utilizados en el proyecto de SIG.
Se realizó la correlación litológica de 1811 polígonos digitalizados previamente del mapa geológico, coloreado a mano por Donelly en 1974, a su vez en esta labor se evidenciaron dificultades para la visualización digital, debido a que la información proporcionada como la nomenclatura y el achurado no fueron reconocibles, ya que el color aplicado en el mapa no fue de una tonalidad homogénea y al ser escaneado ocultaba la información. Así mismo, en la información relativa a los grupos estratigráficos, el contraste en los colores utilizados era mínimo, para lo cual el tratamiento de imágenes digitales a partir del software (ImageJ) permitió el esclarecimiento de la información litológica y el achurado de 100 polígonos.
Con este trabajo fue posible distinguir que en el CVP, desde la cartografía realizada por Donelly (1974) hasta la fecha, han ocurrido procesos meteóricos como la erosión que han modificado el relieve.
Realizando una analogía entre la cartografía representada por Donelly (1974) y el estado actual del complejo volcánico, se evidencia una mayor concentración de depósitos detríticos, donde en algunas localidades se presenta la ocurrencia de una cobertura sedimentaria.
Garces Chimalpopoca Marijose, Instituto Politécnico Nacional
Asesor:Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
APLICACIÓN MÓVIL DE REGISTRO DE DATOS PARA PREVENIR ENFERMEDADES CARDIACAS
APLICACIÓN MÓVIL DE REGISTRO DE DATOS PARA PREVENIR ENFERMEDADES CARDIACAS
Garces Chimalpopoca Marijose, Instituto Politécnico Nacional. Asesor: Dr. Jesús Manuel Olivares Ceja, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En los últimos años se ha demostrado que las principales enfermedades mortales son 10, de las cuales 7 no son transmisibles. Las Estadísticas Sanitarias Mundiales realizadas por la OMS en 2019 revelan las tendencias de las dos últimas décadas en mortalidad y morbilidad por enfermedades y traumatismos; a su vez, resaltan claramente la necesidad de prestar una mayor atención en el ámbito mundial a la prevención y el tratamiento de las enfermedades cardiovasculares, el cáncer, la diabetes y las neumopatías crónicas, y de reducir los traumatismos, en todas las regiones del mundo, tal como se establece en la agenda para los Objetivos de Desarrollo Sostenible de las Naciones Unidas.
Las cardiopatías son desde hace 20 años la causa principal de mortalidad en todo el mundo, si bien ahora provocan más muertes que nunca. El número de muertes debidas a las cardiopatías ha aumentado desde 2000 en más de 2 millones de personas, hasta llegar a casi 9 millones de personas en 2019 (durante la pandemia del COVID-19 ha causado 4.16 millones de decesos). Las cardiopatías representan en estos momentos el 16% del total de muertes debidas a todas las causas. Más de la mitad de los dos millones de muertes adicionales han ocurrido en la Región del Pacífico Occidental de la OMS. Por su parte, la Región de Europa ha experimentado una disminución relativa de las cardiopatías, con una disminución de las muertes del 15%.
Debido a esto lo que se trabajó fue el diseño de una aplicación móvil, la cual recauda información respecto a la historia clínica del paciente (usuario) y que, con base en dicha información recabada, el diagnóstico que la aplicación arrojará será el nivel de riesgo que posee el paciente de que presenté una enfermedad cardiaca.
METODOLOGÍA
Se formularon y plantearon preguntas clave que forman parte de la historia clínica, las cuales recaban información básica sobre la salud y hábitos del paciente, así miso de las enfermedades que sus familiares presentan. Tras la primera redacción de las preguntas, se consultó a un médico general para que orientara la redacción de la historia clínica y a su vez mencionara las correcciones pertinentes para que esta fuera más concreta y específica.
Para el diseño de la aplicación, primeramente, se hicieron algunas prácticas con la herramienta Android studio, una vez familiarizados con dicha herramienta, se hizo un boceto en Power Point del diseño que nuestra aplicación tendría para posteriormente pasar el diseño a Android Studio. El procedimiento que se siguió para esto fue ingresar los datos sin darle formato al código programado en lenguaje java.
Cada que se modificaba el código utilizado, se hacían las pruebas pertinentes para corregir las anomalías en la aplicación y trabajar sobre de ellas a la par del resto del código. Después de las pruebas realizadas, se pasó a la instalación y configuración de un servidor web, que recibe la información cuando el usuario seleccione la opción enviar.
Como último punto es de suma importancia recalcar que nuestra aplicación al no contar con la validez oficial de un cardiólogo, el diagnóstico que arroje no será definitivo, por lo que el paciente deberá consultar a su médico cardiólogo en caso de ser necesario.
CONCLUSIONES
Durante la estancia del verano de investigación del pacífico se logró adquirir conocimientos teóricos de las enfermedades con mayor mortalidad especialmente de las enfermedades cardiacas y del uso de la herramienta de Android studio para ponerlos en práctica en el desarrollo de una aplicación móvil con la cual se pretende alcanzar un impacto en las personas que lo utilizarán para que estás creen conciencia del nivel de riesgo que pueden tener de padecer una de estas enfermedades o en el peor de los casos sufrir un infarto y que conociendo ese nivel puedan poner en práctica las medidas de prevención necesarias para mejorar su calidad de vida, entre ellas, evitar fumar, beber y drogarse, reducir los triglicéridos que aumentan el peso corporal, hacer ejercicio y consumir alimentos como verduras, frutas, proteínas de calidad y lípidos no saturados.
García Camacho Francisco Javier, Instituto Politécnico Nacional
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
INTELIGENCIA ARTIFICIAL APLICADA EN LA MEDICINA
INTELIGENCIA ARTIFICIAL APLICADA EN LA MEDICINA
García Camacho Francisco Javier, Instituto Politécnico Nacional. Mendoza Montes de Oca Jorge Uriel, Instituto Politécnico Nacional. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El objetivo de este trabajo fue el aplicar nuestros conocimientos para determinar la radiación recibida en un consultorio de cardiología intervencionista, pero medir lo que no siempre se mide, en cuanto a médicos, enfermeras, pacientes y cualquier persona que esté ahí.Por esta razón nosotros determinaremos el nivel de radiación que existe en ese lugar con la ayuda de dosímetros y cálculos matemáticos.
METODOLOGÍA
La metodología usada fue primero el conocimiento de los rayos X, primero aprendimos sobre ellos y estudiamos su comportamiento, desde el comportamiento general hasta el comportamiento específico en un consultorio de cardiología intervencionista, con el manejo de aparatos como el arco en c y la protección radiológica necesaria para llevar un control y no llenarse de radiación peligrosa.
CONCLUSIONES
Estamos por obtener en como influyen y de que manera específica en las personas en el consultorio, para obtener una cantidad exacta y precisa para con esto determinar que medidas tomar y tener mejor controlado cuanta radiación está sieno recibida por todas las personas de ahí.
García Pelcastre Diana Fernanda, Instituto Politécnico Nacional
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO: áNODO GALVáNICO
PROTECCIóN CATóDICA DE ESTRUCTURAS DE CONCRETO REFORZADO: áNODO GALVáNICO
García Pelcastre Diana Fernanda, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
El concreto reforzado es un material compuesto de concreto y varilla de acero y forman un sólido único, Las estructuras que se forman del concreto reforzado son susceptibles a la corrosión; un proceso de envejecimiento y deterioro natural, no impide representar un problema serio de implicaciones económicas mayores. Por la ilimitada adaptabilidad que este posee, es uno de los materiales con mas importancia dentro del campo de la construcción.
La corrosión metálica en medio ambiente húmedo es un proceso de naturaleza electroquímica que involucra reacciones de oxidación y reducción, ocasionando el deterioro del material metálico y de sus propiedades. El origen del fenómeno es la presencia de heterogeneidades en la superficie de los metales, con zonas de diferentes niveles de energía y propician la formación de la celda electroquímica.
Una celda electroquímica es en donde, a partir de una diferencia de potencial de las reacciones parciales (de oxidación y de reducción), que se dan en los electrodos, se genera y se obtiene una corriente eléctrica. La cinética resulta relevante para predecir la velocidad en la que se corroerá el metal. Durante el proceso de corrosión en estructuras de concreto, la zona anódica y la zona catódica están localizadas en la superficie del acero de refuerzo, mientras que el concreto actúa como el electrolito, completándose así los elementos que se requieren para formar la celda electroquímica.
La corrosión del acero de refuerzo embebido en concreto por la acción de iones cloruro y CO2 es la principal causa de deterioro de estructuras de concreto armado. El fenómeno de oxidación del refuerzo metálico afecta significativamente diversas características funcionales del concreto armado, como la adherencia, formación de agrietamientos y desprendimientos de concreto, lo que compromete su integridad estructural. Los principales agentes agresivos son los cloruros en regiones marinas y la carbonatación en zonas rurales e industriales.
Con el fin de prolongar la vida útil de las estructuras de concreto reforzado se han buscado diferentes métodos de protección para la prevención, reparación y protección de la corrosión del concreto, pero la protección catódica es la única técnica comprobada que detiene la corrosión.
En los últimos años se han venido desarrollando ánodos de sacrificio externos que pueden ser recubrimientos metálicos, los cuales son una alternativa simple y barata como sistema de protección catódica. Este encubrimiento metálico (40 - 50 μm), denominado termorociado o metalizado, consiste en alambres o polvo de metal, por ejemplo, de zinc, que se funden por arco eléctrico; y se aplica sobre la superficie del concreto mediante una corriente de aire
METODOLOGÍA
Para la protección catódica es necesario conocer la causa por la que inicia la corrosión, ya se la carbonatación, cloruros o ambos ya que son factores condicionantes que aceleran la cinética del proceso de corrosión de las armaduras
El proceso catódico produce un incremento de alcalinidad en la superficie del refuerzo (debido a la reducción del oxígeno y el agua, pero si el potencial es suficientemente negativo también podría ocurrir la generación de hidrógeno). En el interior del concreto, la corriente es transportada por iones proporcionalmente a su concentración y movilidad. Los iones positivos se mueven en la misma dirección de la corriente (del ánodo al cátodo), y los iones negativos en la dirección opuesta. De esta manera, en concreto contaminado por cloruros, la circulación de corriente resulta en una reducción del contenido de cloruros en la superficie de la armadura o en una reducción en el ingreso de cloruros al interior del concreto.
El Termorociado es un procedimiento de alta tecnología para la creación de recubrimientos superficiales funcionales. Los metales anódicos comúnmente usados son cadmio, zinc y aluminio. El zinc termorociado es mucho más puro que el aplicado por inmersión galvánica, pues el níquel utilizado en el galvanizado recoge impureza de fierro. Recubrimientos con zinc tan delgados como 25 micrones son totalmente prácticos para cualquier condición atmosférica, aunque espesores mayores son utilizados por la mayor vida útil que produce. Este proceso inicialmente reporto resultados pocos eficaces, pero que con ciertos elementos puede aumentar su eficacia, aumentando su resistividad.
CONCLUSIONES
El concreto reforzado al ser un material de alta relevancia dentro de la construcción es importante buscar maneras de alargar su vida útil. En este caso por ánodo galvánico, no presenta de momento resultados óptimos pero que a la larga dan resultados eficaces, se encontró que el aluminio y el zinc tienen mayor eficiencia y que la resistividad del concreto es el parámetro fundamental para el funcionamiento del sistema pero también se reportaron inconvenientes debido a la pérdida de adherencia en la interfase zinc-concreto, lo que propició una disminución en la eficiencia del flujo de corriente. El parámetro que más afecta a la adherencia es el cambio de humedad en el concreto inducida por periodos de humectación-secado.
Dado que la estancia de verano fue virtual no se dio la oportunidad de realizar la metodología necesaria, la investigación está basada en diferentes documentos expedidos por el investigador ( tesis, libros, presentaciones) así como en su amplio conocimiento sobre el tema. Los resultados sobre la metodología están basados en la tesis para doctorado Efectos secundarios de la protección catódica por rociado térmico de zinc sobre estructuras de concreto armado" del autor Miguel Ramon Sosa Baz.
Finalmente, en este verano virtual fue posible la adquisición de conocimientos nuevos sobre el tema de la corrosión del concreto, incluyendo temas de química como, la cinética, termodinámica, electroquímica, entre otros. Se obtuvo la convivencia y participación tanto de los compañeros como del investigador, a pesar de que no era fácil por las condiciones actuales por la pandemia.
García Pérez Gustavo Adolfo, Universidad Veracruzana
Asesor:Dr. Daniel Martínez Carbajal, Tecnológico de Estudios Superiores del Oriente del Estado de México
GEODéSICAS Y SOMBRAS DE AGUJEROS NEGROS PARA LA SOLUCIóN DE SCHWARZSCHILD
GEODéSICAS Y SOMBRAS DE AGUJEROS NEGROS PARA LA SOLUCIóN DE SCHWARZSCHILD
García Pérez Gustavo Adolfo, Universidad Veracruzana. Asesor: Dr. Daniel Martínez Carbajal, Tecnológico de Estudios Superiores del Oriente del Estado de México
PLANTEAMIENTO DEL PROBLEMA
En el año de 1905 Albert Einstein publicó la teoría de la relatividad especial o restringida, la cual trata de la física de los objetos en movimiento en ausencia de fuerzas gravitacionales, y esta, con una reformulación de las leyes de movimiento pudo hacerla compatible con las ecuaciones del electromagnetismo de Maxwell, cosa que no se podía realizar con la física newtoniana. Esta teoría revolucionó la física del siglo XX debido a la gran variedad de consecuencias que traía con ella, como el hecho de que el tiempo absoluto de newton no existe, que tanto la distancia como el tiempo se pueden dilatar, la relación entre la masa y energía, etc. En su momento esta teoría fue altamente criticada debido a que gran parte de la comunidad científica se mantenía escéptica al respecto. Posteriormente en el año de 1915 Einstein publicó la teoría de la relatividad general, la cual sustituye la gravedad de newton como una fuerza y la explica como una deformación de la geometría del espacio-tiempo. Esta teoría también fue fuertemente criticada, sin embargo, estas teorías no tardaron en demostrar su veracidad, ya que lograron predecir y explicar:
La precesión anómala de la órbita del planeta Mercurio alrededor del Sol.
La deflexión de los rayos luminosos ocasionada por la curvatura en el espacio-tiempo producida por el Sol en la cercanía a dicha estrella.
El corrimiento hacia el rojo de la luz ocasionado por la gravedad.
Otras predicciones importantes de la teoría de la relatividad fueron las ondas gravitacionales, las cuales fueron detectadas de forma directa en el año 2015, y también se predijo la existencia de los agujeros negros, estos son una región finita del espacio en cuyo interior existe una concentración de masa lo suficientemente elevada como para generar un campo gravitatorio tal que ninguna partícula material, ni siquiera la luz, puede escapar de ella. Estos últimos han sido motivo de gran interés por parte de la comunidad científica desde hace ya varias décadas. Entre los aspectos de interés se encuentra el poder estudiar las propiedades físicas y geométricas de estos, para lo cual es necesario estudiar el comportamiento de alguna partícula de prueba, en particular considerar fotones como partículas de prueba nos pueden dar evidencia indirecta de la existencia de los agujeros negros.
Es posible mostrar que existen geodésicas inestables y circulares que siguen los fotones produciendo anillos de luz. Por lo que si observáramos a un agujero negro sobre un fondo brillante esperaríamos ver una silueta formada por los anillos de luz y una región obscura la cual se denomina sombra del agujero negro. Cálculos teóricos muestran que la sombra del agujero negro depende de los parámetros del agujero negro como la masa, la carga y el momento angular, dando lugar a estudiar las sombras de los agujeros negros más generales y qué dependan de una gran cantidad de parámetros con el fin de conocer las formas más generales de las sombras de los agujeros negros.
METODOLOGÍA
Para poder realizar el estudio de las soluciones a las ecuaciones de agujeros negros se necesitan herramientas matemáticas específicas. Se comenzó a estudiar y a construir la teoría covariante con la cual se pueden escribir observables físicas. Lo primero fue introducir los elementos del grupo de Lorentz, lo que da paso a las transformadas de Lorentz. Una vez estudiados estos elementos se introduce el tensor métrico del espacio-tiempo, lo cual es algo fundamental para poder trabajar dentro del campo de soluciones de los agujeros negros.
Posteriormente se comenzó a estudiar la geometría en la relatividad. Siguiendo con el estudio de la función y comportamiento de los tensores en relatividad, para pasar al espacio de Minkowski.
Como un elemento importante de estas soluciones es la geometría, se estudió el espacio con métrica no trivial, lo que da paso al estudio de las coordenadas curvilíneas, la transformación de coordenadas cartesianas a polares y las coordenadas polares.
Cuando se terminó de estudiar los diferentes tipos de coordenadas se vio la derivada de coordenadas curvilíneas, de las cuales se deriva el símbolo de Christoffel (o los símbolos de Christoffel). Los símbolos de Christoffel aparecen naturalmente en los cálculos posteriores, pero el primer tema inmediatamente donde aparecen una vez que se estudian es en la derivada covariante, la cual se estudió y posteriormente se analizó cómo esta se aplica a la métrica.
Los temas mencionados son herramientas y formalidades matemáticas para poder estudiar los espacios y espacio-tiempo con curvatura, dentro del cual se encuentran como subtema el tensor de Riemann, el cual es particularmente importante. El tensor de Riemann da paso a la construcción del tensor de Ricci, que a su vez da paso al tensor de Einstein, y con este se llega a uno de los elementos mas importantes en la relatividad y en la solución de agujeros negros: Las ecuaciones de campo de Einstein.
Una vez llegado a este punto trabajamos con una solución simple de dicha ecuación, obteniendo resultados, los cuales pudimos verificar con la ayuda de un código en el software conocido como Mathematica.
Finalmente, una vez construida toda la teoría y habiendo obtenido experiencia resolviendo dichas ecuaciones de manera análoga y con ayuda de software procedimos al estudio de la solución de agujeros negros de Schwarzchild y la física que se podía obtener de esta, todo esto considerando una partícula de prueba, la cual era el fotón.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la relatividad y las soluciones a las ecuaciones de agujero negro, y poder poner en practica estos conocimientos al resolver las ecuaciones de Einstein de manera análoga como de forma computacional, sin embargo al ser este un tema complejo y largo fue imposible poder realizar diferentes cálculos respecto al tema, sin mencionar que los conocimientos adquiridos fueron elementales sin llegar a poder ser estudiados de una forma mucho mas formal o profunda, sin embargo fueron suficientes para abordar los problemas de reciente interés en las comunidades científicas como las sombras de agujeros negros, ondas gravitacionales, soluciones cosmológicas, entre otras.
García Villavicencio Cecilia Julieta, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
ANáLISIS Y PROCESAMIENTO DE IMáGENES BIOMéDICAS EN MATLAB IMPLEMENTANDO EL USO DE GPU.
ANáLISIS Y PROCESAMIENTO DE IMáGENES BIOMéDICAS EN MATLAB IMPLEMENTANDO EL USO DE GPU.
García Villavicencio Cecilia Julieta, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
En la actualidad las computadoras han ido mejorando de manera significativa el hardware con el que son diseñadas y construidas, esto incluye el procesador central o CPU(Central Processing Unity) quien se encarga de gestionar y realizar cualquier tipo de tarea y operación que se realice con la computadora.
Con el paso de los años, las necesidades de los diferentes usuarios de las PC como puede ser el sector privado o la industria, el militar, la investigación como el campo de la ingeniería biomédica o el sector de videojuegos (Gaming) para PC o consolas han requerido hacer más eficiente el uso de los CPU’s para la realización de cálculos más complejos, como es sabido, muchas de estas acciones necesitan el procesamiento de imágenes o gráficos. Debido a este problema y con la evolución de los coprocesadores matemáticos (que eran utilizados para acelerar el procesamiento de datos) nacen las GPU’s.
Las GPU’s (graphics processing unity/unidad de procesamiento gráfico) se instalaron como parte de las tarjetas de video para suplir con las nuevas exigencias de procesamientos gráficos de operaciones matemáticas, dado que cuenta con millones de transistores la información es procesada a gran velocidad en comparación con el CPU. Además cada núcleo trabaja con la información de manera autónoma acelerando el proceso.
Existen diversas aplicaciones para estas GPU’s, la parte primordial es el aceleramiento y optimización de procesos que con la CPU pueden tardar varios segundos, minutos, horas e incluso días. En el caso particular de las imágenes Biomédicas, es importante esta optimización, un ejemplo es el caso de la segmentación en donde se localizan objetos de interés o se divide la imagen en regiones para estudios particulares, dado que las imágenes están compuestas por pixeles, las GPU’s tienen herramientas específicas para procesarlas como es el caso de la Unidad de Rasterizado que realiza la transformación del espacio tridimensional basado en vértices a uno bidimensional basado en pixeles o la Unidad de Texturizado que se encarga de aplicar una imagen sobre una superficie para simular textura o color en la vida real. Con las GPU’s y el uso de sistemas de cómputo numérico como Matlab o lenguajes de programación como Python puede acelerarse el procesamiento de imágenes Biomédicas.
En ese caso la imagen a procesar es de una fóvea, la parte del ojo en donde se concentran los rayos de luz y por lo tato es más sensible a la nitidez y el color, es decir un fotodetector biológico.
METODOLOGÍA
Para este proceso de análisis de imágenes se investigó acerca de los GPU’s en los siguientes contextos:
¿Qué es un GPU?
Características del GPU
Principales componentes del GPU
Posteriormente se realizó investigación centrada en ¿Cómo trabaja los GPU’s en Matlab?, esto fue una clave importante para el procesamiento de la imagen pues fue la base para acelerar el procedimiento de obtención de características de interés. Con algunos conocimientos básicos del procesamiento de imágenes en Matlab y un código prescrito se obtuvo la imagen de la fóvea. Después se implementaron las siguientes acciones como primer análisis:
a) Aplicación de distintos colormap, con ello se observaron características adecuadas para cada mapa de colores y cuál sería el más indicado para cada tarea.
b) Obtención de mapa de intensidades, esto ayudó a mostrar cada pico en el cambio de intensidad de la imagen.
c) Histograma de frecuencia, se analizaron los distintos tonos de grises de la imagen y en qué rango de estos se encontraba mayor número de píxeles.
d) Segmentación de imagen, con la aplicación de Matlab Image Segmenter se obtuvieron distintas regiones de interés.
Finalmente con la imagen de a fóvea se desarrolló un código sencillo de una con-volución, la parte más importante de esto fue observar y analizar la rapidez con la que trabajan los GPU’s. En Matlab al usar la función tic toc dentro del código para obtener el tiempo de procesamiento.
Se utilizaron dos ordenadores para el procesamiento de imágenes, el primero no poseía GPU’s pero con el uso de Team Viewer (aplicación que permite controlar una computadora de forma remota) pude trabajar con GPU’s (llamemos a este ordenador 2). De esta manera se utilizó el código que no incluía las funciones que hacen uso de las GPU’s y desde el primer ordenador (con dos núcleos y una velocidad de 3.06GHz) se obtuvo un tiempo de 0.435370 segundos, en el ordenador 2 (con 8 núcleos y una velocidad de 3.2 GHz por núcleo) se obtuvo un tiempo de 0.277390 segundos. Al modificar el código original para poder hacer uso de los GPU’s y utilizando la segunda computadora el tiempo obtenido fue de 0.157978 segundos.
De esta forma podemos observar que la diferencia es casi 3 veces más rápido usando las funciones de Matlab para activar los GPU’s de la tarjeta gráfica en el código.
CONCLUSIONES
Con éste análisis y procesamiento se logró observar la importancia del uso de los coprocesadores matemáticos de CPU’s a los GPU’s, sus aplicaciones en el campo de la investigación y particularmente en el uso de las imágenes Biomédicas. Es importante destacar que con las modificaciones adecuadas a un código y las distintas funciones que Matlab ofrece para hacer uso de las GPU’s puede reducirse el tiempo de manera significativa. De esta forma se demostró que el uso de las GPU’s en lugar del CPU de una computadora hace más eficiente el procesamiento de imágenes para su caracterización.
Gasca Arguello María José, Instituto Politécnico Nacional
Asesor:Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
GUíAS DE ONDA ÓPTICAS
GUíAS DE ONDA ÓPTICAS
Gasca Arguello María José, Instituto Politécnico Nacional. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En este trabajo se busca conocer los alcances de la óptica integrada, así como la conformación de las guías de ondas ópticas.
Una guía de onda es una estructura capaz de guiar el flujo de la energía electromagnética en una dirección paralela a su eje, mientras es confinada en una región. Por otra parte, es de gran importancia conocer algunas de sus propiedades como lo son la potencia de entrada y salida, las pérdidas de propagación y el tamaño de sus modos; ya que gracias a ello es posible emplearlas en diversas ramas de la ciencia, y por ende realizar su propio estudio.
METODOLOGÍA
Para el desarrollo de esta investigación se tomaron en cuenta las pérdidas en las guías de ondas ópticas presentes en una muestra, con la finalidad de identificar cada uno de los factores que contribuían a las mismas.
Inicialmente se conectó una cámara a la computadora de trabajo, en la cual se podían apreciar los modos, posteriormente se midieron los diámetros tanto horizontales como verticales de cada modo, seguido de eso se midió la potencia de salida y entrada, por último se calcularon las pérdidas de propagación en las guías de onda.
CONCLUSIONES
La óptica integrada tiene distintas aplicaciones debido a que es posible trabajar con distintas frecuencias de ondas ópticas, lo que nos permite innovar en diversas ramas.
Para generar propagación de la luz en las guías de ondas, es importante considerar la existencia del cambio de índice de refracción, ya que gracias a este es que es posible generar una trayectoria de luz marcada mediante las guías.
Para la fabricación de una guía es muy importante considerar algunas variables como las dimensiones, el cambio de índice de refracción y la longitud de onda de la luz.
Gaytán Villarreal José Daniel, Universidad de Sonora
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PREPROCESAMIENTO DEL CATALOGO ASTRONóMICO GAIA
PREPROCESAMIENTO DEL CATALOGO ASTRONóMICO GAIA
Gaytán Villarreal José Daniel, Universidad de Sonora. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El problema a desarrollar consiste en preprocesar un conjunto de datos astronómicos de la misión espacial Gaia, de la Agencia Espacial Europea. Por lo que es necesario hacer un análisis exploratorio de los datos y reestructurarlos para facilitar un proceso posterior de identificación de estrellas variables o no variables.
METODOLOGÍA
Se aplicaron una serie de métodos de análisis exploratorio de datos al conjunto original de datos crudos. La base de datos consiste en 551 archivos en formato csv, con la implementación del preprocesamiento, los datos se transformaron y se guardaron en un solo archivo en formato csv, con las características apropiadas para la etapa de identificación de estrellas variables. Se implementó un algoritmo en Python con el uso de bibliotecas de funciones para leer y escribir los datos en archivos, crear histogramas, seleccionar las características apropiadas para la nueva base de datos y otras funcionalidades.
CONCLUSIONES
Se obtuvo de manera exitosa el conjunto de datos de estrellas a catalogar almacenados en un solo archivo. Como trabajo futuro se podria considerar volver a desarrollar el objetivo utilizando distintos métodos, para asegurarse asi de que los datos fueron correctamente preprocesados.
Giraldo Vásquez Ana María, Universidad La Gran Colombia
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
DINáMICA CLIMáTICA DE LOS úLTIMOS 25 AñOS EN EL DEPARTAMENTO DEL QUINDíO, COLOMBIA COMO INFORMACIóN BASE DEL PROGRAMA DE MITIGACIóN DEL CAMBIO CLIMáTICO
DINáMICA CLIMáTICA DE LOS úLTIMOS 25 AñOS EN EL DEPARTAMENTO DEL QUINDíO, COLOMBIA COMO INFORMACIóN BASE DEL PROGRAMA DE MITIGACIóN DEL CAMBIO CLIMáTICO
Giraldo Vásquez Ana María, Universidad La Gran Colombia. Pérez Gosteva Cristian Asthar, Universidad La Gran Colombia. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El planeta experimenta cambios en la dinámica ambiental, climática y social que influyen en el desarrollo de las comunidades, por lo que es necesario diseñar, implementar y promover investigación que proponga prevención y mitigación los impactos que generan estos fenómenos asociados al cambio climático.
En este sentido, la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC, 1992) en su artículo primero describe el cambio climático como los cambios en el medio ambiente físico o en la biota que tienen efectos nocivos significativos en la composición, la capacidad de recuperación o la productividad de los ecosistemas naturales o sujetos a ordenación, o en el funcionamiento de los sistemas socioeconómicos, o en la salud y el bienestar humanos. El cambio climático es definido como la variación significativa y perdurable de la distribución estadística de los patrones climáticos en largos periodos de tiempo. Ciertamente, este fenómeno también es asociado con ENSO- fenómeno del niño, período de variabilidad climática relacionado con la precipitación y no transpiración que incide sobre los cambios en la temperatura de las aguas del océano. Ciertamente, según Instituto de Hidrología, Meteorología y Estudios Ambientales -IDEAM (2018) el clima presenta fluctuaciones de diversa duración estimadas en diferentes años, meses, siglos, milenios, que son expresados en valores de variables climatológicas como la temperatura del aire, precipitación, humedad relativa y demás que fluctúan por encima o debajo de la condición normal.
Por ello, en este caso, se analizó las anomalías de las variables climatológicas temperatura, precipitación, humedad relativa, entre otras en el departamento del Quindío con el objetivo de evidenciar la variabilidad climática a escala interanual y entender el comportamiento de las variables. Es importante caracterizar las diferentes dinámicas climáticas del departamento del Quindío a través del análisis temporal, dado al potencial ecosistémico del departamento y sus ecosistemas, que han sido fuertemente influenciados por fenómenos climáticos, como es el caso del aumento de la temperatura producto de la deforestación, el cambio de uso de suelo. Por lo anterior la pregunta investigación fue: ¿Cuál es la dinámica climática de los últimos 25 años en el departamento del Quindío, Colombia?
METODOLOGÍA
Se realizó una revisión bibliográfica respecto a las variables climáticas, variabilidad y cambio climático. Se analizaron diferentes estudios realizados para el caso de Colombia y México. Se descargó la información meteorológica disponible en los modelos de reanálisis (NASA/POWER SRB/FLASHFlux/MERRA2/GEOS) del periodo de 1995 al 2020 para la región de Quindío, Colombia.
Luego, se realizó un tratamiento y análisis estadístico de los datos obtenidos con el objetivo de identificar las principales características en las variables climáticas; seguido de ello, se halló la correlación de las variables de temperatura y precipitaciones en conjunto con los índices de fenómenos océano-atmosféricos como el ENSO (El Niño - Oscilación del Sur), PDO (Oscilación decadal del Pacífico) y NAO (Oscilación del Atlántico Norte).
Además, se utilizaron los Sistemas de Información Geográfica para el análisis de los datos y la generación de mapas de calor en escala temporal, con el objetivo de reconocer el comportamiento de la temperatura y la precipitación en el territorio, comparándolo con variables geográficas. Lo anterior con el fin de identificar el nivel de teleconexión de los fenómenos, la relación de exposición con las manchas solares y finalmente, realizar un análisis de la información publicada de cambios perceptibles en la región.
CONCLUSIONES
Se obtuvieron promedios y anomalías, las gráficas de las variables de temperatura, precipitación, viento y humedad relativa, que junto con el análisis de los fenómenos a nivel global se discutió para identificar la relación más fuerte con la señal del fenómeno El Niño. Adicionalmente se obtuvo que para la conexión de la actividad solar el periodo de datos disponibles es relativamente pequeño pues apenas alcanza un periodo de anomalía.
Se encontró que la principal relación se tiene con la señal del ENSO, con una variabilidad mayor del 50%. Por otra parte, la relación con las otras variables fue más pequeña, por ello, se recomendó la conservación y recuperación de las coberturas vegetales para que las regiones presenten mayor inercia o resistencia al cambio producto de señales de mayor escala.
Se espera obtener distintas comparaciones y salidas gráficas que representen estos datos para la posterior publicación y divulgación de los mismos en donde se evidencia y observa vínculo recíproco, sostenible y efectivo entre los conocimientos y herramientas aplicadas por las instituciones educativas en conjunción con el entorno social y natural, lo que permite un enriquecimiento de los sus procesos de generación y transferencia de conocimiento, con un incremento significativo en la importancia del papel activo y humano de los profesionales para la protección del territorio y la mitigación del cambio climático, mediante el estudio de la Dinámica climática de los últimos 25 años en el departamento del Quindío, Colombia como información base del programa de mitigación del cambio climático, cumpliendo de esta manera con las premisas de la responsabilidad social y ambiental.
Godinez Cabrera María Renata, Universidad de Guadalajara
Asesor:Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
LóGICAS INTERMEDIAS: ENTRE EL CONSTRUCTIVISMO EN MATEMáTICAS Y LA ACEPTACIóN DEL PRINCIPIO DEL TERCERO EXCLUSO.
LóGICAS INTERMEDIAS: ENTRE EL CONSTRUCTIVISMO EN MATEMáTICAS Y LA ACEPTACIóN DEL PRINCIPIO DEL TERCERO EXCLUSO.
Godinez Cabrera María Renata, Universidad de Guadalajara. Asesor: Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La lógica se define como el estudio de los principios de razonamiento. Una de sus ramas es la lógica simbólica, la cual estudia lenguajes dotados de reglas que permiten deducir la validez de fórmulas validas, los cuales reciben el nombre de lógicas formales. La lógica clásica es considerada la lógica formal más importante, la cual se emplea para obtener razonamientos válidos en matemáticas; sin embargo, no es la única lógica formal que se estudia.
La lógica intuicionista fue desarrollada a principios del siglo pasado para brindar una base lógica formal a la corriente constructiva en matemáticas, la cual establecía, entre otras cosas, que para demostrar la existencia de algún objeto en matemáticas éste debe construirse; esto es, se debe exhibir de forma explícita el elemento en cuestión. Dos propiedades importantes de esta lógica son que ella es más débil que la lógica clásica y no satisface el principio del tercer excluso, el cual establece que "P o no P" es válido para toda fórmula P (de hecho, si adjuntamos este principio a la lógica intuicionista obtenemos como resultado la lógica clásica).
Se presentarán diversos ejemplos de lógicas formales que son más fuertes que lógica intuicionista, pero más débiles que lógica clásica, las cuales reciben el nombre de lógicas intermedias
METODOLOGÍA
Se realizó un trabajo de investigación inicial para estudiar las propiedades básicas de las lógicas formales. En particular se estudiaron la sintaxis y la semántica del cálculo proposicional clásico. Se presentaron algunos de los resultados del cálculo proposicional clásico que justifican los métodos de demostración que hemos empleado a lo largo de nuestra formación académica. Entre estos resultados, se verificaron las reglas de explosión y la regla de no contradicción.
Posteriormente, se investigaron otros ejemplos de lógicas no clásicas, identificando para cada una de ellas un sistema axiomático y un modelo semántico adecuado. Para lo anterior, se estudiaron modelos algebraicos, algebras de Heyting, modelos de Kripke y modelos topológicos.
Finalmente, estudiando artículos de investigación publicados recientemente se investigaron algunos ejemplos de lógicas intermedias y las principales propiedades de interés.
CONCLUSIONES
Tomando como base el lenguaje proposicional, se encontró que se puede definir la lógica intuicionista y la lógica clásica a partir de una lógica llamada lógica positiva.
En este sentido, una lógica proposicional intermedia es un conjunto de fómulas que es lógica y contiene a la lógica intuicionista y su vez está contenida en la lógica clásica. Siendo que todo lo demostrable en lógica intuicionista es demostrable en la lógica intermedia y todo lo demostrable en la lógica intermedia es demostrable en lógica clásica. Una lógica intermedia construye agregando axiomas adicionales a los pertenecientes en la lógica intuicionista.
Después de estudiar la sintáctica y semánticas de una lógica intermedia, especialmente la semántica de Kripke, se encontró que existe una relación entre ambas, de manera que una fórmula es deducible sintácticamente bajo la lógica intermedia si, y sólo si, es deducible semánticamente bajo la lógica.
Gomez Moreno Mayra Alejandra, Universidad La Gran Colombia
Asesor:Dr. Carlos Isidro Huerta Lopez, Universidad Autónoma de Baja California
RESPUESTA SíSMICA DEL TERRENO Y CARACTERIZACIóN DE EFECTO DE SITIO MEDIANTE EL USO DE MéTODOS SISMOLóGICOS. APLICACIóN EN ESTUDIOS DE RIESGO SíSMICO
RESPUESTA SíSMICA DEL TERRENO Y CARACTERIZACIóN DE EFECTO DE SITIO MEDIANTE EL USO DE MéTODOS SISMOLóGICOS. APLICACIóN EN ESTUDIOS DE RIESGO SíSMICO
Gomez Moreno Mayra Alejandra, Universidad La Gran Colombia. Asesor: Dr. Carlos Isidro Huerta Lopez, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Para comenzar, el comportamiento del movimiento del suelo inducidos por ondas sísmicas está relacionado con 3 factores: las características de la fuente, la trayectoria de las ondas y las condiciones geológicas del sitio de interés. Aunque estos 3 factores son importantes, la condición del sitio local juega un papel principal en la respuesta del suelo ante la excitación sísmica puesto que, relaciona las propiedades físicas y la geometría de las capas poco profundas del suelo, es decir, si las condiciones geológicas del sitio están dominadas por suelos blandos, el campo de ondas incidente podría experimentar amplificación e intensificar el daño esperado en la infraestructura civil, como se vio en el terremoto de la Ciudad de México de 1985.
Hay que mencionar, además que evaluar el comportamiento de los movimientos telúricos permite el adecuado desarrollo de los planes de gestión de riesgo que son parte fundamental de los planes de ordenamiento territorial.
METODOLOGÍA
Ahora bien, la investigación se enfocó en el estudio de la respuesta sísmica del suelo y los efectos de sitio. Para realizar dicho estudio los datos se extraen de la red nacional de acelerómetros de Colombia y se analizan mediante el ensayo no destructivo in situ que aprovecha las ondas superficiales, vibraciones ambientales o sismos.
Este análisis se realiza mediante las relaciones espectrales entre la componente horizontal y vertical de señales (HVSR), dicho método se basa en el procesamiento y análisis de datos mediante la descomposición espectral de las señales (transformada de Fourier). A su vez, se utilizaron los registros de aceleración de 3 sismos registrados los días 25 de enero de 1999, el 04 de febrero de 2000 y el 23 de febrero del 2001, en las estaciones ARMEC, IBA1C y CCALA respectivamente, ubicadas las dos primeras en el departamento del Quindío y la última ubicada en el departamento del Tolima, Colombia, estos datos son registrados en la página del Servicio Geológico Colombiano.
Se debe agregar que, se documentó la geología superficial, las fallas regionales y la actividad sísmica del territorio quindiano y de igual manera, se generaron sub-catálogos de la sismicidad que se presentó entre los años 1998 y 2010.
CONCLUSIONES
Durante la estancia internacional del XXVI Verano de la Investigación Científica y Tecnológica del Pacífico (DELFÍN), en modalidad virtual, realizada en la Universidad Autónoma de Baja California y The University of Puerto Rico at Mayagüez, se adquirieron conocimientos teóricos/prácticos sobre sismos, sus orígenes, causas, propagación de ondas y aspectos sobre procesado de señales/datos.
Gómez Victoria Lizbeth, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Guadalupe Durga Rodríguez Meza, Instituto Politécnico Nacional
CONTENIDO DE METALES EN TEJIDOS DE BALISTES POLYLEPIS Y SPHOEROIDES SPP. DEL SISTEMA LAGUNAR NAVACHISTE, SINALOA, MÉXICO
CONTENIDO DE METALES EN TEJIDOS DE BALISTES POLYLEPIS Y SPHOEROIDES SPP. DEL SISTEMA LAGUNAR NAVACHISTE, SINALOA, MÉXICO
Gómez Victoria Lizbeth, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Guadalupe Durga Rodríguez Meza, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En los últimos años, conocer la concentración de metales en tejido de peces tiene relevancia ambiental y para la salud humana, por el deterioro ambiental de la zona costera. El estado de Sinaloa cuenta con gran litoral y diversos recursos marinos de interés comercial, sin embargo, las condiciones naturales se ven afectadas por las aguas de drenes que se vierten, que incluyen aguas agrícolas, acuícolas, de asentamientos humanos, entre otras. Por ello, se trabajó con los tejidos de Balistes polylepis y Sphoeroides spp. para determinar el contenido de Fe, Cu, Mn, Zn, Cd y determinar las condiciones en que se encuentran con referencia a otros estudios y la normatividad. Existen diversas investigaciones nacionales e internacionales que evalúan metales en tejidos peces y otros organismos, que señalan una contribución natural para los metales, como la geología, mineralogía, contenido de materia orgánica, entre otros factores. No obstante, se ha encontrado que la mayor contribución es de origen antropogénico, derivado de las descargas domésticas, industriales y de la agricultura, que tienen un efecto significante en la abundancia y estructura de las comunidades marinas.
METODOLOGÍA
Se trabajó con una base de datos proporcionada por la investigadora, en dónde se tenía como registro las estaciones de muestreo de dos especies, Sphoeroides spp. (botete) y Balistes polylepis (Cochito), así como la fecha, tejido, peso de la muestra y los valores de absorción atómica para cada elemento de interés: Fe, Cu, Mn, Zn y Cd, obtenidos según la NMX-AA-051-SCFI-2001. Se explicó cómo se trataron los organismos colectados y el tejido extraído, su digestión ácida hasta obtener la absorbancia de cada elemento por el espectrofotómetro de absorción atómica (Avanta GBC). Para el calculo de las concentraciones se procedió a la elaboración de las curvas de calibración para cada elemento con soluciones certificadas de los elementos, donde hay que tener cuidado con la limpieza de los materiales, calidad de los reactivos manejo de las pipetas y los cálculos que se realicen.
CONCLUSIONES
Los resultados indican que el tejido en donde se presenta la mayor concentración de metales es en el sistema digestivo, consecuentemente el hígado, la piel y por último el músculo. Esto relacionado por los hábitos alimenticios de las especies, debido que en el intestino fue posible observar partículas del sedimento y fragmentos de otros organismos. Las concentraciones altas fueron principalmente Zn, Fe y Cu, que son elementos esenciales en procesos fisiológicos y enzimáticos, si bien son nutrientes importantes proporcionados por los peces, un nivel excesivo de estos podría traer afectaciones en la salud humana. En el presente trabajo no se detectó una presencia significante de cadmio en ninguna de las muestras, en contraste con el hierro, cuyo macroelemento tuvo las concentraciones más altas.
Gran parte de estos minerales suelen derivar de posibles cambios en las condiciones fisicoquímicas, dando como resultado una liberación hacia el agua y siendo fácilmente absorbidos por los peces. Sin embargo, analizando los datos de las concentraciones, los cuales fueron variables en los diferentes puntos de muestreo, es posible relacionar este comportamiento a las descargas antropogénicas.
González Anaya Luis Alexis, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Sandra Ignacia Ramirez Jimenez, Universidad Autónoma del Estado de Morelos
MéTODOS DE DETECCIóN DE EXOPLANETAS
MéTODOS DE DETECCIóN DE EXOPLANETAS
González Anaya Luis Alexis, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Sandra Ignacia Ramirez Jimenez, Universidad Autónoma del Estado de Morelos
PLANTEAMIENTO DEL PROBLEMA
Enseñar de manera clara y concisa algunos de los métodos utilizados para la detección de exoplanetas.
METODOLOGÍA
Se inevestigó en artículos y revista científicas acerca del tema. Posteriormente, se elaboró un guión con la información obtenida de diversas fuentes. Luego, se obtuvieron imágenes y se realizaron animaciones que ayudaran a explicar el tema. Finalmente, se agregó el audio y se editó el video.
Para complementar el video y poder evaluar el aprendizaje de los alumnos se elaboró un cuestionario de opción múltiple.
CONCLUSIONES
Se generó un video de tipo divulgación científica el cual ayudará a explicarles algunos de los métodos de detección de exoplanetas a los estudiantes de las asignaturas relacionadas a la astrobiología.
González Castañeda Mónica, Instituto Tecnológico del Valle de Morelia
Asesor:Dr. José Roberto Flores Hernández, Instituto Nacional de Electricidad y Energías Limpias
MéTODO MáS ADECUADO PARA LA ELIMINACIóN DEL BICARBONATO DE SODIO (FORMADOR DE
POROS) DE LA CAPA CATALíTICA DEL ENSAMBLE MEMBRANA-ELECTRODO (MEA), CON LA FINALIDAD DE
INCREMENTAR EL DESEMPEñO DE LA TECNOLOGíA DE AEMFC
MéTODO MáS ADECUADO PARA LA ELIMINACIóN DEL BICARBONATO DE SODIO (FORMADOR DE
POROS) DE LA CAPA CATALíTICA DEL ENSAMBLE MEMBRANA-ELECTRODO (MEA), CON LA FINALIDAD DE
INCREMENTAR EL DESEMPEñO DE LA TECNOLOGíA DE AEMFC
González Castañeda Mónica, Instituto Tecnológico del Valle de Morelia. Asesor: Dr. José Roberto Flores Hernández, Instituto Nacional de Electricidad y Energías Limpias
PLANTEAMIENTO DEL PROBLEMA
Las celdas de combustible son una tecnología que permite un cambio de los combustibles fósiles a energías seguras, eficientes y amigables con el medio ambiente. Sin embargo, su comercialización es cuestionada por el alto costo del ensamblaje de la celda y el requisito de un rendimiento duradero. El costo y el potencial de estas celdas no es el único factor a considerar al trabajar con AEMFC, otro factor importante que influye en el rendimiento de las celdas, es la estructura de los poros presentes en las capas catalíticas (electrodos), su distribución y tamaño para una buena conducción de protones y electrones. Ya que, si los poros se encuentran en el electrodo de una manera más uniforme, se puede reducir las pérdidas de rendimiento de las AEMFC.
METODOLOGÍA
Se preparó tinta catalítica a diferentes concentraciones de porógeno, con el fin de mejorar la porosidad de los electrodos. Para ser atomizada en los difusores puestos a prueba la atomización de la tinta se realizó manualmente, con una presión de aire de 15 libras y con ayuda de un aerógrafo sobre una placa de mental con una temperatura de 70°C.
Se llevaron a cabo cuatro pruebas: 1. La eliminación del porógeno se realizó manteniendo los GDEs en la estufa a 180°C por un tiempo de 2h. 2. La eliminación del porógeno se realizó manteniendo los GDEs en la estufa a más de 300°C por un tiempo de 20 min. 3. La eliminación del porógeno se realizó sumergiendo los GDEs en agua caliente a 90°C por un tiempo de 4 min. 4. Por último, se fabricó un par de GDEs sin emplear porógeno en la tinta para tener un blanco y poder comparar el efecto del porógeno.
Para la activación de membrana y gdes, se preparó un recipiente con agua desionizada, posterior a esto los electrodos de gas difusor y la membrana se introducen cada uno a una bolsa de malla con el fin de evitar que se dañen por algún movimiento brusco, se sumergen y dejan humectando durante 24 horas. Se prosigue a preparar una solución KCL a 0.5M, se sumergen los GDEs y la membrana durante 24 horas. Finalmente se prepara una solución de KOH en donde se repite el proceso anterior y se deja reposar durante otras 24 horas.
La caracterización electroquímica de los ensambles membrana-electrodos (MEAs) fabricados se llevó a cabo en un hardware de celda de combustible de 5 cm2 de área activa. El ensamble se monta de la siguiente manera: Placas finales, Placas aislantes, Placas colectoras de corriente, Placas de grafito de distribución de gases, Sellos, Electrodos de gas difusor y Membrana Después de armar el ensamble se hace una comprobación de fuga con gas nitrógeno y se verifica que no cambie la presión que recibe la celda de este gas durante 5 minutos. Si se detecta fuga de gas es necesario verificar que todos los componentes de la celda estén correctamente ensamblados. De no presentar fugas se puede continuar con la caracterización de la celda
CONCLUSIONES
Comparación de las curvas de polarización obtenidas experimentalmente con diferentes condiciones de eliminación de porógeno.
PRIMERA PRUEBA. En los resultados de la primera prueba en donde la eliminación del porógeno se realizó manteniendo los GDEs en la estufa a 180°C por un tiempo de 2h, se obtuvo una densidad de corriente de 0.750 (A/cm2) a 0.5 V, tal resultado fue el EME con mejor desempeño, esto puede deberse a que las condiciones utilizadas para la eliminación del porógeno fueron adecuadas, obteniéndose electrodos con una buena porosidad muy uniforme.
SEGUNDA PRUEBA. En la segunda prueba se buscó eliminar el porógeno manteniendo los GDEs en la estufa a más de 300°C por un tiempo de 20 minutos, se esperaba que hubiera mayor porosidad debido a la temperatura que se le había aplicado, sin embargo, bajó considerablemente la densidad de corriente a 0.230 (A/cm2) a 0.5 V, en comparación de la primera prueba. Esto podría haber sido influenciado por la degradación del ionómero y del Pt/C debido a la alta temperatura a la que fueron sometidos. Otro punto a considerar que pudo influenciar en el resultado de esta prueba, es la posible contaminación del catalizador por los vapores desprendidos durante la descomposición del sello de silicón de la estufa. Estas hipótesis, quedan pendientes por confirmar.
TERCER PRUEBA. Se sumergieron los GDEs en agua caliente a una temperatura de 90°C por un tiempo de 4 minutos para eliminar el porógeno. Esta prueba se realizó con menor tiempo y menor temperatura a las dos pruebas anteriores, es por esto que se pudo haber formado poca porosidad en el difusor y por tanto influyo en las deficiencias que se tuvo al principio de la caracterización de este ensamble, sin embargo, finalmente se logró una densidad de corriente de 0.270 (A/cm2) a 0.5 V. Se observó también, que después de sumergir los GDEs en el agua, se desprendieron pequeñas partículas de los difusores (muy probablemente catalizador), lo que indudablemente influyó en el desempeño aquí obtenido.
CUARTA PRUEBA. En la cuarta prueba los GDEs se fabricaron sin usar porógeno en la tinta. Desafortunadamente, durante la caracterización de este ensamble no fue posible tener resultados, debido a que se tuvo mucha inestabilidad en las mediciones de la corriente y el voltaje, lo que impidió conocer el desempeño. Se volverá a fabricar estos electrodos para su futura caracterización.
CONCLUSION
Con base a los resultados obtenidos en el trabajo de investigación, se puede concluir que la temperatura más adecuada para la eliminación del porógeno y para crear porosidad uniforme en los difusores oscila entre los 180 y los 200°C, permitiendo incrementar la eficiencia obtenida en los EMEs.
Al aumentar la temperatura se pueden estar degradando varios de los componentes esenciales de los electrodos y tener una reducción considerable en el desempeño, no obstante, de tener una adecuada porosidad.
Se espera que al fabricar EMEs con el 1.5% más de composición del porógeno (NH4) HCO3 y con un secado de 2 horas en la estufa a 180°C se obtengan mejores desempeños ya que podrían tener una mayor porosidad los difusores.
González de la Rosa Luis Andrés, Universidad Autónoma de Coahuila
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
MODELO DEL SISTEMA DE 6 CUERPOS DE PLUTóN Y SUS LUNAS
MODELO DEL SISTEMA DE 6 CUERPOS DE PLUTóN Y SUS LUNAS
Cota Santeliz Manuel Andrés, Universidad de Sonora. González de la Rosa Luis Andrés, Universidad Autónoma de Coahuila. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
A manera de divulgación y para dar a conocer un poco más las circunstancias del sistema local de Plutóny sus seis lunas, Caronte (Ca), Estigia (Es), Nix (Ni), Cerbero (Ce) e Hidra (Hi), creamos diferentes modelos que se aproximan lo más posible a los datos del JPL/NASA de la trayectoria de los cuerpos. A diferenciade otros cuerpos en el sistema solar, Plutón tiene una órbita local ya que el centro de masa del sistema seencuentra fuera de Plutón, debido a que Caronte tiene una masa comparable a la de Plutón. Ésto, junto alhecho de que es un sistema de 6 cuerpos, lo vuelve un sistema interesante y útil para mostrar aplicaciones dela mecánica celeste.
Para los modelos, involucramos variaciones modificadas y ajustadas del problema de Kepler, problema de6 cuerpos y la inclusión de un término perturbativo debido a la oblatés de Plutón y Caronte.
METODOLOGÍA
Primeramente, extrajimos los datos de posición y velocidad de cada cuerpo del sistema HORIZONS delJPL/NASA. Especificamente, extrajimos los datos de 4 meses, desde el 1/Ene./2021 hasta 1/May./2021,obteniendo un dato cada 30 min. El resultado fueron 5761 coordenadas y velocidades por cuerpo. Una vez tuvimos la información, hicimos un análisis de las trayectorias ajustando una elipse y obteniendo sus parámetros. Confirmamos que el momento angular se conserva.
En el primer modelo usamos la solución conocida del problema de Kepler (PK a partir de ahora). Calculamos la energía de cada cuerpo según el potencial del PK y, al ver que se mantiene relativamente constante, tomamos su promedio para cada cuerpo. Usando esos datos, obtuvimos los parámetros de la elipse resultante según la solución analítica del PK.
En el segundo modelo permitímos que todos los cuerpos sintieran la atracción gravitatoria de cada cuerpo,teniendo entonces un problema de 6 cuerpos (P6C a partir de ahora). Ya que ésto implicó un sistema de 6 ecuaciones acopladas no integrable analíticamente, utilizamos el método de Runge-Kutta (RK a partirde ahora) de 4to orden. Se usó un ancho de paso de h=4e-5 días dejandolo modelar las trayectoriasde 40 días. Usamos de condiciones iniciales los primeros datos del JPL/NASA (00:00:00 1/Ene./2021). Obtuvimos las elipses de mejor ajuste. También se confirmó que tanto el momento angular como las energías se mantienen relativamente constantes.
El siguiente modelo fue dividido en dos. Incluimos el hecho de que Plutón y Caronte no son esferas sino oblatos. Regresamos a la consideración de que cada luna siente solo la interacción gravitacional de Plutón. Al agregar al potencial los términos perturbativos, la solución analítica del problema de Kepler ya no fue válida. Por lo tanto, de nuevo integramos numéricamente con RK de 4to orden para ambas versiones del tercer modelo. Con anchos de paso h=6e-5 días durante 60 días para la primer versión y h=4e-5 días durante 40 días para la segunda.
Para la primer versión, Plutón y Caronte Oblatos como Problema de Kepler (PCO(PK) a partir de ahora), Plutón se mantuvo fijo en el orígen. El resultado no fueron trayectorias elípticas. Aún asi, para mantenernos en el proceso metódico, analizamos las trayectorias como con los otros modelos. También se mantuvieron relativamenteconstantes el momento angular y las energías.
En la segunda versión del tercer modelo, permitimos que Plutón tuviera movilidad, tratando cada combinación de Plutón con una luna como si fuera un problema de 2 cuerpos integrado numericamente con las condiciones iniciales mencionadas previamente. Ningun problema de dos cuerpos fue bueno, pues la velocidad inicial de Plutón se debe casi enteramente a Caronte. Con todos los demás problemas de 2 cuerpos, la luna no tiene suficiente masa como para mantenera Plutón en una órbita.
Para el cuarto y último modelo, de nuevo uilizamos el P6C pero ahora incluímos los términos perturbativosde la oblatés de Plutón y Caronte (PCO(P6C) a partir de ahora). La integración numérica fue básicamente igual a la del segundo modelo (h=4e-5 días por 40 días). De nuevo, obtuvimos las elipses de mejor ajuste. Confirmamos también que el momento angular y las energías se mantienen relativamente constantes.
CONCLUSIONES
El primer modelo, aunque fue un buen primer paso, no dió resultados aceptables en cuanto a aproximarse a los datos del JPL/NASA. Demostramos que el sisitema no puede ser aproximado mediante el PK.
El segundo modelo resultó una muy buena aproximación. Sin embargo, aunque a simple vista las trayectorias parecen ser prácticamente idénticas, el modelo presenta una precesión de la órbita mucho más marcada que la que hay según los datos del JPL/NASA.
La primer versión del tercer modelo, con el simple hecho de que la trayectoria resultante no tiene forma elíptica, no es útil como aproximación a los datos del JPL/NASA.
La segunda versión del tercer modelo, aunque con muchos fallos, nos permitió confirmar que la dinámica del sistema esta regída por Plutón y Caronte.
Por último, el cuarto modelo mejoró la aproximación del segundo modelo. El P6C ya había dado resultados bastante cercanos. Al agregarle la consideración de la oblatés de Plutóny Caronte, la interacción no cambió mucho. Pero la ligera diferencia presente fue en la dirección correcta, acercandose a los datos del JPL/NASA. La precesión órbital aún está presente.
Nuestros objetivos a futuro son cambiar del método de RK de 4to orden a una versión de integrador simpléctico, además de considerar que el sistema de referencia que usamos no es inercial. También considerar otros potenciales teóricos.
Gonzalez Gonzalez Henry, Escuela Superior de Administración Pública
Asesor:Post-doc Marleny Cardona Acevedo, Universidad de Manizales
LA PLANIFICACIóN DEL TERRITORIO DESDE UNA VISIóN ECOSISTéMICA
LA PLANIFICACIóN DEL TERRITORIO DESDE UNA VISIóN ECOSISTéMICA
Gonzalez Gonzalez Henry, Escuela Superior de Administración Pública. Asesor: Post-doc Marleny Cardona Acevedo, Universidad de Manizales
PLANTEAMIENTO DEL PROBLEMA
Las cuencas hidrográficas representan unidades de planificación del territorio más eficientes y eficaces, porque se constituyen por medio y acceso a recursos de las comunidades de acuerdo con los actuales lineamientos de planificación presentes en la legislación colombiana. Se considera el caso de análisis proyectivo una unidad de cuenca planificada como estrategia metodológica y de los trabajos de Soja, Santos y Lefebvre como referente teórico.
Los territorios municipales en Colombia han surgido históricamente de la consolidación de caseríos que se fueron conformando con poco o ningún criterio de planificación, generalmente a orillas de los ríos, sobre las líneas férreas, en las laderas volcánicas (por la productividad de sus suelos), o en los transectos de los caminos entre las que en su momento fueron los principales asentamientos.
La complejidad del ordenamiento territorial en los municipios colombianos que tienen en su mayoría una amplia extensión rural hace que sean procesos costosos difícilmente costeables a cargo de unas finanzas públicas no siempre con la suficiente solvencia, hecho al cual se agrega la carencia de personal experto, idóneo y con experiencia en estos temas que tenga la capacidad de orientarlos y coordinarlos, lo cual deja como única posibilidad hacer uso de consultorías o asesorías externas con altos riesgos de poca efectividad especialmente en lo que respecta a la concertación (aprobación) de los contenidos ambientales por parte de las autoridades ambientales.
METODOLOGÍA
El objetivo es evaluar las teorías sobre ocupación territorial desde la visión ecosistémica de diferentes autores y su comparación con las realidades sociales de las comunidades seleccionadas como área de estudio. La metodología. El trabajo se realiza a través de la sistematización de la revisión y análisis de información secundaria relacionada con investigaciones respecto de conceptualizaciones teóricas de espacio - tiempo y los lineamientos de planificación.
CONCLUSIONES
Entre los hallazgos, se tiene que, por medio de la mirada ecosistémica a la planificación del territorio, se evidencian nuevas formas de abordar y administrar el territorio que pueden ser más sostenibles, con administraciones públicas más robustas y posibilidades de inversión con mayor impacto social.
Granillo Luna Eduardo, Universidad de Sonora
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
SELECCIóN DE CARACTERíSTICAS PARA DATOS MASIVOS
SELECCIóN DE CARACTERíSTICAS PARA DATOS MASIVOS
Granillo Luna Eduardo, Universidad de Sonora. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Segun la responsible de Big Data de IBM El 90% de los datos que existen hoy día, se han obtenido en los últimos dos años (Gomez, 2018). Sin embargo este dato podría ya estar obsoleto y el porcentaje ser mayor a 90, esto se dijo hace ya tres años, y con la llegada de la pandemia a nuestras vidas el año 2020 dio un salto enorme en la utilización de medios de comunicación y tecnologías, y con este aumento en nuestra comunicación virtual también ascienden, naturalmente, los datos de todo tipo y de todos origenes.
El reto es poder extraer información de estos cúmulos gigantes ya sea para predecir eventos, para analizar efectos, o para eficientar procesos por decir algunos ejemplos; pero para esto, llamado procesamiento de datos, antes debe de haber otro paso, un pre-procesamiento, ya que es innegable que con tantos y tantos datos algunas características sean redundantes.
Para resolver este problema, la selección de caracterísitcas se ha vuelto un paso fundamental en el pre-procesamiento para reducir la dimensionalidad de los datos introducidos. El selector de mínima-redundancia-máxima-relevancia (mRMR) es considerado uno de los métodos mas relevantes para la reducción de dimensionalidad debido a su alta precisión. El método visto aqui es el fast-mRMR (rápido-mRMR), que es una extensión del mRMR, que trata de sobreponerse al problema computacional. Hecho aqui de manera secuencial. En este trabajo investigamos la manera de operar de este método y su programación tanto en lenguaje C++ como C. El problema consiste en reducir las caracteristicas, reducir el tamaño de los datos, y para reducir el tiempo se hace en paralelo en CPU, el caso tratado aqui reduce más de 1 millon de características a solo 256 relevantes. Aclarando que los datos se generaron en la computadora, para tener fines didácticos, el cual pasa de .csv a binario para poder ser procesado.
METODOLOGÍA
Lo primero que se hizo para la resolución de este problema fue la lectura y análisis de una investigación previa de Sergio Ramı́rez-Gallego et al., en el cual se explica muy bien el método utilizado:
El mRMR es usado para clasificar la importancia de un conjunto de características. Puede clasificar características de acuerdo a la relevancia del objetivo y al mismo tiempo penaliza la redundancia de las características. El objetivo principal es encontrar la dependencia maxima entre un conjunto de características, usando la información mutua, que se define con una ecuación y puede ser obtenida facilmente una vez que las probabilidades marginales sean conocidas. Sin embargo, implementar este criterio en espacios de más dimensiones, por lo que se calcula el criterio de maxima relevancia, pero como puede acarrear mucha redundancia también se calcula el criterio de mínima redundancia.
Después de realizar este código estuvimos dedicando tiempo a una firme introducción del lenguaje C, del cual desconocía inicialmente, también se vio de manera introductoria el lenguaje C++, que es en el que esta hecho el programa de fast-mRMR original. Una vez comprendidas las bases fue más facil poder entenderle al código realizado, se realizaron unas corridas de prueba para probarlo, estas inicialmente en mi computadora personal dentro de la maquina virtual con Ubuntu 20.04 LTS con 5.4GB de RAM y 2 cores de procesador, los resultados fueron satisfactorios y coincidían con los planteados en la investigación que nos sirvió de precedente.
Una vez pasado esto, se desarrolló una traducción del código de C++ a C. Este código en C se corrió en el Clúster del Laboratorio de Ciencia de Datos del Centro de Investigación y Desarrollo de Tecnología Digital, perteneciente al Instituto Politécnico Nacional. En particular en uno de los cuatro CPU INTEL Xeon Gold 5218, de 16 núcleos CPU, 32 hilos de hardware y 512GB de Ram. Los hilos POSIX, refereidos como hilos POSIX o pthreads son un modelo de ejecución que existe independientemente del lenguaje, trabajan de manera paralela, permiten a un programa controlar múltiples y diferentes flujos de trabajo que se superponen en el tiempo. Cada flujo de trabajo se refiere como hilo, y su creación y control se logra haciendo una llamada a la API de POSIX Threads, este sistema es el que se utilizó para nuestro código.
Se generó un nuevo archivo de datos con el generador del código original, con un total de 1048576 de datos y de 256 características a seleccionar, se probó con distintos numeros de hilos de hardware para comparar los tiempos.
CONCLUSIONES
Con el número de datos en 1048576 y las caracterísitcas seleccionadas en 256 se corrió varias veces el programa, cambiando cada vez el número de hilos usados, los resultados fueron iguales en todas las veces ya que usamos el mismo archivo de datos generados:
181 602 417 279 651 775 781 366 409 354
Como decíamos lo que cambia es el tiempo de procesamiento ya que para el tiempo de lectura siempre varió de 29 a 31 segundos sin importar el número de hilos, el tiempo para el histograma igualmente fue siempre de 0 a 1 segundo. Ahora se presentan el número de hilos utilizados y el tiempo de procesamiento.
01, 481 s
02, 244 s
04, 132 s
08, 74 s
16, 62 s
24, 53 s
32, 44 s
Como podemos ver, la utilización de hilos para el preprocesamiento de datos es de gran utilidad, ya que ahorra mucho tiempo para obtener los mismos resultados, esto ayuda mucho en el manejo de tan grandes cantidades de datos, sin embargo podemos apreciar que con solo un hilo tarda alrededor de 8 minutos, lo cual si lo pensamos no es tanto tiempo a cambio de seleccionar 256 características de 1 millón de datos.
Es algo increíble poder realizar en la actualidad ejercicios de este tipo en este caso la reducción de datos redundantes y exaltación de los de máxima relevancia podemos apreciar que no es tan díficil, por mi parte espero poder aprender más de esta área, sin tampoco restar importancia al aprendizaje de más lenguajes de programación, necesarios cada uno para problemas distintos.
Guerrero Cruz Jocelyn, Instituto Politécnico Nacional
Asesor:Dr. Santiago Camacho López, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
EL LASER,
¿UNA HERRAMIENTA O UN JUGUETE?
EL LASER,
¿UNA HERRAMIENTA O UN JUGUETE?
Bautista Casimiro Valery Itzel, Instituto Politécnico Nacional. Guerrero Cruz Jocelyn, Instituto Politécnico Nacional. Asesor: Dr. Santiago Camacho López, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Realmente, la definición o el pensamiento más próximo que tiene la gran mayoría de la población acerca de un láser es aquel que quizá muchos tuvimos de pequeños, para jugar con los amigos, jugar con las mascotas o tal vez para jugar en una sala de láser, sin embargo, en ese momento no éramos conscientes de las grandes posibilidades que teníamos al tener un láser en nuestras manos y ni siquiera teníamos en cuenta el descubrir algo increíble, pero no quiere decir que algunas personas no lo hayan hecho ya que gracias a esas personas que se dieron del tiempo de observar, analizar y experimentar con los láseres pudieron contribuir al máximo en el desarrollo de nuevas tecnologías ya sea para la ingeniería o la medicina, que ha facilitado y alargado la vida del ser humano.
METODOLOGÍA
Para tener en claro que es un láser debemos tener en cuenta la definición clásica de un diccionario dispositivo que utiliza la emisión estimulada de radiación en un medio apropiado, para generar un haz de luz cuyas características especiales de monocromaticidad, coherencia y direccionalidad se encuentran perfectamente controladas el objetivo de esta definición es poder tener un poco del amplio conocimiento de las características del láser, y en este resumen solo nos basaremos en la información que consideramos podría ser de tu interés si es que no conoces como es que te benéfica que las investigaciones acerca del láser sean realizadas de manera más amplia y se aplique en la gran mayoría de las ramas de la medicina y las físico matemáticas, Ya sea para poder realizar estudio más precisos, medidas, cirugías o tal vez eso nos ayude a controlar y curar múltiples enfermedades porque aunque no lo creamos las posibilidades son muy amplias.
Como lo es el efecto del láser en los tejidos, que produce reacciones como el mejoramiento en el metabolismo celular, con énfasis en el sistema inmunológico celular. O como lo es también el uso del láser para cortes soldadura y perforación laser que son unas de las técnicas más usadas en el mundo de ingeniería y la industria. Como estos ejemplos hay muchos más y el largo trabajos para poder obtener estos resultados es fascinante ya que cada proceso tiene una manera distinta y particular de operar.
CONCLUSIONES
El conocimiento adquirido a lo largo de la investigación fueron los conocimientos básicos de óptica y parte del trabajo de las personas que estudiaron el tema los cuales fueron de gran importancia, como también las características de los láseres, como es que funcionan, sus componentes, sus propiedades, su historia, curiosidades mitos que realmente nos dejaron sorprendidas a que aprendimos nuevas cosas que si no hubiera sido por la estancia tal vez ni hubieran sucedido, consideramos que fue una experiencia grata y muy satisfactoria.
Gutiérrez Hernández Herman Jafeth, Tecnológico de Estudios Superiores de Jocotitlán
Asesor:Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PROPIEDADES óPTICAS DE UN SISTEMA MULTI CAPAS POR MEDIOS CON SUSCEPTIBILIDAD Y PERMITIVIDAD NEGATIVAS ENTRE LáMINAS DE GRAFENO
PROPIEDADES óPTICAS DE UN SISTEMA MULTI CAPAS POR MEDIOS CON SUSCEPTIBILIDAD Y PERMITIVIDAD NEGATIVAS ENTRE LáMINAS DE GRAFENO
Gutiérrez Hernández Herman Jafeth, Tecnológico de Estudios Superiores de Jocotitlán. Asesor: Dr. Jesús Madrigal Melchor, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
A partir del reciente descubrimiento de grafeno, el cual es un alótropo del carbono y tiene una estructura bidimensional en forma hexagonal, en el año 2004 por A. Geim, K. Novoselov y colaboradores quienes presentaron sus resultados sobre el estudio de las estructuras del grafito, artículo en el que no solo describieron la técnica que usaron para separar y aislar una sola capa de grafito, sino que, además, detallaron algunos procesos de síntesis e identificación, así como la caracterización del grafeno como lo conocemos hoy en día, hecho que les valió el premio Nobel de Física en el año 2010.
Se destaca que el grafeno tiene propiedades físicas excelsas, tales como eléctricas, mecánicas, ópticas y químicas entre otras. Dentro de las propiedades ópticas del grafeno se destacan que la absorción, transmisión y reflexión de una capa de grafeno están en término de la constante de estructura fina. En el grafeno es posible excitar plasmones de superficie tanto para modos TM como TE, siendo esta otra de las propiedades relevantes de los materiales. En materiales convencionales los plasmones de superficie solo existen para polarización TM.
Su respuesta óptica del grafeno se puede manipular a partir de factores externos como la aplicación de un voltaje electrostático de compuerta o por dopamiento, esto se puede ver a través de la conductividad óptica del grafeno
Debido a las propiedades ya mencionadas se plantea el estudio de un sistema multi capas generado por materiales con susceptibilidad y permitividad negativa entre dos láminas de grafeno N medios dieléctricos, analizando las propiedades de absorción, transmisión y reflexión del sistema. El sistema está compuesto por alternar un metamaterial con susceptibilidad negativa y uno de permitividad negativa entre dos láminas de grafeno, el cual se repite N veces.
METODOLOGÍA
Método de matriz de transferencia
El método de matriz de transferencia es usado para calcular la propagación de diferentes tipos de ondas, tales como ondas electromagnéticas, ondas acústicas, ondas de electrones masivos (ondas de Schrödinger), ondas de electrones de Dirac, a través de sistemas que son llamados multicapas. En esta parte de la metodología presentamos una pequeña introducción a los cálculos, para ondas con polarización transversal eléctricas T E. Para esta polarización el campo eléctrico es paralelo a la interface entre los dos dieléctricos y apunta hacia afuera de la hoja. En ese sentido, se analiza la geometría mostrada en donde se tiene medios dieléctricos con láminas de grafeno entre ellos.
Aplicando las condiciones a la frontera, para cada interface, y siguiendo el formalismo tipo Pochi Yeh, se puede obtener una relación matricial entre la amplitud del campo eléctrico transmitido y reflejado en la interface y usando los elementos de la matriz de transferencia, con ello se implementó un programa numérico realizado en Python facilitando el análisis numérico y cálculo de transmisión, reflexión y absorción del sistema.
CONCLUSIONES
Se presenta un pico de absorción importante en ω0 siendo esta una frecuencia de referencia y al variar los espesores de los medios con μ y Ɛ negativas, cambian la forma de las líneas, sin embargo, no alteran la posición del pico de absorción en ω0, por otro lado, si el μg es menor a μ0 se altera el pico de ω0, el pico de absorción se modula, cambia de forma y desaparece.
El pico característico de absorción se conserva y es independiente del número de láminas de grafeno, sin embargo, la absorción y transmisión dependen del espesor de los medios propuestos y del número de medios dieléctricos.
Guzman Cardona Isabella, Pontificia Universidad Javeriana
Asesor:Dr. Francisco Perez Hernandez, Universidad Autónoma de Madrid
CáLCULO Y ANáLISIS DE INDICADORES TéCNICOS SOBRE EL íNDICE BURSáTIL COLCAP
CáLCULO Y ANáLISIS DE INDICADORES TéCNICOS SOBRE EL íNDICE BURSáTIL COLCAP
Guzman Cardona Isabella, Pontificia Universidad Javeriana. Asesor: Dr. Francisco Perez Hernandez, Universidad Autónoma de Madrid
PLANTEAMIENTO DEL PROBLEMA
El indicador técnico es una herramienta de análisis bursátil que sirve para estudiar la evolución futura de los precios de un activo financiero. Por tanto, esto nos permite interpretar si los precios de un activo se encuentran en situación de sobrecompra o sobreventa con la finalidad de acertar en la decisión de una inversión.
Se pueden clasificar en 4 en indicadores de Tendencia, que son los más efectivos cuando el precio está en tendencia alcista o bajista pero menos efectivos cuando se encuentran en momentos laterales de acumulación; como medias móviles, desviación estandar, entre otros. También se encuentran de Momento, los cuales se construyen a través de la variable precio combinada con otros factores como la volatilidad, la velocidad del movimiento o medias móviles. Los más importantes a destacar son el MACD, RSI, estocástico, momentum, ATR y Williams. La cateogoría de Volúmen se construye a través del volúen de negociación en el mercado. Se incluyen dentro de ésta al Indicador money flow, Acumulación/Distribución, volumen de negociación, entre otros. De Volatilidad miden el grado de variación en el movimiento de precios en un período determinado de tiempo y cómo se compara con los movimientos de precios históricos Bandas de Bollinger, ATR, VIX (volatility índex), y por último, de Amplitud, que miden si las oscilaciones principales del mercado están siendo acompañadas por el conjunto del mercado en general.
oindent Los indicadores técnicos son una de las herramientas más utilizadas por parte de los traders, tanto principiantes como profesionales. Un buen uso de los indicadores estriba en adaptarlos a su operativa. Por ejemplo los operadores tendenciales en bolsa pueden aplicar una media móvil para visualizar rápidamente la tendencia principal, y así tomar decisiones más rapidas y acertadas.
En este trabajo se realizó una busqueda de literatura para conocer los distintos indicadores técnicos y ver cuales son los más utilizados, esto con el fin de calcularlos sobre el índice bursátil COLCAP y realizar un análisis de los resultados.
METODOLOGÍA
A continuación se presentan los indicadores t ́ecnicos utilizados:
Estocástico%K: se compara el precio de un valor cerradoen relaci ́on con su rango de precios durante un per ́ıodo de tiempo determinado.
Estocástico%D: Media móvil de %K.
ROC: Tasa de cambio de precio. Muestra la diferenciaentre el precio actual y el precio de hace n días.
MA5, MA10, MA2O: Medio del precio de un instrumentodurante un determinado per ́ıodo de tiempo. Aquí es 5, 10y 20 días respectivamente.
%R de Larry William: Es un indicador de impulso quemide los niveles de sobrecompra/sobreventa.
CCI: ́Indice de canales de productos básicos. Mide la variación del precio de un valor a partir de su media estadistica
CONCLUSIONES
Los indicadores técnicos son importantes para para un adecuado análisis, además de poseer diversas cualidades como disponibilidad, simplicidad, válidez, sensibilidad, confiabilidad, entre otros. Note que con simples cálculos matemáticos basados en precio y volumen se pueden obtener se ̃nales de anticipación y presentar buenas oportunidades para negociar con seguridad.
En este trabajo se analizaron 8 indicadores técnicos del índice bursátil COLCAP, pero indiscutiblemente se puede hacer el cálculo de otros indicadores y así tener una estimación mas precisa, así mismo, estos indicatores técnicos son bastante utiles para diversos trabajos, por ejemplo sirven como entradas para una red neuronal que estime de volatilidad del mercado.
Guzmán May Celia Alondra, Universidad Veracruzana
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PUNTOS DE LAGRANGE EN EL SISTEMA SOLAR
PUNTOS DE LAGRANGE EN EL SISTEMA SOLAR
Guzmán May Celia Alondra, Universidad Veracruzana. Ríos Segura Gustavo, Universidad Veracruzana. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
Los puntos de Lagrange son cinco posiciones en donde la fuerza gravitacional que ejercen dos cuerpos es nula; en estos puntos de equilibrio un objeto puede permanecer estacionario respecto a los dos cuerpos más grandes.
Los primeros tres puntos de Lagrange son inestables, esto es, si un cuerpo en cualquiera de estos sitios (L1, L2 y L3) sufre una mínima pertubación, el cuerpo escapará fácilmente. Los otros dos puntos (L4 y L5), por otra parte, son estables, por ejemplo, algunos asteroides han sido encontrados en los puntos Lagrangianos L4 y L5 de Júpiter y Marte. En Jupiter, a los asteroide se les llama Trojan asteroides, y estos se mueven alrededor de los puntos lagrangianos.
Existen diferentes formas de calcular estos puntos; podemos ocupar ecuaciones diferenciales, álgebra, lenguajes de programación y métodos numéricos.
METODOLOGÍA
Los cinco puntos de Lagrange que se encuentran ubicados alrededor de dos masas pueden ser calculados. En nuestro caso los calculamos con la relacion de Planeta-Sol y Luna-Planeta, y tomamos de base el potencial efectivo. Además, trabajamos bajo tres diferentes potenciales para calcular los puntos y comparar los cambios, estos potenciales son el Newtoniano, el de Manev y el de Schwarzschild.
Para la solucion de los puntos se utilizó el software de Wolfram Mathematica. Este software nos ayudó a obtener las soluciones de los difenters polinomios que nos arrojaban los distintos potenciales, así como la solución de una sistema de dos ecuaciones con dos incógnitas. Los datos obtenidos fueron puntos de Lagrange en un plano XY con los cuales se hicieron tablas y mapas que mostraban estos puntos para cada potencial y para cada sistema plateado.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre este tema, se realizaron cálculos y gráficas para poder endenter y comprenderlo de una mejor manera. Saber como cambian estos puntos con los diferentes potenciales nos ayudó a comprender como afectan las correcciones relativistas al potencial de Newton.
En los datos de las tablas realizadas se aprecia que si hay una diferencia para la mayoria de los puntos de Lagrange obtenidos, sin embargo, esta no es lo suficientemente grande para poder observarse bien en los mapas del sistema realizado.
Guzman Romo Marisol, Universidad de Guadalajara
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
IMPACTO DE CICLONES TROPICALES EN LA ZONA COSTERA DEL OCCIDENTE DE MéXICO, NAYARIT, JALISCO Y COLIMA.
IMPACTO DE CICLONES TROPICALES EN LA ZONA COSTERA DEL OCCIDENTE DE MéXICO, NAYARIT, JALISCO Y COLIMA.
Guzman Romo Marisol, Universidad de Guadalajara. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los Ciclones Tropicales pueden ocasionar afectaciones en la actividad económica de regiones expuestas a este tipo de eventos naturales, por lo que es importante estimar y valorar el impacto que tienen estos eventos. Los estados que presentan una elevada exposición a la influencia de Ciclones Tropicales son Jalisco, Colima y Nayarit, por lo que estimar las afectaciones de estos tres estados es una fuente para medir las afectaciones de otras regiones costeras, prevenir daños y disminuir su impacto en la actividad económica.
METODOLOGÍA
Se realizó una base de datos de los años 1992 a 2016 de Ciclones Tropicales que impactaron las zonas costeras de Nayarit, Jalisco y Colima, para esto se llevó a cabo una investigacion en sitios oficiales como CENAPRED y la pagina oficial de la NOAA.
Se realizaron mapas con datos obtenidos del busca ciclones disponible en la pagina del CENAPRED y la aplicacion de ArcGis. Se hizo un mapa general de los ciclones que impactaron las zonas costeras desde los años 1992 a 2016, y se realizaron otros cinco mapas individuales de los ciclones tropicales que mas afectaron segun la escala de Saffir-Simpson, los cuales fueron Virgil en 1992 con una categoria de Huracan 4, con ENOS neutral, Kenna en 2002 con categoria de Huracan 4 con ENOS ME (Moderate El Niño), John en 2006 con categoria de Huracan 4 con ENOS WL (Weak La Niña), Jova en 2011 con categoria de Huaracn 2 con ENOS ML (Moderate La Niña), y Patricia en 2015 con categoria de Huracan 5 con ENOS VSE (Very Strong El Niño). Estos cinco mapas se realizaron con el objetivo de observar la vegetacion afectada con el impacto del Ciclon Tropical.
CONCLUSIONES
Durante el verano Delfín se logró adquirir conocimientos teoricos sobre la realizacion de una base de datos de impactos de ciclones tropicales y aumentar las capacidades de busqueda con fuentes oficiales. Ademas se obtuvo las bases para utilizar la aplicacion de ArcGis y crear mis propios mapas.
Hernandez Alvarez Claudeth Clarissa, Universidad de Sonora
Asesor:Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PROTUBERANCIAS ESTACIONARIAS
PROTUBERANCIAS ESTACIONARIAS
Hernandez Alvarez Claudeth Clarissa, Universidad de Sonora. Asesor: Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
En neurociencias se tienen conceptos indispensables para el estudio del comportamiento neuronal tales como potencial de acción y sinapsis, las cuales permiten la transmisión de información del sistema nervioso central. Debido a lo anterior, las sesiones iniciales de la estancia virtual consistieron en la introducción a estos conceptos utilizando [1].
Una forma común de modelar grandes poblaciones de neuronas es utilizar una simplificación llamada firing rate models. En lugar de rastrear los picos de voltaje por los potenciales de acción individuales en cada neurona, es más eficiente modelar el comportamiento promedio de las tasas de picos de grupos de neuronas. Estos modelos también se denominan modelos de población, ya que pueden representar poblaciones completas de neuronas. La información transmitida de neurona a neurona se da gracias al estímulo de las neuronas vecinas por lo que la intención es encontrar un modelo en el que estudiemos las actividades sinápticas de las neuronas adyacentes de la región elegida. Cabe aclarar que los estímulos entre neuronas no son solamente excitatorios, también existen otro tipo de estímulos que reducen la posibilidad de ocasionar un potencial de acción, estos son conocidos como interacciones inhibitorias.
En el caso de soluciones de protuberancias estacionarias, soluciones espacialmente acotadas y estacionarias, la inhibición tiene un rol fundamental para producir patrones estacionarios. Comenzamos el estudio proveniente de un modelo aproximado al de Wilson y Cowan basado en las interacciones sinápticas entre neuronas.
METODOLOGÍA
A manera de simplificar utilizamos la función del modelo de Wilson y Cowan volviéndola una función escalón (también conocida como función Heaviside) para permitir aproximar la saturación del potencial, tomando como criterio un valor en concreto que nos permita hacer una comparación con la actividad sináptica. Además, si asumimos que la inhibición fue tan rápida que puede eliminarse su parte dinámica y la volvemos una relación lineal obtenemos el modelo de Amari, el cual consiste en dos ecuaciones integro-diferenciales cuyas soluciones son las actividades sinápticas promedio de las poblaciones de neuronas excitatorias e inhibitorias [2]. Partiendo de las ecuaciones en el modelo de Amari, e investigando el concepto matemático de convolución de dos funciones, encontramos las soluciones analíticas de las actividades sinápticas de las poblaciones excitatorias e inhibitorias. Para esto asumimos a las funciones de interacción sináptica como funciones gaussianas y obtuvimos el valor del ancho de la protuberancia que cumple con el modelo ajustado a las constantes dadas en el problema 14 de [2].
Se trabajó en la realización de un código numérico para la solución de la ecuación diferencial del modelo de Wilson y Cowan con el objetivo de recuperar la solución analítica ya obtenida. La resolución del conjunto de ecuaciones se está realizando mediante el método de Euler, aplicando el tiempo como variable independiente, por otra parte, las integrales de convolución está utilizando el método de los trapecios para su solución numérica.
CONCLUSIONES
Se probó un modelo en forma de ecuaciones integro-diferenciales para así modelar los estudios médicos. Se establecieron soluciones del tipo protuberancia estacionaria, así como el ancho de esta, en función del criterio impuesto por la bibliografía [2]. Se establecieron las condiciones de existencia de las protuberancias basadas en estudios neurológicos.
[1].-Shonkwiler, R. W., & Herod, J. (2009). Mathematical Biology An Introduction with Maple and Matlab. Springer. DOI: 10.1007/978-0-387-70984-0
[2].-Ermentrout, B. G., & Terman, D. H. (n.d.). Mathematical Foundations of Neuroscience (35th ed.). Springer. DOI: 10.1007/978-0-387-87708-2
Hernández Andrade Daniel, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
ANáLISIS COMPARATIVO DEL NIVEL DEL MAR UTILIZANDO MAREóGRAFO CONVENCIONAL Y REFLECTOMETRíA-GNSS
ANáLISIS COMPARATIVO DEL NIVEL DEL MAR UTILIZANDO MAREóGRAFO CONVENCIONAL Y REFLECTOMETRíA-GNSS
Hernández Andrade Daniel, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Las mediciones del nivel de mar, generalmente, se realizan a través de mareógrafos convencionales. Sin embargo, están sujetos a cambios en la superficie terrestre, movimientos verticales principalmente, siendo una ventaja para el uso de Reflectometría-GNSS (GNSS-R) respecto al mareógrafo convencional. Esto permite la posibilidad de una medición absoluta del nivel del mar respecto al Marco de Referencia Internacional Terrestre (ITRF), logrando medir los cambios en la superficie a través de posicionamiento GNSS y determinar el nivel del mar con GNSS-R.
El incremento del nivel del mar tiene una gran implicación social, principalmente en las zonas costeras donde existe una gran actividad socioeconómica, de infraestructura y poblacional, principalmente en los momentos cuando la marea alta coincide con eventos climatológicos extremos, ocasionados por efectos del cambio climático, lo que conlleva a la necesidad del monitoreo del nivel del mar de manera absoluta. En este sentido, el objetivo de esta investigación es realizar un análisis comparativo del nivel de mar, a través del uso de mareógrafo convencional y GNSS-R de 5 estaciones GNSS y 5 respectivos mareógrafos, utilizando la intensidad de la señal, es decir, la Relación Señal-Ruido (SNR), basado en la recepción de la multitrayectoria y la coherente superposición de la señal directa y reflejada.
METODOLOGÍA
La primera etapa fue la selección de estaciones GNSS, considerando estaciones de libre acceso, localizadas a una distancia no mayor a 20 metros de la orilla de la costa, preferentemente sin obstrucciones de vista al mar. Para el mareógrafo se consideró el más cercano a la estación GNSS seleccionada, que contara con información de la misma ventana temporal, en este sentido, se localizaron 4 estaciones gestionadas por UNAVCO: GTGU, TGMX, CN26 y ELLY y una estación del IGS, HNLC, con los respectivos mareógrafos para la comparación: OSO, PUMO2, SISA, LOJA y HONO2.
La siguiente etapa fue la generación de los Fresnel Zones, con la finalidad de determinar que la superficie reflectiva fuera en una buena cantidad proveniente del mar. Las gráficas se realizaron a través de la implementación del software desarrollado en Matlab descrito por Roesler y Larson (2018). Posteriormente se realizó la descarga de archivos de observación y efemérides precisas (sp3) de los correspondientes Protocolos de Transferencias de Archivos (FTP) de cada gestor (Unavco: ftp://data-out.unavco.org, IGS: ftp://garner.ucsd.edu), asimismo, se descargó la información correspondiente a cada mareógrafo (http://www.iocsealevelmonitoring.org/map.php). De modo particular, la estación GTGU y los datos de mareógrafo fueron descargados desde un repositorio proporcionado por Geremia-Nievinski et al. (2020b). El periodo de análisis en cada estación fue distinto, esto con base en la disponibilidad de información. La siguiente etapa es la conversión de los datos, principalmente de los observables, ya que los archivos RINEX disponibles son versión 2.11 por lo que se requirió transformar a la versión 3.01 y de estos conservar únicamente la SNR de la banda L1 y L2. A pesar de que se recomienda trabajar con las bandas civiles no siempre es posible conseguir datos crudos (raw data) o que los RINEX 2.11 conserven estas observables, sin embargo, en el caso de la estación ELLY fue posible la obtención de datos crudos, siendo la única estación con la cual se procesó en las bandas L1C y L2C, que corresponden a los observables de SNR a S1X y S2X, siendo la recomendación trabajar con la banda L2C (S2X). Posteriormente, se procesó la información para Reflectometría utilizando la relación Señal-Ruido a través del modelo directo e inverso. En la penúltima etapa se obtuvo el coeficiente de correlación entre GNSS-R y mareógrafo, así como la prueba de Van Casteele para errores sistemáticos en el mareógrafo. Finalmente se comparan de manera visual los datos generados por el mareógrafo respecto a los de la Reflectometría-GNSS.
CONCLUSIONES
El análisis e implementación del modelo de inversión en las observables de la SNR, ha mostrado que aún en estaciones muy cercanas a la superficie del mar, estas pueden presentar un bajo rendimiento, en relación a las mediciones generadas por un mareógrafo convencional, resultado en coeficientes de correlación que tienden a cero e incluso negativos, sin embargo, se requiere de un análisis profundo para conocer bajo qué condiciones probadas, estas 4 estaciones: TGMX, HNLC, ELLY y CN26, puedan ser útiles como apoyo en la estimación del nivel del mar, por ejemplo, el uso de algunos filtros o experimentar con datos crudos y analizar la respuesta con otras constelaciones GNSS y tipos de observables. Así mismo, la estación GTGU ha demostrado la factibilidad de uso para la estimación del nivel del mar en comparación a un mareógrafo convencional, mostrando un coeficiente de correlación superior a 0.70 y un error medio cuadrático menor a 10 cm, utilizando una única antena con vista al zenit, en este sentido no es la única ventaja, sino también la medición del nivel del mar de manera absoluta, es decir, en relación al Marco de Referencia Internacional Terrestre, siendo útiles las observables de S1 y S2, sin embargo, S1 mostró un mejor rendimiento que S2, siendo esta última, la observable recomendada para análisis de GNSS-R.
Finalmente, es posible comparar no sólo entre soluciones GNSS-R vs mareógrafo, sino entre los mismos GNSS, ya que al menos, las 4 estaciones con datos no favorables, no han sido instaladas con el propósito de generar mediciones altimétricas, en comparación con la estación GTGU, en la cual, sin necesidad de algún filtro, ni uso de observables civiles, ni adaptaciones en la antena, logra mostrar buenos resultados. En este sentido, se recomienda en trabajos futuros la evaluación de una mayor cantidad de antenas cercanas a la superficie del mar, con la finalidad de evaluar su rendimiento y factibilidad, en apoyo a mediciones absolutas del nivel del mar.
Hernández López Saul Joseph, Instituto Tecnológico de Tláhuac
Asesor:Dr. Diego G. Espinosa A., Centro de Ingeniería y Desarrollo Industrial (CONACYT)
"TIPOS DE ESTRUCTURAS PARA ADITIVOS"
"TIPOS DE ESTRUCTURAS PARA ADITIVOS"
Hernández López Saul Joseph, Instituto Tecnológico de Tláhuac. Asesor: Dr. Diego G. Espinosa A., Centro de Ingeniería y Desarrollo Industrial (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Debido a la alta demanda de espacios habitacionales, a causa del alto índice de crecimiento poblacional a nivel mundial; y de manera especial a lo largo del territorio Nacional, surge la necesidad de innovar en el ámbito de la construcción mediante la implementación de las TIC, los cuales nos permitan generar espacios habitacionales para personas de escasos recursos o que por desastres naturales sus hogares se han visto afectadas gravemente, con una eficacia mayor en cuanto al tiempo de construcción de las obras, costos de las mismas y generar un impacto menor en el medio ambiente.
METODOLOGÍA
La investigación se basó en tipos de estructuras para aditivos de los cuales se eligieron tres puesto que eran los mas viables y que se adaptan mejor al proyecto de investigación que es un proyecto de innovación y creación de casas habitación mediante una impresora a tamaño real (impresión 3D). Las estructuras que se mencionaran a continuación se eligieron por trabajar adecuadamente con el hormigón o concreto, su comportamiento con estos materiales es muy eficaz, además de hacerse un estudio del sitio, una metodología para tener una correcta modelación e impresión en el lugar donde se trabajara. ESTRUCTURAS:
Estructura de Hormigón
Estructura de mamposteria y Vigueta
Estructura mixta
CONCLUSIONES
Con la realización del análisis del proyecto, se encuentra que este con cuenta con un desarrollo estructural, por lo tanto se realizó una investigación para dar un solución para la propuesta estructural que más se adecua a las características de dicho proyecto Chuun Pack para tener eficacia en todas las casa que se modelen así mismo buscando mayor seguridad.
Hernández Martínez Braulio Ramses, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
DETECCIóN DE USO DE MASCARILLAS CON REDES NEURONALES CONVOLUCIONES
Cristóbal Pérez Fermín, Universidad Michoacana de San Nicolás de Hidalgo. Fernández Durán Oscar, Universidad Michoacana de San Nicolás de Hidalgo. Hernández Martínez Braulio Ramses, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Francisco Jose Moo Mena, Universidad Autónoma de Yucatán
PLANTEAMIENTO DEL PROBLEMA
Durante la pandemia provocada por la Covid-19 se normalizó el uso de cubrebocas debido a las medidas de seguridad que hay que seguir para evitar la propagación y contagio de dicha enfermedad. Los establecimientos y lugares donde exista mucho tránsito de personas y aglomeraciones implementaron el uso obligatorio de cubrebocas. Por lo que es muy importante que haya alguien o algo que verifique que todo aquel que circule por dicho espacio esté portando un cubrebocas.
En este punto es importante aclarar que a pesar de usar cubrebocas, este solo disminuye la posibilidad de contagio, pero no la elimina, entonces es correcto suponer que quien esté a cargo de revisar el uso de la mascarilla será expuesto a una probabilidad más grande de contagiarse de la enfermedad. Entonces, sería conveniente pensar en el desarrollo de un sistema automatizado que se encargue de hacer esta labor haciendo uso de las tecnologías actuales que se tengan disponibles, donde dicho sistema sea seguro y confiable.
METODOLOGÍA
El desarrollo científico desarrollado a lo largo de la estancia fue dividido en cuatro etapas principales, las cuales se mencionan a continuación, con una breve descripción de lo que se hizo en cada etapa.
Encontrar un algoritmo de redes neuronales funcional y ejecutarlo para ver que su funcionamiento fuera el que esperábamos.
Probar la eficiencia del algoritmo con un dataset diferente.
Entrenar el algoritmo con un dataset diferente.
Verificar la eficiencia de otro algoritmo con el mismo dataset y hacer la comparación de cada algoritmo.
Primeramente los alumnos investigadores Fermin, Ramses y Oscar se dieron a la tarea de buscar un algoritmo de redes neuronales que ya fuera funcional, con el objetivo de que cada quien probara su algoritmo correspondiente y se viera que tan eficiente era. Para este punto se utilizó el mismo dataset con el que venía el algoritmo, por lo que cada estudiante probó su algoritmo con un dataset diferente en esta primera parte.
Para la segunda parte de la investigación, cada alumno hizo la prueba de la eficiencia de su algoritmo pero ahora todos usamos el mismo dataset de prueba, lo que nos dio una muy buena idea de que tan eficientes eran los algoritmos con los que trabajó cada quien.
Para la tercera parte de las actividades se nos proporcionó un dataset con un cuerpo de 10,000 imágenes divididas en dos grupos; el primero donde se verifica el uso de mascarillas y el segundo donde no hay uso de cubrebocas. En los distintos algoritmos se modificaron los modelos con los que se reconocía el uso de cubrebocas y dando como resultado métricas para seguir con los pasos.
Por último se tuvo que hacer una prueba de cada algoritmo en igualdad de condiciones para revisar su desempeño comparado con el de los otros. Para así ver de mejor manera cuál se comporta de una forma más óptima y se acopla más a nuestras necesidades.
CONCLUSIONES
Al completar con la experimentación logramos notar la diferencia que existe entre los diferentes modelos, así como la importancia con la que se debe seleccionar un conjunto robusto de imágenes con las que entrenar nuestros modelos. De esta manera logramos obtener conocimientos en el entrenamiento para las tecnologías que implementamos durante la estancia.
Al comparar los diferentes algoritmos llegamos a los siguientes resultados; Usando las métricas de precisión,recuperación y F1.
precisión | recuperación | F1
Algoritmo1(default): %94.73 | %69.23 | %79.99
Algoritmo1(entrentado):%90.9 | %83.3 | %86.93
Algoritmo2(default): %99.1 | %76.26 | %86.15
Algoritmo2(entrenado): %85.49 | %83 | %84.22
Hernández Martínez Valeria, Universidad de Colima
Asesor:Dr. Lamberto Castro Arce, Universidad de Sonora
LA GEOMETRíA DE LAS AUNPS COMO FACTOR CRíTICO EN LA RESOLUCIóN DE PROBLEMAS BIOMéDICOS.
LA GEOMETRíA DE LAS AUNPS COMO FACTOR CRíTICO EN LA RESOLUCIóN DE PROBLEMAS BIOMéDICOS.
Hernández Martínez Valeria, Universidad de Colima. Asesor: Dr. Lamberto Castro Arce, Universidad de Sonora
PLANTEAMIENTO DEL PROBLEMA
Comúnmente, las técnicas del tratamiento y diagnóstico de enfermedades degenerativas se han caracterizado por mostrar resultados tardados y poco efectivos, disminuyendo de manera significativa la calidad de vida del paciente, que en ocasiones suele terminar en el fallecimiento del mismo.
Esto mencionado anteriormente se ha visto ilustrado en el caso del cáncer. Según la Organización Mundial de la Salud, el cáncer es la segunda causa principal de muerte a nivel mundial, por lo que mejorar e implementar técnicas para su diagnostico en las primeras etapas es importante a igual que la mejora de tratamientos de mínima invasión con alta selectividad y precisión para aumentar la calidad de vida en los pacientes.
Las nanopartículas de oro se han manifestado con capacidades para tener aplicaciones médicas, por lo que esta estancia tuvo como propósito comprender las propiedades principales que podrían mejorar la respuesta terapéutica en los pacientes, así como la facilidad para el monitoreo y obtención de resultados clínicos.
METODOLOGÍA
Se realizó el análisis de la literatura correspondiente al estudio de las nanopartículas de oro (AuNPs), asimismo, se participó en el VIII Congreso Estatal de Ciencias Exactas y Naturales, organizado por la Universidad de Sonora, participando de manera virtual al curso "Entendiendo la Nanomedicina: Conceptos básicos y aplicaciones".
Las nanopartículas de oro (AuNPs) han mostrado propiedades que las han mostrado como buenos elementos en la resolución de problemas biomédicos, tales como biocompatibilidad, baja toxicidad y buena estabilidad. Además, han mostrado propiedades fisicoquímicas que son dependientes tanto del tamaño como de su forma, dando la oportunidad de configurarlas de acuerdo al propósito que se quiere lograr.
Al ser el oro un metal nobel, cuenta con electrones libres en su superficie que oscilan a cierta frecuencia, dependiendo de su tamaño y forma, al igual que de la composición del material, resaltando principalmente la dependencia que muestran las propiedades ópticas y fototérmicas de estos factores.
De esto se puede desprender que las AuNPs también se pueden clasificar de acuerdo a su forma, siendo las nano-varillas, nano-estrellas, nano-esferas, nano-cajas y nano-cáscaras las principales dentro del estudio de las AuNPs. Las principales características de cada una son:
Las nano-varillas poseen dos bandas de absorción, de las cuales una reside dentro de la región de espectro visible (banda transversal) y la otra dentro del rango NIR (banda longitudinal).
Las nano-estrellas tienen una mayor área superficial, excitando sus propiedades fisicoquímicas.
Las nano-esferas tienen capacidad de absorción dentro del espectro visible, pero mostrando facilidad de síntesis y bioconjugación.
Las nano-cajas tienen hueco su interior y poseen un espectro de absorción desde el espectro visible al NIR.
Las nano-cáscaras conformados por núcleo y cáscara, presentan interiores huecos con capacidad de absorción del rango visible al NIR.
Estas características se han aprovechado para hacer uso de ellas en el desarrollo de técnicas de diagnostico y tratamiento, como lo son:
Terapia fototérmica: Debido a su capacidad debido a su capacidad de absorción dentro de la región NIR, las AuNPs son empleadas como agentes de contraste (fototérmicos) introducidas dentro de la zona de interés, causando daños irreversibles.
Administración de fármacos: Dependiendo de su configuración, las AuNPs pueden orientarse para suministrar fármacos en el área de interés.
Desarrollo de biosensores: Sus múltiples propiedades le han dado paso al desarrollo de diferentes tipos de biosensores: colorimétricos, resonancia de pasmón de superficie, basados en dispersión de Raman mejorada en superficie, etc.
Otras clases de nanopartículas de suma importancia en nanomedicina son las poliméricas, inorgánicas y basadas en lípidos, las cuáles mostraron capacidad para la administración de fármacos.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos de los principios de nanotecnología orientada a la resolución de problemas biomédicos, haciendo un enfoque especial en las propiedades y utilidades de las nanopartículas de oro. Además, uno de los objetivos planteados es el desarrollo de un artículo (tipo review) tratando una revisión mas profunda sobre las propiedades y aplicaciones de las nanopartículas de oro, el cual se encuentra en fase de desarrollo.
Hernández Pérez Adriana, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Cecilia Chapa Balcorta, Universidad del Mar
SISTEMA DEL CO2 Y ACIDIFICACIóN EN BAHíAS DE HUATULCO, OAXACA, MéXICO
SISTEMA DEL CO2 Y ACIDIFICACIóN EN BAHíAS DE HUATULCO, OAXACA, MéXICO
Hernández Pérez Adriana, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Cecilia Chapa Balcorta, Universidad del Mar
PLANTEAMIENTO DEL PROBLEMA
El carbono es uno de los principales elementos que componen la materia orgánica que constituye a los seres vivos, lo cual, lo hace importante para conocer tanto su origen y su ciclo, así como también sus reservorios o almacenes en el ecosistema marino (Chapa-Balcorta et al., 2019). En la actualidad, las actividades antropogénicas han promovido el desplazamiento y aumento de CO2 hacia la atmósfera provocando variaciones de temperatura de escala global y debido a la alta capacidad de absorción de CO2 propia de los océanos, hay aproximadamente 60 veces más presencia de este compuesto gaseoso en los océanos que en la atmósfera (Hudson, 2017). Al absorber CO2 se producen efectos no deseados, como la disminución de pH, lo cual ocasiona que el agua de mar se acidifique, especialmente en la capa superior de los 100 metros; a este fenómeno se le conoce como acidificación del océano (INP, S/F). La acidificación del océano tiene consecuencias negativas para una gran cantidad de especies marinas de importancia ecológica y económica, por lo cual, el proyecto se enfoca específicamente en evaluar el cambio de la acidificación en el tiempo entre temporadas en las Bahías de Huatulco, localizadas en el estado de Oaxaca
METODOLOGÍA
En la metodología se redacta exclusivamente el trabajo realizado con la base de datos proporcionada por la asesora la Dra. Cecilia Chapa Balcorta
Se proporcionaron documentos de investigaciones realizadas previamente relacionados con el tema con la finalidad de tener conocimientos básicos del mismo; las dudas puntuales que surgieron fueron resueltas con la asesora mediante una reunión en la plataforma Skype
Los datos generados de mediciones insitu con el equipo oceanográfico que mide temperatura, salinidad, oxígeno y pH a 20 metros de profundidad fueron proporcionados por la asesora
Se utilizó el software Python 4.6.12 , con la finalidad de acceder y trabajar la base de datos
Se realizaron gráficas de series de tiempo para conocer el comportamiento de cada una de las variables estudiadas (pH, Oxígeno Disuelto (OD), temperatura y salinidad) durante los años 2016 y 2017
Se determinó la desviación estándar y se realizaron gráficas tanto diurnas como nocturnas para conocer el comportamiento de nuestras variables y determinar cómo y cuánto varían, así como la influencia del ecosistema marino en los resultados
Se realizaron pruebas de correlación con cada una de las variables
Se graficó la regresión lineal de nuestra variable de interés: pH con respecto a las otras variables para saber si existe una progresión en la acidificación del océano
CONCLUSIONES
Aún se continúa trabajando y analizando la base de datos del proyecto; los resultados preliminares muestran que tomando los valores tanto del año 2016 como del 2017, el pH promedio de la zona es de 7.87 y se encuentra por debajo del promedio global (pH de 8.0-8.3) ocasionando afectaciones a algunos organismos sensibles a la acidificación, si el pH disminuye; de igual manera los resultados arrojaron una temperatura promedio fue de 26.69°C, en el caso de la variable salinidad se obtuvo un valor promedio de 32.57; finalmente para el oxígeno disuelto (OD), el valor promedio medido fue de 4.44 mg/L, el cual se encuentra por debajo del valor establecido para una calidad de agua marina óptima (rango de 7.0 - 8.0 mg/L). Los coeficientes de correlación indican cuánto influyen las variables temperatura, salinidad y OD en nuestra variable de interés pH, es decir, al aumentar o disminuir una, aumenta o disminuye la otra variable. El pH tiene una alta correlación con el OD (0.61), con la salinidad tuvo un valor de 0.49, mientras que con la temperatura su correlación fue de 0.13. En cambio el OD tuvo mayor correlación con la temperatura con un valor de 0.63 y el pH con un valor de 0.61. En cuanto a las variaciones diurnas y nocturnas no se encontraron diferencias significativas. Cabe mencionar que nuestro sitio de estudio cuenta con la influencia del Río Copalita, donde se ha demostrado que representa una fuente importante de carbonatos, teniendo impactos importantes ecológicamente hablando ya que es una fuente constante de carbonatos para los organismos calcificadores de la zona.
Hernández Villamizar Daniela, Universidad de Pamplona
Asesor:Dra. Katrin Sieron, Universidad Veracruzana
ANáLISIS ESTADíSTICO PARA DETERMINAR LA PROBABILIDAD DE OCURRENCIA DE NUEVA ACTIVIDAD VOLCáNICA EN LA PROVINCIA TECTóNICA SAN DIEGO-CERRO MACHíN, COORDILLERA CENTRAL, ANDES COLOMBIANOS.
ANáLISIS ESTADíSTICO PARA DETERMINAR LA PROBABILIDAD DE OCURRENCIA DE NUEVA ACTIVIDAD VOLCáNICA EN LA PROVINCIA TECTóNICA SAN DIEGO-CERRO MACHíN, COORDILLERA CENTRAL, ANDES COLOMBIANOS.
Hernández Villamizar Daniela, Universidad de Pamplona. Asesor: Dra. Katrin Sieron, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
El volcán Nevado del Ruiz presenta una historia eruptiva compleja a lo largo del tiempo geológico, sin embargo, ha sido centro de estudio de numerosas investigaciones tras su última erupción de 1985, que desencadenó la peor catástrofe natural en la historia de Colombia, ocasionando la pérdida total del municipio Armero, tras el lahar que se formó por la emanación de flujos piroclásticos (Ceballos et al., 2020).
En los últimos 13.000 años de su historia eruptiva se registran 14 erupciones de las cuales las últimas tres han ocurrido en tiempos históricos: 1595, 1845 y 1985. A partir de las investigaciones previas que se han realizado nace la siguiente pregunta de investigación ¿Cuál es la probabilidad de que se genere una nueva erupción en el volcán Nevado del Ruiz? Buscando generar conocimiento geocientifico, que informe y prevenga a las comunidades o asentamientos humanos localizados en la zona de influencia del volcán.
METODOLOGÍA
La metodología seguida para la ejecución de este proyecto se divide en 4 fases:
Fase A: Compilación y evaluación de información geocientífica de investigaciones previas en la zona de estudio.
Fase B: Extracción de datos necesarios para la investigación, y construcción de las bases de datos.
Fase C: Tratamiento y manejo de datos bajo el uso del software R, practicando análisis estadísticos con el Ajuste de distribución Weibull para el caso de una futura erupción del Nevado del Ruiz y la función de densidad KERNEL para determinar la región más propensa a presentar actividad volcánica en la provincia tectónica San Diego-Cerro Machín.
Fase D: Análisis e interpretación de los resultados obtenidos de la aplicación de modelos estadísticos.
Fase C: Redacción de los resultados obtenidos en modo resumen científico.
CONCLUSIONES
Mediante el uso de herramientas estadísticas, se estimó la probabilidad de ocurrencia de una nueva erupción en el Nevado de Ruiz con 0.39 para los siguientes 150 años. Sin embargo, se reconoce que probablemente la serie de datos no está completa, particularmente para tiempos > 3500 años antes del presente (AP) y nuevas identificaciones de productos relacionados a erupciones pasadas modificarían los resultados. Casi 300 años tendrán que pasar para que la probabilidad de ocurrencia se acercara al 1.
Sin embargo, en la provincia tectónica San Diego-Cerro Machín no solamente se encuentran volcanes longevos (estratovolcanes por ejemplo) con la actividad volcánica proveniente predominantemente del cráter central, sino también existen campos volcánicos monogenéticos.
En estos casos es interesante observar los patrones de nacimientos de volcanes en el espacio y el tiempo para poder tener una noción en cuales regiones es más probable que nazca un nuevo volcán de este mismo tipo (volcanes monogenéticos). En el segmento de la provincia volcano-tectónica San Diego-Cerro Machín, se observan distribuciones de centros eruptivos fuertemente influenciado por la existencia de fallas N-S y W-E y una máxima probabilidad de nacimientos de volcanes en el sector N (distribución E-W) y centro-sur (distribución N-S) de acuerdo a los análisis (distribución kernel) realizados con R.
Herrera Soto José Alberto, Universidad Autónoma de Sinaloa
Asesor:Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
GRAFICACIóN DE POLINOMIOS EN 2D EN AMBIENTE VISUAL DE PYTHON.
GRAFICACIóN DE POLINOMIOS EN 2D EN AMBIENTE VISUAL DE PYTHON.
Figueroa Rodríguez Ana Sofia, Benemérita Universidad Autónoma de Puebla. Herrera Soto José Alberto, Universidad Autónoma de Sinaloa. Asesor: Dr. Moisés Cywiak Garbarcewicz, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Es sabido que actualmente muchos cientificos o investigadores, grafícan de forma automática en Python usando diferentes paqueterias que este lenguaje de programación trae consigo. Nosotros nos dimos la tarea de graficar diferentes polinomios de una forma diferente, para de esta forma no depender tanto de estas paqueterias, que a veces puede mostrarnos gráficas que no son correctas o que no representan reealmente la realidad.
Con la asesoría del Dr. Moisés Cywiak Garbarcewicz comenzamos desde la instalación de las bliotecas que fueron necesarias para la implementación de nuestro proyecto hasta el desarrollo final del mismo.
METODOLOGÍA
Python es un lenguaje de programación de código abierto, fácil e intuitivo creado en 1989 por Guido Van Rossum. Actulmente es común encontrar aplicaciones y servicios que han sido programados mediante este lenguaje, además de que cada vez más científicos e ingenieros lo utilizan para desarrollar muchos de sus proyectos.
Por otra parte, Kivy es una biblioteca diseñada y desarrollada en Python, útil para la creación y desarrollo de aplicaciones, mismo que es compatible con diversos dispositivos como Computadoras (MacOSX, Windows, Linux), Celulares (Android iOS) y Tabletas en general. Kivy es una biblioteca estable y cuenta con una gran cantidad y variedad de herramientas, además de que es sencillo trabajar en conjunto con otras librerias.
Primero nos dimos la tarea de descargar diferentes librerias para el correcto funcionamiento del programa que realizamos, estas son
Docutils
Pyments
Pywin32
Para instalar las librerias sera necesario abrir la consola o CMD de windows y ubicar la siguiente dirección "../Python/scrips" una vez en esa ubicación usamos "pip" para instalar estas librerias un ejemplo de como hacer esto es:
pip install docutils (Esto debe ser escrito en el CMD para que este descarge e instale la libreria que necesites).
Lo anterior se debera repestir con cada libreria una vez estén instaladas, el siguiente paso a realizar es instalar kivy, para está instalación debera ser necesario seguir el orden en el cual estaran escritas a continuación:
pip install kivy_deps.sdl2
pip install kivy_deps.glew
pip install kivy_deps.gstreamer
pip install kivy_deps.angle
pip install kivy
La siguiente libreria es opcional:
6. pip install kivy_examples
Despues generaremos una nueva carpeta la cual se pueda identificar, en esta carpeta crearemos dos archivos uno con extención .kv y otro con .py, el que tenga la extención .kv contendra todo lo que sea visual o que permita interactuar con la aplicación donde se mostraran los polinomios, en el archivo .py pondremos las intrucciones que dictan como serán los polinomios.
Como preambúlo e introducción dibujamos en el programa algunas figuras tales como una estrella, un rectángulo y triángulo, de una manera más convencional y con mayor cantidad de instrucciones para la graficación de las mismas. A partir de esto, se buscó optimizar nuestros dibujos, con comandos sencillos de la biblioteca para concluir con un proyecto más avanzado.
Los primeros polinomios que dibujamos fueron un triángulo, uun rectángulo y por ultimo un pentágono, tambien agregaremos un boton para dibujar estas figuras y otro para borrarlas, por ultimo realizamos un poco de teoria para poder girar las figuras, estas estaran vinculadas a dos botones uno para girar a la derecha y otro a la izquierda. Creando una aplicación capaz de dar los comandos para hacer aparecer las figuras, girarlas, detenerlas y borrarlas.
CONCLUSIONES
Durante este verano cientifico fuimos capaces de desarrollar aun más nuestras habilidades de programación, las cuales nos serviran en el futuro, a parte de una mayor comprensión sobre la creación de polinomios y gráficas, lo cual es necesario para el desarrollo de las investigaciones como una interpretación de los datos que se obtienen en estas. Además de aprender como es que la computadora se comporta con el codigo que nosotros escribimos, refierindonos a como es que la aplicación se comunica con el CPU y el SO.
Finalmente podemos concluir que esta experiencia además de cumplir con sus objetivos nos deja la satisfacción del aprendizaje, mismo que es valioso entre la comunidad científica y nos ayudará en nuestro crecimiento profesional.
Hurtado Ocampo Valentina, Institución Universitaria Colegio Mayor de Antioquia
Asesor:M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
DETERMINACIóN DE LA CAPACIDAD ADSORBENTE DE CARBONES ACTIVADOS A PARTIR DE PRECURSORES ORGáNICOS MEDIANTE LA TéCNICA DEL NúMERO DE YODO
DETERMINACIóN DE LA CAPACIDAD ADSORBENTE DE CARBONES ACTIVADOS A PARTIR DE PRECURSORES ORGáNICOS MEDIANTE LA TéCNICA DEL NúMERO DE YODO
Hurtado Ocampo Valentina, Institución Universitaria Colegio Mayor de Antioquia. Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
El CA es un adsorbente poroso, considerado como una de las más importantes tecnologías aplicadas comúnmente en procesos contaminantes presentes en sistemas acuosos, suspensiones y otras sustancias solubles.
Algunas desventajas de emplear este tipo de adsorbentes son los elevados costos comerciales, como alternativa a esta problemática, Iwar et al., (2021) sostiene que hay un creciente interés en la síntesis de CA a partir de biomasa renovable y rentable, con precursores basados en desechos industriales y agrícolas, (De La Cruz et al., 2012) plantea que en materia ambiental, el creciente empleo de carbón activado a partir de desechos agrícolas se debe a su contribución en el tratamiento de aguas, purificación de aire y controladores de emisiones de automóviles.
En México, la cantidad anual de residuos agrícolas oscila entre 45 millones de toneladas de materia seca para los principales cultivos, en el periodo de 2008 a 2011 el estado de Tabasco produjo alrededor de 166,833 toneladas de este tipo de residuos (SAGARPA, 2015). la ONU, (2020) expone que muchos agricultores consideran que la quema agrícola es la forma más eficaz y rentable de limpiar la tierra, fertilizarla y prepararla para una nueva plantación. Sin embargo, estas quemas y los incendios forestales que se propagan a partir de éstas son la mayor fuente de carbono negro del mundo.
La implementación de desechos de biomasa como precursores de CA proporciona una opción de eliminación de desechos sostenible, en contraposición a la práctica común de quema al aire (Jjagwe et al., 2021), sin embargo, la carbonización y activación de este tipo de materiales está influenciada por diversas variables que incluyen; tipo y naturaleza del precursor, temperaturas de carbonización / activación, tiempo de residencia, tasa de flujo de gas o relación de impregnación química, concentración de agente activante y tipo de agente activante entre otros. (Iwar et al., 2021).
El presente estudio, pretende determinar la capacidad de adsorción del carbón activado de diferentes materiales lignocelulósicos como cascara de cacao y raquis de plátano a diferentes condiciones de temperatura y tiempo de residencia en la activación del material, con el fin de optimizar la adsorción del carbón y comparar los resultados obtenidos a partir de la aplicación de la técnica del número de yodo.
METODOLOGÍA
Pretratamiento de precursores: La cascara de cacao y el pinzote de plátano fueron trituradas, para disminuir su tamaño, y cribadas mediante un tamiz malla #10.
Carbonización: El proceso de carbonización se hizo mediante una desgasificación de cada muestra sometidas a 300°C durante 30 minutos. Este procedimiento de hizo ingresando una cantidad de muestra dentro de un tubo de cuarzo, el cual se tapó con mallas de acero en los extremos. Este tubo de cuarzo se colocaba dentro de un tubo de acero, el cual está conectado a un flujo de 200 ml/min de N2, dentro de una mufla convencional.
Activación: El proceso supuso el ingreso de las muestras previamente carbonizadas en un tubo de cuarzo considerando 11 condiciones diferentes de temperatura (300 a 600°C) y tiempo (30 a 90 min). La activación de las muestras se realizó físicamente mediante vapor de agua a un flujo de presión de 10 a 20 psi, de un sistema que consta de una autoclave conectado a una mufla convencional
Determinación de la capacidad de adsorción: La determinación del número de yodo se hizo con base en la norma ASTM-D 4607 Standard Test Method for Determination of Iodine Number of Activated Carbon.
Diseño experimental y análisis estadístico: Se empleo un diseño central compuesto que incluyó una estrella (valores extremos) de las condiciones establecidas, así como replicar una condición central. Se obtuvieron 11 réplicas. Como variable de respuesta se utilizaron los valores de adsorción obtenidos mediante el método de índice de yodo.
El análisis estadístico de los datos se hizo con el método de superficie de respuesta, analizando las interacciones que existen entre las variables que influyen en la capacidad de adsorción del carbón activado. Por último, se hizo un análisis de optimización, en el cual se obtuvieron las condiciones necesarias para maximizar la capacidad de adsorción del CA.
CONCLUSIONES
Según los resultados de adsorción obtenidos de mg de yodo por gramo de carbón las condiciones de activación influyen directamente en la capacidad de adsorción del mismo, las condiciones que representan un mayor número de yodo son 30 minutos y 300°C, lo que indica que la temperatura elevada y los tiempos prolongados en el proceso de activación, además de que suponen costos económicos más elevados, no son necesarios para lograr la síntesis y activación de materiales con características físicas como la porosidad, que permiten una mayor adsorción de contaminantes
El índice de yodo para el material carbonizado y activado a partir de pinzote de plátano fue variante en cada condición; los resultados obtenidos se encuentran en un rango con un valor mínimo de 933 mg/g y máximo de 1124,5 mg/g, se evidencia que la mayor adsorción de yodo por gramo de carbón activado se reflejó en la condición de 30 minutos y 300°C de activación, la cual hace referencia a una de las menores del diseño experimental en cuestión; los hallazgos fueron superiores a los obtenidos por (De La Cruz et al., 2012) quienes reportaron un índice de yodo para muestras carbonizadas con N2 y activadas físicamente con vapor de agua de 106,48 mg/g a 800°C y 60 minutos como valor mínimo y 247,42 mg/g a 300°C y 90° como valor máximo de adsorción.
El análisis de superficie de respuesta para el precursor de raquis de plátano indica un valor óptimo de adsorción de 1110,38 mg/g para lo cual las condiciones óptimas de activación son 28,6051 minutos y 237,868 °C, estos factores se encuentran en los extremos del diseño (estrellas), se evidencia un comportamiento de adsorción del precursor lignocelulósico en donde a una menor temperatura y a un menor tiempo se maximiza la adsorción de yodo por gramo de carbono
Jiménez Figueroa Dante, Universidad de Guadalajara
Asesor:Dr. Mauricio Esteban Chacón Tirado, Benemérita Universidad Autónoma de Puebla
UN DENDROIDE X QUE ADMITE UNA SELECCIóN Y NO ES RETRACTO POR DEFORMACIóN DEL HIPERESPACIO C(X)
UN DENDROIDE X QUE ADMITE UNA SELECCIóN Y NO ES RETRACTO POR DEFORMACIóN DEL HIPERESPACIO C(X)
Jiménez Figueroa Dante, Universidad de Guadalajara. Asesor: Dr. Mauricio Esteban Chacón Tirado, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Los continuos han sido estudiados desde los tiempos de la antigua Grecia, aunque fue Georg Cantor quien presentó la primera definición para un continuo en 1883. Los hiperespacios fueron introducidos como ojbjeto de estudio por F. Haurdorff y L. Vietoris a inicios del siglo XX, y hasta la fecha siguen siendo un área de investigación activa. Matemáticos relevantes en el estudio de hiperespacios son D. Pompéiu, K. Borsuk, E. Michael, T.Wazewski, S. Mazurkiewiez, James E. West, S. Nadler, A. Illanes y más.
Una pregunta que se intenta responder acerca de los hiperespacios es la existencia de algunas implicaciones presentes en la relación entre un continuo X y su hiperespacio de subespacios conexos C(X); específicamente, implicaciones de los siguientes enunciados:
F1(X) es un retracto por deformación fuerte de C(X).
F1(X) es un retracto por deformación de C(X).
F1(X) es una retracción de C(X)
C(X) admite una selección.
Hay algunas implicaciones que son claras: 1 implica 2, 2 implica 3 y 4 implica 3. Sin embargo, las condiciones en las que otras implicaciones ocurren sigue siendo una pregunta abierta. En este trabajo se construye un continuo que ilustra cómo la afirmación 4 no implica la afirmación 2.
METODOLOGÍA
El primer concepto que se debe conocer es el de qué es un continuo, así como un tipo relevante de continuos.
Continuo: un espacio métrico es llamado continuo si es compacto y conexo.
Espacio unicoherente: un continuo es llamado unicoherente si cualesquiera dos subcontinuos propios tales que su unión es igual al espacio completo tienen intersección conexa. Un espacio es hereditariamente unicoherente si cualquier subcontinuo es unicoherente.
Dendroide: Un dendroide es un continuo arco-conexo y hereditariamente unicoherente.
Ahora bien, es necesario definir algunos conceptos para poder saber qué es un hiperespacio.
Nube: para un continuo X, un subconjunto A de X y un número r mayor a 0, la nube con centro en A y radio r es el conjunto formado por la unión de las bolas abiertas con centro en los elementos de A y radio r.
Para un continuo X, 2X denotará el conjunto de los subespacios no vacíos cerrados de X.
Métrica de Hausdorff: La métrica de Hausdorff es una métrica definida sobre 2X. Para dos elementos A y B de 2X, la métrica de Hausdorff se define como el ínfimo de las r mayores a 0 tales que A está contenido en la nube con centro en B y radio r, y viceversa.
Topología de Vietoris: La topología de Vietoris es la topología generada por la métrica de Hausdorff en el conjunto de subespacios cerrados no vacíos de un continuo X.
Conociendo la topología de Vietoris sobre el conjunto 2X, es posible definir qué es un hiperespacio.
Hiperespacio: Un hiperespacio del continuo X es cualquier subespacio del espacio de subconjuntos cerrados no vacíos de X con la topología de Vietoris.
Para un continuo X, C(X) denotará el conjunto hiperespacio de los subespacios cerrados, no vacíos y conexos de X.
F1(X) denotará el hiperespacio formado por los conjuntos unipuntuales de todos los elementos de X.
El objeto de estudio de este trabajo es la interacción entre ciertas funciones relevantes definidas para un continuo X y su hiperespacio C(X).
Retracción: Para un continuo X y un subcontinuo Y de X, una retracción de X en Y es una función continua r de X en Y tal que r(y)=y para cada elemento y de Y.
Retracción por deformación: Una retracción por deformación de un continuo X en un subcontinuo Y es una función continua que va del producto cartesiano de X con el intervalo cerrado [0,1] tal que para todo elemento x de X y todo elemento y de Y se cumple que f(x,0)=x, f(y,1)=y, y también f(x,1) es un elemento de Y.
Selección: para un continuo X y un hiperespacio H de X, una selección es una función continua r que va de H en X tal que r(A) es un elemento de A para todo A en H.
Conociendo las funciones con las que se trabajarán es posible estudiar las condiciones bajo las que se cumplen las implicaciones mencionadas en el planteamiento. También, al ser los dendroides una clase importante de continuos, es importante conocer las condiciones específicamente para dendroides. Un resultado importante para esto es el siguiente.
Proposición: Si un continuo X es tal que existe una selección en C(X), entonces X es un dendroide.
Sabiendo todo lo anterior es posible empezar a estudiar qué implicaciones son ciertas.
CONCLUSIONES
Utilizando los conceptos y los resultados expuestos anteriormente, fue posible construir un espacio X tal que C(X) admite una selección, pero F1(X) no es un retracto por deformación de C(X). El espacio construdo fue un subespacio del espacio euclideano de 3 dimensiones, formado por una cruz en el plano XY y una unión numerable de segmentos de recta conectados a la cruz en un solo punto. Primero se definió una selección en C(X), (lo que muestra que X es un dendroide), y después se demostró por contradicción que F1(X) no es un retracto por deformación de C(X).
Jimenez Santiago Luis Armando, Instituto Tecnológico Superior Purépecha
Asesor:M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
ENTRENAMIENTO DE UN SISTEMA DE TRADUCCIóN AUTOMáTICA ESTADíSTICA (TAE) EN MTRADUMATICA, PARA LA INTERPRETACIóN DE TEXTOS DEL IDIOMA ESPAñOL A LA LENGUA P’URHéPECHA COMO APOYO EN EL CONOCIMIENTO Y DIVULGACIóN DE LA CULTURA P’URHéPECHA.
ENTRENAMIENTO DE UN SISTEMA DE TRADUCCIóN AUTOMáTICA ESTADíSTICA (TAE) EN MTRADUMATICA, PARA LA INTERPRETACIóN DE TEXTOS DEL IDIOMA ESPAñOL A LA LENGUA P’URHéPECHA COMO APOYO EN EL CONOCIMIENTO Y DIVULGACIóN DE LA CULTURA P’URHéPECHA.
Jimenez Santiago Luis Armando, Instituto Tecnológico Superior Purépecha. Asesor: M.C. Miguel Angel García Trillo, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
De acuerdo a cifras de del INEGI en 2020 se registraron 128,620 hablantes de la lengua p’urhépecha, por lo que se estima que esta lengua no se encuentra en riesgo de desaparecer, sin embargo, el atesoramiento y conservación de una lengua no debe de ser algo que se deba promover cuando esté a punto de desaparecer, si no que ahora en siglo XXI donde la tecnología se ha vuelto parte de nuestra vida cotidiana la implementación de sistemas que permitan el avance en el rescate y prolongación de la lengua materna es de suma importancia.
Es por ello que como estudiante de una institución que se ubica en el corazón de la meseta p’urhépecha, surge la inquietud de promover la apreciación y el dar a conocer nuestra lengua materna a partir de este proyecto que se realizara en el marco del verano de la investigación científica y tecnológica del pacifico en su edición XXVI.
METODOLOGÍA
Se investigo ¿que comprende la traducción? ¿qué es un traductor? ¿qué es la traducción automática estadística? Con la finalidad de definir más a detalle cómo funcionaría este proyecto, posteriormente y ya con conocimientos, se tuvo que Investigar ¿cuáles son los motores que nos permiten realizar esta traducción automática estadística? Para lograr precisar que trabajaríamos con el motor denominado Moses, el cual nos permitiría realizar esta traducción automática al contar con grandes herramientas y dependencias.
Se presentan los recursos necesarios para llevar a cabo la traducción, en primer lugar necesitamos una máquina virtual diseñada en virtual box o cualquier otro sistema de virtualización, ya con nuestra maquina se procede a instalar el sistema operativo Ubuntu en su versión 20.04 ya que el Moses y sus dependencias funciona mediante este sistema operativo y para dar inicio al proceso de instalación es necesario consultar diferentes sitios web donde se explicaba a detalle los comandos necesarios para la disposición de moses, como sabemos Ubuntu trabaja partir de una terminal y es necesario contar con comandos precisos
De acuerdo al motor que vamos a utilizar nos pide un par de Corpus, es decir, un conjunto de frases alineadas con su respectiva traducción en dos documentos, el primero correspondiente a la lengua origen el español y el otro documento que pertenecería a la lengua de llegada, en este caso el p’urhépecha, ambos escritos deberán estar alineados a manera de que al unirlos cada frase quede con su respectiva traducción, algo importante destacar es que al trabajar con moses o cualquier suite del mismo, nos piden mono textos, bitextos y un modelo de lengua, para lograr un buen entrenamiento.
Contando con Moses y con los demás recursos, se inician pequeñas pruebas en las cuales no se podrá admirar un gran avance en el desarrollo del proyecto, sin embargo, resultando un poco difícil desarrollar este intérprete a partir de líneas de comando en terminales, optamos en buscar dentro de las herramientas que nos brindará moses para lograr un mejor desarrollo, implementación e incluso la opción de compartir el traductor, y que de esta forma orientarnos a un enfoque didáctico y fácil de utilizar para diferentes usuarios, ya que lo que se pretende es dar a conocer más nuestra lengua madre.
Una vez se investiga encontramos una suite muy particular de Moses y denomida Mtradumatica, la cual permite entrenar sistemas de traducción automática estadística mediante una interfaz gráfica web, que facilita mucho el proceso de entrenamiento, carga, traducción e inspección, así que ahora la atención debe estar un poco más focalizada en los corpus que serán la base de nuestro traductor y alimentarían al sistema para el correcto funcionamiento.
Para los corpus es necesario recurrir a diferentes fuentes de información, desde consultar a diferentes personas hablantes de la lengua purépecha, así como revistas, libros, entre otros, con la finalidad de obtener pequeñas frases u oraciones, en español y p’urhépecha. con el objetivo alimentar los corpus base del sistema, pasado el tiempo de la recopilación tendríamos que conseguir un aproximadamente 1000 frases u oraciones alineadas, con las cuales bastaría para hacer apenas pequeñas traducciones.
hemos pasado por los procesos instalación, recopilación, organización, creación de mono textos, bitextos, modelos de lengua, hasta llegar al punto de entrenar el sistema de traducción donde se pueden ver los frutos del esfuerzo y la dedicación constante, consiguiendo unas traducciones que, aunque pequeñas muy significativas en el proceso de aprendizaje.
CONCLUSIONES
Durante esta estancia de verano se logró poner en práctica algunos de los conocimientos que se reciben dentro de la carrera de ingeniería en sistemas computacionales además de adquirir muchísimos conocimientos teóricos y prácticos, en base a las investigaciones, asi mismo, se logra conocer y comprender la importancia que tiene la preservación de las lenguas indígenas dentro de los estados que aún conservan.
Es cierto que se a logrado entrenar un sistema de traducción automática que aún no está del todo bien ya que las traducciones son un tanto imprecisas, que generando un corpus más grande lograremos resultados más eficientes, en primer momento se considera que utilizar Mtradumatica está bien para un primer acercamiento a la traducción.
Actualmente falta encontrar una forma en la que el traductor pueda ser compartidos, no obstante se trabajó con una interfaz web, asi que se debe seguir innovando e incluso conocer más a detalle cómo funcionan estas redes neuronales, podemos mostrar nuestro pequeño sistema de traducción automática con orgullo ya que es el resultado de una investigación constante y es algo que no todos puedan hacer
Jiménez Valdez Miriam, Benemérita Universidad Autónoma de Puebla
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
COMPARACIóN ENTRE LOS MéTODOS DE APROXIMACIóN PARA LA PRECESIóN DEL PERIHELIO DE MERCURIO
COMPARACIóN ENTRE LOS MéTODOS DE APROXIMACIóN PARA LA PRECESIóN DEL PERIHELIO DE MERCURIO
Jiménez Valdez Miriam, Benemérita Universidad Autónoma de Puebla. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
En el presente trabajo se hace un recuento sobre el problema de la precesión en el perihelio de Mercurio que históricamente ha sido de gran importancia, puesto que sirvió para el desarrollo de la relatividad general . Además, se comparan distintos modelos ya conocidos que describen las órbitas de movimiento de Mercurio, también se analizan la precisión que tienen los cálculos en cada modelos con el movimiento real del planeta, para de esta forma ver cuál modelo da una mejor aproximación.
METODOLOGÍA
Por medio de la base de datos de Horizons JPL/NASA se generan efemérides de Mercurio, de tal forma que se obtienen los datos del movimiento real del planeta (posición y velocidad), se obtienen los parámetros orbitales, estos corresponden a los del movimiento real del planeta.
Por otro lado, se desarrolla cada uno de los métodos, iniciando desde el problema de Kepler, para el cual se calcula la energía del sistema Sol-Mercurio y momentos (angular y lineal), posteriormente se calculan los parámetros orbitales y se comparan con los del movimiento real.
Se realiza el mismo procedimiento para los otros métodos.
CONCLUSIONES
Se espera ver qué tanta diferencia hay de un cálculo a otro, para el problema de Kepler y los otros métodos
Keb Mendez Adrian Antonio, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche
PERFILES PLAYEROS MEDIANTE EL LEVANTAMIENTO DE DATOS EN CAMPO OBTENIDAS CON EL USO DE DRONES O VEHíCULOS AéREOS NO TRIPULADOS (VANT) EN PLAYA BONITA, CAMPECHE
PERFILES PLAYEROS MEDIANTE EL LEVANTAMIENTO DE DATOS EN CAMPO OBTENIDAS CON EL USO DE DRONES O VEHíCULOS AéREOS NO TRIPULADOS (VANT) EN PLAYA BONITA, CAMPECHE
Keb Mendez Adrian Antonio, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dr. Gregorio Posada Vanegas, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
Se pretende responder y aportar información a la comunidad educativa en relación la utilización de Vehículos Aéreos No Tripulados (VANT) comúnmente llamados drones, en este caso en particular se emplearon datos de levantamiento de perfiles playeros en playa bonita, Campeche.
(Guevara Bonilla, y otros, 2020) El desarrollo tecnológico de los vehículos aéreos no tripulados, VANT´s da acceso a nuevas aplicaciones en múltiples campos de la ciencia y la ingeniería. Ante el desarrollo que presentan los VANT, es de utilidad conocer las principales características y componentes de estos equipos utilizados con fines prácticos para la ingeniería civil, los trabajos relacionados y su uso potencial en las diferentes áreas de aplicación. Los usos emergentes de los VANT están asociados con la aplicación de técnicas geoespaciales y sensores para caracterizar la variabilidad espacial y temporal con fines de levantamiento de perfiles en este caso en particular, y con ello definir estrategias de manejo.
En la última década se han publicado múltiples trabajos sobre el uso de VANT en diversas áreas del saber humano. Los estudios también indican que estos vehículos son de gran utilidad para el monitoreo y supervisión de la superficie terrestre a través de imágenes georreferenciadas de alta resolución espacial, temporal, y espectral de baja altura. Sin embargo, existen restricciones para su adopción debido a su costo inicial, entrenamiento y software requerido, y regulaciones cada vez restrictivas para su uso.
¿Qué es un dron?
Tienen su origen en el contexto militar, se diseñó este tipo de robot aéreo con cámaras, GPS y toda clase de sensores, para ser usado como arma, para misiones de combate o vigilancia. Sin embargo, en la actualidad el uso de estos aviones, va más allá de buscar un fin bélico, su venta y distribución está orientada hacia diversos usos, como por ejemplo: en los estudios científicos, para la toma de fotografías y videos, entre otros. Suele estar equipado con una cámara u otras herramientas, según el tipo de función para la que está diseñado. Aunque su origen se remonta a fines militares, su bajo costo y funcionalidad le permiten ingresar a mercados en diferentes campos económicos, brindando enormes ventajas y avances a diversas industrias. Los drones son una excelente herramienta de trabajo. A medida que se vuelven más disponibles, debido a su precio y simplicidad de uso, los fabricantes actualmente optan por usar drones en el campo con buenos resultados.
Cabe destacar que son muchas las áreas que han mejorado su operatividad y producción por los beneficios que les ofrece este vehículo. Por otro lado, todo lo que nos da hoy día: filmación en 4K, fotos en 20 mega pixeles, sistema de navegación GPS que nos permite que el dron vuelva solo al punto de partida en caso de perder señal o quedarse sin batería, posibilidad de marcarle una ruta entre muchas ventajas más.
METODOLOGÍA
Para la obtención del mosaico de fotos ortorectificado, (Garcia Balan, 2021) es necesario realizar tres pasos:
1. Obtención de puntos de control,
2. Vuelo y toma de fotografías y
3. procesamiento de imágenes
CONCLUSIONES
CONCLUSIONES
En ingeniería civil, el uso de VANTs es ahora una herramienta indispensable en la toma de datos espaciales que permiten la características del terreno por medio de fotos aereas. En la actualidad en nuestro estado ya se emplea el uso de estos para la realización de tomas fotográficas aéreas en diversos puntos del estado, así como para la supervisión de mediciones geodésicas, entre otras. Los Vehículos Aéreos No Tripulados (VANT) comúnmente llamados drones están en pleno desarrollo y su aplicación en las diversas áreas del saber humano es cada vez más común, esto debido a que ofrece la posibilidad de generar imágenes de mayor resolución y frecuencia. El tiempo para realizar los levantamientos con el uso de VANT pueden reducirse significativamente a comparación de realizarlos de la manera tradicional en la que aún se realizan actualmente. El programa PIX4D es de gran utilidad para el procesamiento de las imágenes que se obtienen del dron, este software cuenta con diversas herramientas para exportar los resultados, así como resulta ser un poco intuitivo para su uso.
Laguado Carrillo Leidy Patricia, Universidad de Pamplona
Asesor:Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
ESTUDIO GEOQUíMICO DE FLUIDOS GEOTéRMICOS Y ROCA DE ALTERACIóN DE LA REGIóN CIéNEGA DE CHAPALA, MICHOACáN
ESTUDIO GEOQUíMICO DE FLUIDOS GEOTéRMICOS Y ROCA DE ALTERACIóN DE LA REGIóN CIéNEGA DE CHAPALA, MICHOACáN
Laguado Carrillo Leidy Patricia, Universidad de Pamplona. Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
El contexto geológico y geodinámico del área de influencia se desarrolla en torno a la llamada Faja Volcánica Transmexicana (FVTM), la cual, corresponde a un arco magmático continental desarrollado en la franja suroccidental de la placa norteamericana como producto de la subducción hacia el Este de las placas Rivera y Coco en torno a la trinchera mesoamericana.
La Ciénaga de Chapala se encuentra ubicada en el estado de Michoacán, Ocampo al este del rift de Citala en la parte occidental de FVTM, los rasgos morfoestructurales que permiten el ascenso de fluidos geotérmicos a la región se desarrollan en torno a la unión de tres depresiones tectónicas: al Norte el Rift Tepic-Zacoalco y al Este el Rift Colima que confluyen en el Rif Cítala al sur de Guadalajara (Gómez-Tuena et al, 2005) y donde el volcanismo emplazado en esta área se caracteriza por la presencia de volcanes monogenéticos (Ferrari, L. 2000). El graben de Chapala está controlado tectónicamente en el flanco sur por la falla de Pajacuarán y en el flanco norte por la falla Ixtlán.
La actividad geotérmica en esta área se ve influenciada por la presencia de manifestaciones hidrotermales (manantiales termales, fumarolas, pozos de agua caliente y volcanes de lodo) superficiales conducidas por fallas regionales (en este caso las fallas de Pajacuarán e Ixtlán) y en muchas ocasiones dichos manantiales se encuentran alineados con la zona de fractura, además, comprende temperaturas superficiales aproximadas entre 30° a 94°C (para el caso de los prospectos de Ixtlán de los Hervores y Los Negritos), no obstante, las aguas de estos manantiales tienen una composición clorurada sódica con concentraciones de boro y presentan un marcado enriquecimiento de oxígeno-18, lo cual indica características fisicoquímicas favorables para posibles reservorios geotérmicos, además, los geotermómetros han calculado temperaturas de fondo aproximadas en un rango de 150° a 243°C, es por ello, que durante el verano de investigación se estudian los fluidos geotérmicos de la zona con el fin de cumplir con el Objetivo N° 7 de Desarrollo Sostenible (ODS) de la ONU que consiste en asegurar el acceso a energías asequibles, fiables, sostenibles y modernas para todos.
METODOLOGÍA
Los estudios geoquímicos consisten en tomar muestras de agua, vapor y del material de alteración (rocas), para su posterior análisis en laboratorio con el fin de determinar los elementos mayores y menores de la muestra, así como de isótopos ambientales, conocer el origen de los fluidos, inferir temperaturas a profundidad, establecer la relación de los fluidos hidrotermales con la hidrología y la tectónica de la zona.
Para este caso se establecen tres análisis geoquímicos:
Análisis hidrogeoquimicos: determinar la concentración de tres aniones (Cl, SO4, HCO3) a muestras líquidas de las manifestaciones de la zona geotérmica de Los Negritos con el fin de conocer su composición, origen de los fluidos y el tipo de circulación a profundidad.
Estudios de mediciones de gases en la falla Pajacuaran (Peribán) para determinar la temperatura de las emanaciones del gas SO2 en la superficie.
Caracterización de roca total con Microscopía Electrónica de Barrido (MEB), el cual, consiste en generar una imagen amplificada de la superficie de las muestras analizadas mediante un haz de electrones que es incidido sobre la muestra y como producto se obtienen electrones difractados o secundarios que son captados y contados por dispositivos electrónicos para determinar elementos mayores y traza con el fin de definir anomalías geoquímicas con posibles valores económico, como en el caso de los estudios realizados mediante Microscopía Electrónica de Barrido (MEB) a muestras de rocas de la Sierra de Pajacuaran que han mostrado anomalías geoquímicas de hierro y titanio con posibles valores económico.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos relacionados con la actividad geotérmica de México en específico con las manifestaciones hidrotermales de la zona la ciénaga de Chapala, no obstante, los resultados obtenidos de estudios realizados en esta zona han establecido un posible reservorio geotérmico de amplia fracturación y esto con la posibilidad de seguir adelante con estudios más detallados con el fin de evaluar la prefactibilidad de la explotación geotérmica y mineral en el área.
Lara Omaña Axel Xavier, Instituto Politécnico Nacional
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
MONITOREO SíSMICO DE ACTIVIDAD URBANA EN LA CIUDAD DE QUERéTARO, MéXICO DURANTE EL COVID-19.
MONITOREO SíSMICO DE ACTIVIDAD URBANA EN LA CIUDAD DE QUERéTARO, MéXICO DURANTE EL COVID-19.
Lara Omaña Axel Xavier, Instituto Politécnico Nacional. Sánchez Martínez Juan Pablo, Instituto Politécnico Nacional. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Los ruidos antropogénicos desarrollados en entornos urbanos generan perturbaciones que pueden ser con ciertas reservas, un indicador valido para observar y monitorear la actividad humana en las urbes. Estos datos sísmicos proporcionan detalles similares a los que otorgan otros indicadores de movilidad más habituales, como los que provienen de la telefonía móvil o servicios de internet.
En cierta medida, nuestro país carece de redes de monitoreo sísmico urbano. Para obtener información de esta índole resulta necesario recurrir a empresas de telefonía o internet privadas lo cual es poco práctico debido a que su disponibilidad, coste y alcance son determinados por el proveedor de los mismos.
Por tanto, la principal ventaja que ofrece este tipo de monitoreo es el mayor alcance que se le puede dar al obtener registros que se asocien al tráfico, actividad industrial o actividades deportivas y la instalación de los equipos así como su mantenimiento resultan económicamente bajos.
METODOLOGÍA
El monitoreo es realizado por estaciones sismológicas de bajo costo, siendo estas compuestas por Raspberry Shake 4D, estas estaciones incorporan un geófono en la componente vertical y tres acelerómetros de sistemas microelectromecánicos (MEMS) colocados ortogonalmente, estos instrumentos tienen una versatilidad en la medición de los datos, debido a que es capaz de medir tanto movimientos fuertes en el subsuelo, así como la actividad microsísmica.
Las herramientas computacionales desarrollan un papel fundamental en las redes sísmicas y procesamiento de datos. Por temas de compatibilidad y facilidad de uso, se utilizó el sistema operativo GNU/Linux, donde el principal lenguaje de programación es Python, dado que es de carácter de cómputo científico se hace uso de la distribución libre de Anaconda, así como de Jupyter Notebook, esta herramienta permite tanto documentar el código empleado como asegurar que el código compilara en otros equipos.
También es necesario un entorno de desarrollo específico para el procesamiento de datos sísmicos, para ello se hace uso del proyecto de código abierto ObsPy. Esta herramienta proporciona analizadores para formatos de archivos comunes, acceso a centros de datos y rutinas de procesamiento de las señales sísmicas que permiten la manipulación de series de tiempo sísmicas. Con base en esto, el primer paso es poder leer los datos con las fechas en UTC, para posteriormente seleccionar el tiempo que transcurre del partido, para poder realizar una comparativa en los juegos antes y después del confinamiento. También está comparativa se puede realizar mediante los espectrogramas de frecuencias. Para posteriormente realizar análisis de ruido sísmico ambiental, el cual requiere procesos más robustos en la paquetería de ObsPy.
CONCLUSIONES
Durante la estancia de verano se logró adquirir una vasta gama de conocimientos, desde principios básicos de programación, visualización del registro sísmico, así como obtención de espectros de frecuencias, todo lo anterior haciendo uso de elementos de programación. Sin embargo, al ser un extenso trabajo aún hacen falta realizar más procesos para dar un análisis más concreto sobre los eventos que se presentan en los datos antes y después del confinamiento por COVID-19.
Liévano Urbán Christian David, Instituto Politécnico Nacional
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
OBSERVACIONES DE COSMOLOGíA ESCALAR
OBSERVACIONES DE COSMOLOGíA ESCALAR
Liévano Urbán Christian David, Instituto Politécnico Nacional. Villa Meléndez Fernanda Monserrath, Instituto Politécnico Nacional. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
A lo largo de las observaciones y avances teóricos de la cosmología, con la finalidad de realizar modelos que sean congruentes a la teoría de la relatividad general de Einstein, con la del Big Bang y la Inflacionaria, se ha tratado de explicar cada etapa de forma sintetizada y predecible, de igual forma buscando que exista una sola teoría para explicar las diferentes etapas del universo, sin necesidad de ser tan compleja.
A partir de diversos problemas y paradojas que han surgido conforme se encuentran cosas y teorías nuevas, se han generado una serie de polémicas entre cosmólogos, particularmente podemos mencionar el problema en cosmología cuántica de comprender totalmente al fenómeno de gravedad al momento de cuantizar la misma, una fuerza, si es que aún puede ser llamada así, que no es comprendida en ese sentido; de igual manera podríamos mencionar el cómo funcionaba el universo primitivo y cómo fue que se formaron las estructuras en aquel entonces, para así llegar a lo que ahora conocemos y observamos como universo.
A pesar de las complicaciones y los retos que se han presentado a lo largo de la historia, se han podido discriminar muchas teorías a partir de sus modelos, de aquí sale lo conocemos como modelo cosmológico estándar, de esta forma es como hemos podido avanzar en las observaciones e investigaciones.
Es por eso que la finalidad de nuestra investigación es constreñir la familia de modelos existentes que fueron investigados en el campo de la cosmología, por medio de las observaciones a fin de seleccionar los más adecuados.
METODOLOGÍA
Se utilizaron diversas fuentes bibliográficas y analizamos ecuaciones basándonos en la métrica de Friedmann-Lemaître-Robertson-Walker (FLRW) la cual tiene como propósito describir un universo en expansión, isótropa en el sentido de que es invariante bajo rotaciones y homogénea en el sentido de que es invariante bajo traslaciones asimismo presentar una solución exacta para las ecuaciones de Einstein de la relatividad general.
Debido a que dicha métrica se puede extender de manera que modele las variaciones de temperatura del universo se utiliza como primera aproximación para la evolución, como fluido perfecto en una geometría curva y como consecuencia que causa en la geometría de comportamiento escalar, las ecuaciones que están desarrolladas con la mencionada geometría son:
Equivalente a la primera ley de la termodinámica.
Relaciona el trabajo mecánico con las variables termodinámicas, representa la energía interna. Donde p es presión, ρ es densidad y α es el radio del universo, representado escalarmente el tamaño del radio del universo.
La siguiente es la ecuación de Raychaudhuri.
Que involucra la doble derivada del radio del universo y por lo tanto establece una relación entre la aceleración del radio del universo y la densidad y presión, otra contribución viene por la constante cosmológica, en nuestra investigación histórica Einstein desarrollo su ecuación basada en un universo estacionario y Hubble descubre que tiene relación la velocidad de expansión con la distancia de las galaxias y estrellas, la cual son separas con un factor de corrección. La 1ra y 2da ecuación están acopladas por lo que se tienen que resolver al mismo tiempo.
La 3ra y 4ta ecuación presentan una redefinición de las variables, en el análisis observamos que son ecuaciones diferenciales de segundo orden.
Una vez que analizamos las ecuaciones, realizamos cálculos sencillos para llevar a la práctica lo aprendido en lo teórico.
CONCLUSIONES
A lo largo de la estancia se conoció de manera exitosa las teorías más importantes del origen del universo, así mismo la investigación bibliográfica y por páginas web, nos dejó en claro diversos temas y paradojas existentes y resueltas por otras teorías.
Así mismo, se conocieron algunos modelos cosmológicos a lo largo de estancia que, a partir de métrica FLRW, se pudieron limitar y seleccionar siendo estas las que mejor concordaban relativamente a las características que nos da el modelo cosmológico estándar, de esta forma les dimos solución a algunas ecuaciones dinámicas en un campo escalar.
López Pinzón William Alberto, Universidad Antonio Nariño
Asesor:Dra. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas
DISCURSO DEL DOCENTE EN áLGEBRA GEOMéTRICA: DE LA FACTORIZACIóN POLINóMICA A TRAVéS DEL APRENDIZAJE BASADO EN EL JUEGO DIRIGIDA A ESTUDIANTES DE GRADO OCTAVO
DISCURSO DEL DOCENTE EN áLGEBRA GEOMéTRICA: DE LA FACTORIZACIóN POLINóMICA A TRAVéS DEL APRENDIZAJE BASADO EN EL JUEGO DIRIGIDA A ESTUDIANTES DE GRADO OCTAVO
Fonseca Rico Gina Katherine, Universidad Antonio Nariño. López Pinzón William Alberto, Universidad Antonio Nariño. Asesor: Dra. Evelia Reséndiz Balderas, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La investigación que presentamos centra su atención en el papel de la explicación en el salón de clases y discute la importancia que desempeña en el entendimiento de la factorización polinómica por parte de los estudiantes.
Si bien la participación de los alumnos en las clases de ciencias correspondientes a la educación básica ha sido tratada por Candela (1991, 1999); que la asimetría entre el papel de la explicación didáctica y la científica en la clase de matemáticas (la cual conduce a un desequilibrio entre el estatus no científico de las explicaciones didácticas) ha sido desarrollada por (Sierpinska, 1994), y que ya ha sido abordada la cuestión de la explicación en la enseñanza de las matemáticas dentro de los ciclos de la educación obligatoria (Mopondi, 1995; Josse, E. & Robert, A. 1993), en este trabajo el énfasis se ha puesto en varios planos diferenciados.
Se realiza un análisis del discurso del maestro en el aula, como una herramienta poderosa en cerrar la brecha entre la transición de la aritmética al álgebra.
METODOLOGÍA
La estrategia cualitativa considerada fue la etnografía virtual que permite nuevas relaciones, hábitos, prácticas e interacciones sociales, que no escapan al interés de las prácticas pedagógicas que acuden los docentes para hacer llegar su discurso como un valioso método que permite incorporar nuevos e importantes aportes al proceso de enseñanza-aprendizaje en medio de la pandemia que estamos viviendo.
El trabajo de campo nos llevó a cubrir varias etapas: observación de grabaciones de la situación de campo, análisis, descripción de interpretaciones de resultados, síntesis e interpretación global, integración de productos de investigación y redacción del informe.
CONCLUSIONES
El docente trabaja un discurso que invita al acercamiento de la factorización polinómica por procesos dialógicos, que invitan a un compartir del trabajo logrado, hasta llegar a una socialización de ideas que permitan lograr una puesta en común, facilitando el proceso de aprendizaje por el discurso entre los estudiantes.
La explicación se realiza de manera didáctica y creativa debido a que por la pandemia las clases se deben realizar de manera remota, utilizando ejemplos en contexto obteniendo un aprendizaje significativo. Evidenciando que en la virtualidad se requiere más trabajo de acompañamiento para atender las debilidades en el proceso de aprendizaje.
La labor del profesor de matemáticas es fundamental para desarrollar entre sus estudiantes el interés por el conocimiento, para favorecer el desarrollo de su propio pensamiento matemático y para coadyuvar al crecimiento del saber. Su trabajo normalmente se lleva a cabo de muchas maneras: al preparar sus clases, al decidir sobre los mecanismos de evaluación de los aprendizajes, al dictar su cátedra y al seguir, de alguna manera, la evolución de cada uno de sus estudiantes.
López Solís Alejandra Daniela, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
DOSIMETRíA PERSONAL DEL MéDICO ESPECIALISTA EN UN PROCEDIMIENTO DE CARDIOLOGíA INTERVENCIONISTA.
DOSIMETRíA PERSONAL DEL MéDICO ESPECIALISTA EN UN PROCEDIMIENTO DE CARDIOLOGíA INTERVENCIONISTA.
López Solís Alejandra Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Los rayos x fueron descubiertos en 1895 por Wilhelm Röntgen, este descubrimiento marcó un antes y un después en la medicina, principalmente en las áreas de terapia y diagnóstico debido a sus útiles características. Su aplicación en diagnóstico por imagen empezó inmediatamente y poco a poco se establecieron tanto los beneficios como los efectos adversos de su utilización pues rápidamente se pusieron de manifiesto los efectos biológicos que estos producían, no obstante, debido a su gran utilidad, la radiología convencional se convirtió en una herramienta fundamental en el área de la salud, al punto de promover el desarrollo de la radiología intervencionista, una especialidad médica dedicada al diagnóstico y tratamiento de problemas en los vasos sanguíneos mediante la realización de procedimientos mínimamente invasivos orientados por imágenes diagnósticas en tiempo real para guiar instrumentos al interior del cuerpo.
Dentro de las principales áreas de la radiología intervencionista, se encuentra la cardiología intervencionista (CI), una subespecialidad de la cardiología en la cual los médicos cardiólogos exploran los vasos y accesos al corazón por medio de catéteres. Los procedimientos de CI son cada vez más efectivos y se practican con mayor frecuencia, sin embargo, involucran tiempos elevados de fluoroscopia (tipo de examen de rayos X para la visualización de estructuras internas en tiempo real), lo que tiene como resultado una importante exposición de pacientes y especialistas a altos niveles de radiación, por lo que se requiere evaluar la magnitud de la dosis que reciben, a fin de poder optimizar esta exposición.
En su mayoría, los efectos asociados a la exposición por radiación podrían evitarse con una adecuada intervención preventiva. En el presente trabajo se llevarán a cabo mediciones de la dosis absorbida en diferentes partes anatómicas del especialista expuesto, durante un procedimiento de cardiología intervencionista (CI) a fin de calcular la dosis efectiva e identificar las estructuras más expuestas, teniendo así una idea de la cantidad de radiación involucrada, de esta manera, se tendrá una referencia para procedimietos posteriores y, con base en los resultados, se busca promover el uso de un equipo completo de protección radiológica en los diferentes procedimientos de cardiología intervencionista.
METODOLOGÍA
Las mediciones se realizaron en el hospital Juárez de México durante un procedimiento radiológico que fue considerado adecuado para la medición de dosis absorbida a superficie de extremidades y órganos radiosensibles del médico especialista. Para llevarlas a cabo, se colocaron múltiples detectores de radiación (dosímetros) distribuidos en partes del cuerpo próximas órganos radiosensibles del cardiologo, así como en las regiones mayormente expuestas durante el procedimiento quirúrgico. La ubicación de los diferentes detectores se enlista a continuación:.
DTL1: Lado derecho del armazón de las gafas
DTL2: Lado izquierdo del armazón de las gafas
DTL3: Lado derecho del cuello
DTL4: Lado izquierdo del cuello
DTL5: Muñeca derecha
DTL6: Muñeca izquierda
DTL7: Cresta iliaca derecha
DTL8: Cresta iliaca izquierda
DTL9 : Rodilla derecha
DTL10:Rodilla izquierda
DTL11: A la altura del pecho por debajo del mandil plomado
DTL12 : A la altura del pecho por fuera del mandil plomado
Una vez que cada uno de los sensores estaba en posición, el médico especialistas procedió a colocarse los dispositivos de protección radiológica y llevó a cabo el procedimiento que le correspondía.
Posteriormente, los detectores utilizados fueron leídos en el equipo lector TL 3500 y los valores me fueron proporcionados por el investigador Teodoro Rivera Montalvo, con estos datos se realizó el cálculo de la dosis equivalente, para posteriormente obtenener la dosis efectiva por procedimiento para el especialista que, como bien sabemos, es la cantidad que se reporta en dosimetría.
CONCLUSIONES
Se reporta la región en qué se encontró mayor radiación y la causa de este resultado. Los valores obtenidos nos dan una idea de la cantidad de radiación a la que un médico especialista está expuesto anualmente, esto se compara con la dosis limite permitida según el reglamento de seguridad radiológica, se hace énfasis en la importancia del equipo del uso del equipo de protección radiológica por parte del personal ocupacionalmente expuesto (POE), comparando las lecturas de los dosímetros 11 y 12.
Con los datos medidos se pone en evidencia que la dosis equivalente recibida es considerable, aunque ciertamente, no lo suficiente como para provocar efectos estocásticos y determinísticos para cada uno de los órganos evaluados, no obstante, el personal médico, está constantemente expuesto a radiación debido a la continuidad con la que se realizan procedimientos, lo que puede producir algún efecto dañino por dosis acumulada a cualquier miembro del personal, teniendo mayor riesgo el primer operador, debido a su cercanía a la fuente.
Los valores obtenidos en este estudio proporcionan un valor de referencia para poder comparar con la dosis que el operador principal recibirá en intervenciones posteriores y así, rápidamente identificar si se tiene alguna variación importante, ya sea debido a una mala práctica o algún otro factor para lograr su rápida corrección, buscando prever y evitar al máximo los posibles efectos biológicos que el personal pueda padecer, además, comparando lo medido con y sin protección radiológica, se presenta la importancia de utilizar esta última de acuerdo a las normas establecidas para salvaguardar la integridad del POE. El presente trabajo recomienda continuar con la dosimetría personal en todos los procedimientos de CI, cumpliendo con las normas establecidas, asegurando que cada miembro del POE porte dosímetros e inculcando la cultura de la seguridad radiológica, invirtiendo en materia de la misma para la toma de medidas a fin de optimizar seguridad de médicos intervencionistas y el resto del personal.
Loyde de la Cruz Luis Antonio, Instituto Politécnico Nacional
Asesor:Dr. Rene Loredo Portales, Universidad Nacional Autónoma de México
EFECTOS DE LA ADICIóN DE BIOMATERIALES EN LA PRODUCCIóN DE SALES EFLORESCENTES EN JALES MINEROS
EFECTOS DE LA ADICIóN DE BIOMATERIALES EN LA PRODUCCIóN DE SALES EFLORESCENTES EN JALES MINEROS
Loyde de la Cruz Luis Antonio, Instituto Politécnico Nacional. Asesor: Dr. Rene Loredo Portales, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En el estado de Sonora, en México, existe un número importante de minas activas e inactivas y cuyos residuos, principalmente los jales mineros, se asocian con problemáticas ambientales, principalmente por la liberación pasiva y prolongada de elementos potencialmente tóxicos (EPT) al medio ambiente circundante. Este es el caso del municipio de San Felipe de Jesús, Sonora, en donde existe una pila de jales mineros que, de acuerdo con estudios previos, impactan los suelos agrícolas de la zona con EPT y cuya importancia radica en que la actividad agrícola es sustento de los habitantes de la región. Por esta razón es importante encontrar una alternativa de remediación de bajo costo y que muestre resultados a corto plazo que prevenga la liberación de EPT de las pilas de desechos. Este trabajo plantea el uso de un bio-mineral sintetizado a partir de desechos de ganado vacuno (bone char), para estudiar su aplicación en los jales mineros del sitio y observar su efecto en la reducción de la movilidad de los EPT y en la formación de sales eflorescentes.
METODOLOGÍA
Muestreo y procesamiento de las muestras
El sitio de muestreo comprende la zona de jales mineros cercanos al municipio de San Felipe de Jesús Sonora, ubicados al suroeste del poblado homónimo. Se tomaron tres muestras compuestas de jales ricos en óxidos (JRO; ~1kg) y tres muestras compuestas de jales ricos en sulfuros (JRS; ~1kg). El muestreo se llevó a cabo utilizando las indicaciones para la identificación y manejo de las muestras de acuerdo con la norma NMX-AA-132-SCFI-2016.
Síntesis del bone char
Para la síntesis del bone char (BC), se utilizaron huesos de fémur de ganado vacuno obtenidos de los desechos comerciales del mercado municipal de Hermosillo, Sonora. Los huesos se sometieron a ebullición durante 1h y posteriormente se removió el tejido blando con ayuda de un bisturí. El hueso se secó al aire durante 24h y se calcinaron a 700 °C durante 2h.
Diseño experimental
Para la experimentación se empleó un diseño factorial general completo, con tres factores: a) tiempo, con dos niveles (inicio y final de la experimentación); b) tipo de jales, con dos niveles (JRO y JRS); y c) enmienda de BC, con tres niveles (0, 10 y 20 %), con un peso final de 5kg. El procedimiento consistió en hacer pasar agua tipo II grado reactivo (agua desionizada) por 24 horas a una razón de 0.7ml/min a través de una columna. El afluente se colectó para la generación de las sales eflorescentes por evaporación. Se utilizó el software Minitab para llevar a cabo el análisis factorial del diseño experimental. Las respuestas de CE y peso de sales generadas se normalizaron utilizando λ=0.5.
Determinación de parámetros fisicoquímicos
Los parámetros fisicoquímicos (pH y CE) en las columnas de lixiviación al inicio y al final de la experimentación, así como en el efluente y en los materiales de partida (JRO, JRS y BC), de acuerdo con Ponce de León (2012), empleando un potenciómetro (VWR, Spectronic 20D sympHony B3OPCI).
Difracción de rayos-X
Las muestras se homogeneizaron en un mortero de ágata y se midieron en el intervalo angular de la medición fue de 2 θ de 4° a 70° con un step scan de 0.003° (2 Theta) y un tiempo de integración de 40s por paso. Se obtuvieron los difractogramas en un difractómetro EMPYREAN equipado con filtro de Ni, tubo de cobre de foco fino y detector PIXcel3D. La identificación y cuantificación se realizaron utilizando el método de Rietveld.
Microscopía electrónica de barrido
Se analizaron las muestras de BC en un microscopio electrónico de barrido (SEM) SEM-EDX Hitachi TM3030, montando las muestras en una cinta de carbono sobre un holder. Las muestras se insertaron en el interior del SEM para observar y diferenciar partículas individuales a diferentes escalas de 100, 50 y 20 μm. Las distribuciones elementales se obtuvieron utilizando un espectrómetro de rayos X por energía dispersiva (EDX) y el software Bruker Quantax70.
Cuantificación elemental
Las muestras se digirieron empleando una digestión ácida en caliente de acuerdo con lo descrito en el método 3050b de la EPA de 1996, mediante Espectroscopía de Emisión Atómica de Plasma de Microondas (MP-AES). Para los principales EPT (Zn, Cu, Pb, Al, Se, Cd, Ag, Mn, Sb) con porcentajes de recuperación de > 20%. El control de calidad se aseguró empleando un estándar multielemental certificado (SPEX Certiprep; 7664-39-3).
CONCLUSIONES
Los principales EPT presentes en los jales mineros son: Al, Mn, Pb, y además el Zn en los JRS. Otros EPT presentes en menor concentración son: Cd, Cu y Ag. Las fases minerales más abundantes en los jales mineros son: cuarzo, yeso y calcita. Otras fases presentes en los JRS son la actinolita y caolinita mientras que en los JRO jarosita, hematita y plagioclasa intermedia.
El BC ejerce un efecto inmediato sobre los jales mineros aumentando los valores de pH. Sin embargo, la composición mineralógica de los jales mineros es un factor importante que controla el pH. El efecto buffer de la adición de BC en los JRO, puede emplearse como una alternativa para la disminución de la generación de DAM. Mientras que la CE de los efluentes, depende principalmente de la enmienda de BC y de la mineralogía del Jal ya que muestran comportamientos diferentes; Las enmiendas de BC en los JRO logran reducir los valores de CE mientras que en los JRS produce un incremento proporcional.
De acuerdo con los resultados de SEM-EDX los principales EPT asociados a la movilización asociada a la formación de sales eflorescentes son Zn, Pb, Mn y Al, independientemente del tipo de jal minero.
Por otro lado, el peso de las sales eflorescentes producidas por los efluentes depende principalmente de la composición mineralógica de los jales mineros. Sin embargo, las enmiendas de BC, disminuyen el contenido de EPT en las sales eflorescentes significativamente; disminuyendo la concentración de Zn, Cd, Pb y Mn en las sales para ambos tipos de jales.
Luna Juárez Itzel Areli, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)
ANáLISIS DE LA INTERACCIóN POR CORRIENTES MARINAS EN EL CANAL DE COZUMEL
ANáLISIS DE LA INTERACCIóN POR CORRIENTES MARINAS EN EL CANAL DE COZUMEL
Luna Juárez Itzel Areli, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Mariana Elvira Callejas Jimenez, Colegio de la Frontera Sur (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la actualidad se pretenden encontrar nuevos métodos de obtención de energías renovables, debido a que cada día se vuelve menos viable el uso de combustibles fósiles. Particularmente nuestro país cuenta con un alto potencial de la energía derivada por corrientes marinas, destacando el golfo de California y el mar Caribe en la península de Yucatán (Silva et al. 2017).
Las corrientes marinas son una fuente de energía renovable, que están presentes en forma de energía cinética en el movimiento de las masas oceánicas. Las corrientes de la península de Yucatán corren de sur a norte, con un flujo significativo y a altas velocidades (Athié et al. 2011). La variabilidad del flujo juega un papel importante en la caracterización de las corrientes de la península de Yucatán. Por su orografía, Cozumel se comporta como un embudo que favorece el aumento de corrientes, conformando el canal de Cozumel (Alba 2018), lo que sugiere que la isla de Cozumel juega un papel importante en el desarrollo de estas corrientes. Los hallazgos centrados en las aguas costeras de Cozumel poco profundas (profundidades <500 m) realizados en 2019 por el Consejo Nacional de Ciencia y Tecnología-El Colegio de la Frontera Sur (CONACYT-ECOSUR), proporcionan evidencia que indica que el flujo de corriente es impulsado principalmente por una corriente oceánica casi continua y casi constante, detectando áreas adecuadas para la recolección de energía de la corriente oceánica mediante turbinas marinas. Sin embargo, se identificó una contra corriente que podría estar relacionada con la interacción de la corriente con la morfología de la costa.
El presente trabajo pretende adentrarse en los antecedentes y aplicaciones de las corrientes marinas para la obtención de energía en el Canal de Cozumel, así como analizar la base de datos obtenida previamente por instrumentos hidroacústicos (Alcerreca, Huerta et al. 2019) para la identificación y análisis de los cambios en la dirección de la corriente y así determinar su relación con el funcionamiento de turbinas marinas que en un futuro se proyecten para la recolección de energía.
METODOLOGÍA
Ubicado en el Caribe mexicano, el Canal de Cozumel está delimitado por el lado oriental de la Península de Yucatán y la Isla de Cozumel. El Canal de Cozumel tiene unos 50 km de largo y 18 km de ancho con profundidades de agua que alcanzan los 500 m. Se tomaron como referencia cuatro zonas de estudio previamente establecidas, Zona 1 (lat. >20.57°N), Zona 2 (lat. 20.53°N-20.57°N), Zona 3 (lat. 20.44°N-20.53°N) y Zona 4 (lat. <20.44°N). Se trabajaron con los perfiles ADCP (Acoustic Doppler Current Profiler) y CTD (Conductivity, Temperature, and Depth) tomados a lo largo del área de estudio (Alcerreca, Huerta et al. 2019).
Para el manejo de datos se utilizaron los programas Matlab, Surfer, Grapher y Excel. Se analizaron los datos de 64 transectos, dentro de cada transecto se evaluaron los datos disponibles de los cuales se identificaron los que presentan un cambio de dirección en la corriente (-θ °) dentro de los primeros 500 m de extensión de la costa, posteriormente se determinaron los porcentajes de los datos con cambio de dirección que superan la unidad y los que se encuentran por debajo de la unidad (es decir, < -1.0 o > -0.9), una vez filtrados los datos se establecieron intervalos de distancia por cada 100 m, por cada intervalo de distancia se determinó el cambio de dirección promedio, magnitud de velocidad promedio e intervalo de profundidad.
Se identificó dentro del primer transecto una discrepancia en los datos debido a la sensibilidad que presento el equipo de medición generada por las turbulencias de la corriente oceánica, por lo cual, se descartaron los datos del transecto. Al igual que fueron descartados el transecto 10 y el transecto 14, ya que no mostraron cambios de dirección en la corriente.
Finalmente se establecieron para cada transecto y zona las variaciones en los cambios de dirección de corriente, datos disponibles, cambio de dirección promedio, velocidad promedio e intervalo de profundidad. Una descripción general del análisis realizado hace referencia a lo antes establecido sobre el Canal de Cozumel, la corriente fluye predominantemente en dirección norte, sin embargo, se identificaron los efectos de una contracorriente en las cuatro zonas de estudio, las cuales presentan cambios de dirección de flujo promedio entre -0.1° y -2.5°, además, se observó que, aunque dentro de algunas magnitudes de velocidad existen valores mayores a 1.0 m/s, en promedio las magnitudes de velocidad son relativamente bajas, las más altas como 0.1 - 0.8 m/s se encontraron en la Zona 2 y Zona 3.
CONCLUSIONES
Los desafíos asociados con el diseño de convertidores de energía marina deben considerar parámetros adicionales relacionados con las características del flujo, por ello, se analizaron especialmente las magnitudes de velocidad promedio más altas presentes en los datos que muestran un cambio de dirección en cada transecto. Se identificaron velocidades de 0.1-0.8 m/s que se encuentran dentro de la Zonas 2 y Zona 3, se observó que al no superar estas velocidades los 1.1 m/s no representan una posible afectación en la eficiencia hidrodinámica de una turbina que opere a magnitudes de velocidad de flujo de 1.0 - 1.5 m/s para la recolección de energía de la corriente oceánica, sin embargo, se recomienda establecer un periodo de estudio más largo para analizar mejor los comportamientos en las magnitudes de velocidad de los cambios de dirección y su relación con respecto al tiempo u otros factores.
Luna Quirarte Joel Isaac, Universidad de Sonora
Asesor:Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
SISTEMAS DINáMICOS COMPLEJOS
SISTEMAS DINáMICOS COMPLEJOS
Luna Quirarte Joel Isaac, Universidad de Sonora. Asesor: Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Si bien es común estudiar la evolución de un sistema al considerar el tiempo como una variable continua, existen ejemplos en los cuales los cambios se dan por etapas bien definidas. Esto es, el tiempo se comporta como una variable discreta aunque las propiedades medidas del sistema
no necesariamente sean discretas.
En el presente proyecto se consideran sistemas descritos por una sola variable real cuya evolución de una etapa a la siguiente viene dada por una función continua f. Una de las propiedades más interesantes en este tipo de sistemas es la existencia de órbitas, esto es, conjuntos finitos de puntos del dominio tales que para cualquier pareja de elementos a, b de uno de los conjuntos existe un número natural k tal que
f^k(a)=b y además para todos elemento a del conjunto existe el mismo número natural n, conocido como el período de la órbita, tal que f^n(a)=a.
El objetivo es precisamente analisar la existencia de dichas órbitas y relacionarla con la presencia de caos en el sistema.
METODOLOGÍA
Para desarrollar el proyecto es necesaria la lectura de artículos en los cuales se desarrollan teoremas referentes a los sistemas discretos mediante el análisis matemático. En particular, es necesario comprender los teoremas de Sharkovsky y Li-Yorke así como sus demostraciones y la definición de términos que facilitan la descripción de similitudes entre los sistemas discretos.
CONCLUSIONES
Se obtuvo una lista ordenada de todos los números naturales tales que la presencia de una órbita con período igual al enésimo término de la lista garantiza la existencia de órbitas con períodos iguales a cada elemento posterior de la lista. 3 es el primer elemento de dicha lista y 1 es el último. Asímismo, pudo demostrarse que una función "f" definida sobre un intervalo real tal que genera órbitas de todos los períodos corresponde a un sistema caótico.
Con estos resultados es posible garantizar el caos de un sistema con el simple hecho de encontrar una órbita de período 3 y predecir la existencia de órbitas con período m dada la existencia de una órbita con período l de acuerdo con la lista obtenida.
Magdaleno Hernández Ángel Diego, Universidad de Guadalajara
Asesor:Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
ANáLISIS DE DATOS DE ELECTROENCEFALOGRAMA (EEG) DURANTE TAREAS DE INTENCIóN MOTORA.
ANáLISIS DE DATOS DE ELECTROENCEFALOGRAMA (EEG) DURANTE TAREAS DE INTENCIóN MOTORA.
Magdaleno Hernández Ángel Diego, Universidad de Guadalajara. Asesor: Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La finalidad del proyecto es poder discriminar entre movimientos de la mano derecha o mano izquierda con la intecion de utilizar una interfaz cerebro-computadora.
El proyecto inicia con la lectura de Mathematical Biology (Shonkwiler, R. & Herod, J.) enfocandonos en las bases del funcionamiento neuronal, el qué es y cómo se generan las sinapsis. Una vez entendido esto, empezamos a leer Muller, L., Chavane, F., Reynolds, J. et al. Cortical travelling waves: mechanisms and computational principles, artículo que recopila algunos descubrimientos en ondas viajeras en la corteza cerebral, donde en los ejemplos se mencionan cómo importan las zonas de se propagación y la relación con ciertas actividades en específico, como el mover las manos, cosa que se relaciona con el proyecto.
Ya con las bases sentadas, empezamos a ver la base de datos EEG Motor Movement/Imagery Dataset. Consiste en mas de 1,500 electroencefalogramas entre 1 y 2 minutos de duración, donde 109 voluntarios realizaron 4 tareas:
Al observar una figura en el lado izquierdo o derecho de la pantalla, mover el puño correspondiente hasta que desapareciera.
Al observar una figura en el lado izquierdo o derecho de la pantalla, imaginar mover el puño correspondiente hasta que desapareciera.
Al observar una figura arriba o abajo de la pantalla, mover ambos puños si es arriba o ambos pies si es abajo, hasta que desapareciera.
Al observar una figura arriba o abajo de la pantalla, imaginar mover ambos puños si es arriba o ambos pies si es abajo, hasta que desapareciera.
Cada voluntario realizó 3 veces cada tarea, mas 2 grabaciones de reposo. Esto se graba con un arreglo 10-10 de 64 electrodos y a una velocidad de 160 'cuadros' por segundo.
METODOLOGÍA
Empezamos visualizando la base de datos como un mapa de los electrodos con sus respectivas mediciones, agregando una tercera dimension del tiempo se crearon GIFs con los patrones de los EEG. Para poder analizar mejor los datos, empezamos dividiendo las secciones de los movimientos de mano izquierda o derecha y observamos los patrones que se crean en las visualizaciones del mapa conforme pasa el tiempo.
Después de esto, decidimos que para poder seguir analizando los patrones era necesario simplificarlos, así que filtramos en las diferentes ondas que se han registrado en el cerebro. Como estudiamos al principio del proyecto, las ondas cerebrales se dividen en 4 rangos, y cada una de ellas se activa en diferentes actividades, siendo la alpha (8-13 Hz) y neta (14-25 Hz) las que más nos interesaban ya que ahí es donde se registra actividad motriz.
Podemos visualizar en los mapas que la mayor actividad neuronal esta localizada en una sola fila principalmente, la fila que corresponde a la corteza motora
Era necesario justificar este enfoque en una sola región así que medimos hacia donde se propagaba la onda, y confirmó lo anterior.
Una vez que solo estamos trabajando con una fila, en la onda beta se observo que en los movimientos izquierdos se activaban los electrodos del lado izquierdo principalmente, y viceversa con la mano derecha, sin embargo esto no se observo en la onda alpha.
Por ultimo se coloco un filtro de datos para solo trabajar con las activaciones de electrodos, esto con el proposito de ver la propagacion de la onda mas fácil.
Es necesario mencionar que tuve una semana y media de pausa ya que me enfermé de covid-19. Los síntomas no fueron graves pero si eran lo suficientemente fuertes como para decidir mejor pausar el proyecto de verano y recuperarme.
CONCLUSIONES
Con lo realizado en el proyecto, nos permite poder ver los electrodos activados y medir la velocidad de propagación de las ondas y así cuantificar propiedades de los patrones espacio-temporales de actividad cerebral.
Mares Correa Itzayana, Instituto Politécnico Nacional
Asesor:Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
IMPLEMENTACIóN DE LOS LADRILLOS DE SARGAZO PARA LA CONSTRUCCIóN DE VIVIENDAS
IMPLEMENTACIóN DE LOS LADRILLOS DE SARGAZO PARA LA CONSTRUCCIóN DE VIVIENDAS
Mares Correa Itzayana, Instituto Politécnico Nacional. Asesor: Dr. Wilfrido Martinez Molina, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
El ladrillo es considerado el elemento ideal para la construcción ya que nos proporciona factores benéficos en las viviendas tales como resistencia a la comprensión, baja conductividad térmica, aislante acústico, absorción de agua, resistencia al fuego y durabilidad, sin embargo, deja un impacto negativo al medio ambiente irreversible, por lo que nos hemos visto en la necesidad de buscar nuevos materiales innovadores y ecológicos para su elaboración.
El sargazo, actualmente es considerado una plaga, esta se encuentra específicamente en el Caribe Mexicano, a raíz de esto, las playas se han visto afectadas y es una amenaza para los ecosistemas costeros. Esta plaga, no solo ha afectado negativamente al planeta, también ha causado un impacto en la economía de las costas, a causa de la baja de actividades turísticas, y lo más alarmante, el riesgo que representa para la salud de los habitantes.
En este trabajo, se presenta una propuesta para elaborar ladrillos a base de sargazo, para limpiar las playas, disminuir su impacto negativo, y transformarlo en uno positivo con oportunidades para la construccion de viviendas y hoteles en el Caribe Mexicano.
METODOLOGÍA
La investigación que se desarrollo es de tipo descriptivo, donde se pretende conocer las propiedades, costos y beneficios de la implementación del sargazo para fabricar ladrillos que puedan ser utilizados para la construcción de viviendas y la limpieza de las playas, lo que incluye investigaciones, reportes o tesis sobre su elaboración, planes de manejo y el conocimiento y/o opinión que tienen los ciudadanos sobre el tema.
El primer paso que se tomó para comenzar la investigación, fue la elaboración de una ficha para la recopilación de información, principalmente de diferentes artículos, los campos destacados de la ficha son: las características del sargazo, la cantidad aproximada de toneladas que han llegado en los últimos años a las playas del mismo, y sus efectos contaminantes.
La segunda investigación que se realizó, tuvo como objetivo visualizar comparaciones de diferentes materiales ecológicos para determinar ventajas, costos, beneficios y áreas de oportunidad para que la implementación de este nuevo material para que tenga las mismas o mejores características óptimas para elaborar un ladrillo.
La información acerca del manejo del sargazo, así como los Lineamientos Técnicos de Gestión para la Atención de la Contingencia Ocasionada por Sargazo en el Caribe Mexicano y Golfo de México, fueron recuperados de diferentes Secretarías como: La Secretaría Marina (SEMAR), La Secretaría de Medio Ambiente (SEMARNAT) y el Instituto Nacional de Ecología y Cambio Climático (INECC).
De igual manera se realizó una tercera investigación, para conocer si en otros países, se ha implementado el uso de este ladrillo, su funcionalidad y si actualmente se cuenta con una empresa que esté fabricando este tipo de producto.
Por último se realizó una encuesta al público en general para conocer su opinión y conocimiento del tema, esta encuesta fue filtrada en función a edad y ocupación. Las principales preguntas fueron orientadas a la utilización del sargazo para la elaboración del tabique, si recomendarían su implementación en una vivienda/hotel, si alguna vez han leído/visto una vivienda con este tabique, y la confianza que tendrían en el producto. Los resultados que se presentan de esta encuesta a los 5 días de su publicación.
CONCLUSIONES
La elaboración de los tabiques de sargazos fue una idea del director de Blue Green México, Omar Vázquez Sánchez quien nombro a este ladrillo Sarga Block, el cual es 100% orgánico ya que no cuenta con ningún aditivo y es elaborado artesanalmente; actualmente es el único que ha elaborado este producto en todo el mundo y ha construido una vivienda a partir de éstos, en Quintana Roo, la cual llamo Angelita, misma que cuenta con recámara, sala, comedor, una cocina y baño.
Estos ladrillos ya fueron analizados por la Universidad Autónoma de México, donde se demostró que son resistentes y durables, y de igual manera se tiene un ahorro del 30% y 40% en comparación a una vivienda de concreto.
La construcción de la vivienda Angelita, contando la elaboración del tabique, tardó 3 semanas en realizarse, por lo que actualmente se esta viendo la posibilidad de construir este tipo de casas para personas de bajos recursos, y a su vez, hacerlas en Belice, Jamaica, Puerto Rico, República Dominicana, entre otros.
Este proyecto, no solo ayudará a construir casas 100% ecológicas y económicas, ya que, para la obtención del sargazo, se limpiarían las playas, lo cual reduciría la contaminación, y el turismo ya no se vería afectado en estas zonas, de igual manera, al ser artesanal, sería una fuente de empleos y una alternativa para la construcción de hoteles.
De acuerdo con los resultados de la encuesta, 96% de la población no conocía este proyecto, el 80% recomendaría y confiaría su implementación en una vivienda a pesar de nunca haber oído del tema, ya que consideran que sería un impacto positivo al ambiente y las playas del Caribe Mexicano estarían más limpias.
Para finalizar, me gustaría agradecer a la Universidad Michoacana de San Nicolás de Hidalgo, por abrirme sus puertas y permitirme ser parte de este Verano Delfín.
Referencias:
Obras por expansión (2019, 11 marzo). Fabrica ladrillos con sargazo y construye viviendas en Quintana Roo https://obras.expansion.mx/construccion/2019/03/11/fabrica-ladrillos-con-sargazo-y-construye-viviendas-en-quintana-roo
Anonimo (2019, 17 mayo). "Lo bueno de lo malo: construyó una casa con el sargazo que invade las playas del Caribe" Infobae. https://www.infobae.com/america/mexico/2019/05/17/lo-bueno-de-lo-malo-construyo-una-casa-con-el-sargazo-que-invade-las-playas-del-caribe/
Martinez Aranda Samuel, Universidad Michoacana de San Nicolás de Hidalgo
Asesor:Dr. Mauricio Esteban Chacón Tirado, Benemérita Universidad Autónoma de Puebla
LOS CONTINUOS DE HAUSDORFF Y HEREDITARIAMENTE INDESCOMPONIBLES TIENEN HIPERESPACIO úNICO 2^X Y C_N(X)
LOS CONTINUOS DE HAUSDORFF Y HEREDITARIAMENTE INDESCOMPONIBLES TIENEN HIPERESPACIO úNICO 2^X Y C_N(X)
Martinez Aranda Samuel, Universidad Michoacana de San Nicolás de Hidalgo. Asesor: Dr. Mauricio Esteban Chacón Tirado, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
El siguiente es un resultado ampliamente conocido en la teoría de continuos:
Teorema. Si X y Y son continuos homeomorfos, entonces 2X es homeomorfo a 2Y y Cn(X) es homeomorfo a Cn(Y).
Dos preguntas que surgen de manera natural es si el recíproco se cumple, es decir, ¿si 2X y 2Y son homeomorfos, entonces X y Y tienen que ser homeomorfos? ¿si Cn(X) y Cn(Y) son homeomorfos, entonces X y Y tienen que ser homeomorfos?
El recíproco se conoce como unicidad de hiperespacio y la definimos a continuación.
Decimos que un continuo de Hausdorff X tiene un hiperespacio único 2X (respectivamente Cn(X)) siempre que, si Y es un continuo de Hausdorff y 2X es homeomorfo a 2Y (respectivamente Cn(X) es homeomorfo a Cn(Y)), entonces X es homemorfo a Y.
En este trabajo vamos a mostrar que los continuos de Hausdorff hereditariamente indescomponibles tienen hiperespacio único 2X y Cn(X).
METODOLOGÍA
Se desarrollaron resultados necesarios para poder llegar a una demostración de nuestro resultado principal. En primer lugar se estudio la definición de continuo de Hausdorff y sus hiperespacios, se definio la topología de Vietoris y se dio una demostración detallada de que efectivamente es una topología sobre el hiperespacio 2X.
Se presentaron ejemplos de continuos métricos y estudiamos la propiedad de ser hereditariamente indescomponible, con lo que presentamos el primer continuo hereditariamente indescomponible, el pseudo-arco. La prueba de nuestro resultado principal se basa en un análisis de los arcos generalizados en el hiperespacio 2X, por lo cual se presenta la definición de arco generalizado y algunas propiedades básicas sobre ellos.
Definimos lo que es un arco ordenado y mostramos que en el hiperespacio 2X todo arco ordenado es un arco generalizado.
Mostramos que todo arco generalizado es un continuo de Hausdorff, con lo que presentamos el cuadrado lexicográfico y la linea larga, y mostramos que son arcos generalizados no metrizables, con lo que obtenemos ejemplos de continuos de Hausdorff no metrizables.
Se introdujo la propiedad de Kelley y se mostró que todo continuo de Hausdorff hereditariamente indescomponible tiene la propiedad de Kelley.
Una vez desarrollados los conceptos anteriores se comenzaron a desarrollar los resultados principales.
CONCLUSIONES
Con lo que hemos demostrado obtenemos las herramientas suficientes para proporcionar una prueba para el teorema principal que se estudia aquí, con lo que podemos afirmar que los continuos de Hausdorff hereditariamente indescomponibles tienen hiperespacio único 2X y Cn(X).
Martínez Juárez José Manuel, Universidad de Guadalajara
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
ESTUDIO DE LA ESTRUCTURA DEL MODELO CUáNTICO DE RABI ANISOTRóPICO.
ESTUDIO DE LA ESTRUCTURA DEL MODELO CUáNTICO DE RABI ANISOTRóPICO.
Martínez Juárez José Manuel, Universidad de Guadalajara. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Estudiar la estructura algebraica del modelo cuántico de Rabi anisotrópico. Este modelo es importante para una variedad de sistemas capaces de realizar un fuerte acoplamiento entre luz y materia. Su estudio puede impactar en áreas como los dispositivos electrónicos cuánticos donde la anisotropía aparece de manera natural.
METODOLOGÍA
Revisar bibliografía referente al modelo cuántico de Rabi y el modelo cuántico de Rabi anisotrópico.
Obtener la matriz de conmutadores entre los operadores presentes en el modelo.
Obtener la matriz de anticonmutadores y la matriz compacta de conmutadores.
Estudiar los grupos algebraicos SU 1,1, SU 1,2 y SU 2
CONCLUSIONES
Para estudiar el modelo cuántico anisotrópico de Rabi fue necesario calcular los conmutadores entre los operadores presentes, así como sus anticonmutadores, después de esto, se descubrió que hacían falta términos para continuar con la investigación por lo que se recurrió a una versión compactada de la matriz de conmutadores. Se encontró una estructura que parece contener a los grupos algebraicos SU(1,1), SU(2) y U(1) y se calcularon los estados coherentes para U(1) y SU(1,1). A futuro será necesario calcular los estados coherentes para el grupo faltante y analizar los resultados para determinar los pasos para continuar con la investigación.
Martínez Márquez Mariana, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PRUEBAS NO DESTRUCTIVAS PARA LA DETECCIóN DE FISURAS EN PIEZAS METALMECáNICAS DE LA INDUSTRIA AUTOMOTRIZ
PRUEBAS NO DESTRUCTIVAS PARA LA DETECCIóN DE FISURAS EN PIEZAS METALMECáNICAS DE LA INDUSTRIA AUTOMOTRIZ
Fernandez Aguirre Fatima Leonor, Universidad Mexiquense del Bicentenario. Martínez Márquez Mariana, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Lili Guadarrama Bustos, Centro de Investigación en Matemáticas (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Una de las problemáticas de la industria automotriz está relacionada con el control de calidad en las piezas metalmecánicas de los automóviles, pues los protocolos actuales no detectan con eficiencia los defectos en dichas partes. En caso de que estos problemas no se detecten en el área correspondiente, la pieza será enviada a los siguientes procesos de producción lo que generará pérdidas monetarias y retraso en el tiempo de entrega. Es así que las pruebas no destructivas surgen como alternativa a los métodos tradicionales de control de calidad, ya que estas no alteran de forma permanente las propiedades de las piezas a examinar. Se denomina prueba no destructivo a cualquier tipo de prueba practicada a un material que no altere de forma permanente sus propiedades físicas, químicas, mecánicas o dimensionales.Este tipo de ensayos son de vital importancia en la industria en general. En particular un tipo de pruebas no destructivas son las pruebas térmicas, las cuales utilizan la termografía infrarroja (que es la técnica que permite la obtención de imágenes de la radiación térmica emitida por un objeto). En este tipo de pruebas el material es generalmente calentado por una fuente y se estudia la diferencia de temperatura entre un área con defectos y un área sin ellos, pues la temperatura cambia como una función del tiempo después de calentar el material. En este proyecto estudiaremos la aplicación de las pruebas no destructivas térmicas en un ejemplo ideal de la sección de una pieza metalmecánica proveniente de un automóvil. Para ello se simulará el calentamiento de la puerta y los datos obtenidos por una cámara IR, pues realizar pruebas físicas es muy costoso. Y con esto se busca detectar cambios en la densidad del material, las cuales pueden representar fisuras o adelgazamientos de este. Para este análisis se toman en cuenta las siguientes propiedades físicas del material: densidad, conductividad térmica y calor específico, estos datos dependen de la naturaleza del material a analizar y serán obtenidos de la literatura.
METODOLOGÍA
Al inicio de la estancia se leyó el artículo en el que se basa el proyecto (Bayesian inference of hidden corrosion in steel bridge connections: Non-contact and sparse contact approaches de C.J. Earls) para adentrarse en la investigación y entender mejor lo que se iba a trabajar. Posteriormente se buscó bibliografía del material ya que la idea principal era entender porque se causan estas fisuras y como es que la Industria Automotriz no se percatan de este problema en los controles que pasan durante su proceso de manufacturación. Es así como a través de la investigación se entendió la modelación del problema y el cómo toma en cuenta diferentes conceptos como los son propiedades de las aleaciones, el funcionamiento de las pruebas no destructivas térmicas en distintos campos aplicados, el método Bayesiano, la plataforma FeniCS y la cámara la termografía. Cabe destacar que al ser un campo que involucra patentes en cuanto a lo que métodos y materiales concierne las fuentes de bibliografía de consulta en del tema en particular (pruebas no destructivas térmicas en la industria automotriz) fueron escasas e incompletas.
Para el presente proyecto el fenómeno físico es una prueba no destructiva, donde el objetivo es estudiar el comportamiento de las imperfecciones presentes en una lámina de acero después de un proceso industrial. El problema físico se pone en términos del modelo matemático, que modelará el comportamiento de la lámina a través de la ecuación de calor. Al tener el problema físico ya modelado se realiza un análisis del problema, debido a que el problema que se tiene es un problema inverso y su solución analítica no se conoce, se usa el enfoque Bayesiano para conocer la forma en que se distribuirán los parámetros dado la temperatura. Para obtener la distribución posterior se utiliza el algoritmo Metropolis-Hastings un método numérico estadístico que utiliza cadenas de Markov.
1.Estudio del problema directo
En este paso se busca, que basados en una formulación de la ecuación del calor y dados los parámetros densidad, conductividad térmica y calor específico, encontrar una expresión que describa la temperatura en cada punto de la pieza a estudiar.
1.1 Método numérico
Usando el método de elemento finito a través de la plataforma FEniCS para resolver la ecuación diferencial parcial propuesta.
2.Estudio del problema inverso
2.1 Formulación bayesiana del problema inverso
En este caso, se plantea encontrar los parámetros del material físico que se analiza en puntos de interés, para esto se aplica estadística bayesiana. Se fija una distribución de probabilidad para los parámetros (a priori) y la verosimilitud de que los datos tengan ciertos valores dados los parámetros. Así, el resultado es una distribución de probabilidad que nos indica cuál es la probabilidad de que los parámetros alcancen ciertos valores, dados los valores de la temperatura. Estos valores son sintéticos, es decir, son obtenidos a partir de un conjunto inicial de parámetros, y a estos se les agrega ruido. En nuestro caso, el ruido añadido se distribuye de manera normal.
3.MCMC
3.1 Metrópolis Hastings
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos sobre el área de pruebas no destructivas, en particular de su estudio y análisis sin necesidad de desarrollar actividades experimentales, es decir todos los datos obtenidos a través de simulaciones por computadora. Al ser un proyecto de investigación muy extenso, los algoritmos a utilizar aún se encuentran en la fase de desarrollo y no es posible mostrar los resultados obtenidos. Se espera que en un futuro el método provea de una herramienta eficiente y de fácil acceso para la detección de adelgazamientos y fisuras piezas metálicas de la industria automotriz.
Martinez Vargas Zaira Carolina, Universidad de Guadalajara
Asesor:Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
ALGORITMOS CUáNTICOS: AUTóMATAS FINITOS Y SIMULACIóN DE SISTEMAS FíSICOS CUáNTICOS
ALGORITMOS CUáNTICOS: AUTóMATAS FINITOS Y SIMULACIóN DE SISTEMAS FíSICOS CUáNTICOS
Franco Escudero Emily Andrea, Universidad Autónoma de Chiapas. Martinez Vargas Zaira Carolina, Universidad de Guadalajara. Asesor: Dr. Paulo César Cárdenas Montoya, Universidad Autónoma de Manizales
PLANTEAMIENTO DEL PROBLEMA
La computación cuántica es una de las áreas de mayor interés en la actualidad, esta relaciona la informática y la mecánica cuántica, y busca producir algoritmos con características propias de esta última. Las computadoras cuánticas aprovechan fenómenos de los sistemas físicos cuánticos como: la superposición, el entrelazamiento, la inferencia, entre otras propiedades con la finalidad de realizar tareas y construir algoritmos que no se pueden implementar en computadores clásicos. Brevemente, se puede afirmar que la superposición se debe a que mientras la unidad fundamental de las computadoras clásicas es el bit y sólo puede tomar los valores de 0 o 1, en las computadoras cuánticas la unidad fundamental es el cúbit, que puede tomar valores de 0, 1 o una combinación de estos, teniendo más elementos de un conjunto de estados. El entrelazamiento corresponde a una fuerte correlación entre cúbits que se origina por alguna interacción, modificando las probabilidades en el resultado de una medición. Uno de los algoritmos que ha demostrado algún tipo de ventaja en la computación cuántica, es el algoritmo de Grover, que hace una búsqueda en datos no ordenados en un número menor de pasos en comparación a un algoritmo clásico de búsqueda que puede realizar hasta N iteraciones para encontrar un objetivo, el algoritmo de Grover reduce este número hasta N.
Además, el computador cuántico puede ser usado naturalmente en la simulación de sistemas físicos cuánticos , en el aprendizaje automático, en simulaciones y en optimización de viajes y transporte, logística, servicios financieros, etc. También se tienen los errores cuánticos que trasladan el problema de la complejidad en el cómputo a un problema de la medida del resultado del mismo por lo que se debe proteger los estados iniciales de posibles errores cuánticos, para llegar a la corrección de errores empezamos definiendo y aplicando los autómatas finitos cuánticos, los cuales nos ayudaran a discriminar el ruido en las mediciones.
Por esta razón, es que se decidió estudiar este cambio tecnológico en dos problemas: la simulación de una partícula en un potencial sin interacción y los autómatas finitos para un lenguaje de dos letras.
METODOLOGÍA
Esta investigación es de naturaleza pura, en la cual se involucra la verificación teórica de algunos elementos y nociones de la mecánica cuántica, por medio de algoritmos que operan según sus reglas. Se desarrolla desde un enfoque cuantitativo, buscando implementar algoritmos cuánticos usando lenguajes de programación que se pueden implementar en tecnologías cuánticas, tales como el computador cuántico de IBM y AZURE de Microsoft. El alcance de la investigación es exploratorio puesto que se apropian técnicas y algoritmos novedosos que usualmente no se estudian en pregrado.
A continuación se presenta la metodología orientada a cumplir con cada uno de los objetivos:
1) revisión de los postulados de la mecánica cuántica siguiendo textos clásicos como Nielsen & Chuang (2002) y Griffiths (2018);
2) implementación de algoritmos cuánticos: autómatas finitos y simulación de sistemas físicos;
3) verificación del funcionamiento de los algoritmos y comparaciones.
CONCLUSIONES
En cuanto a la solución de la ecuación de Schrödinger para una partícula libre, se logró implementar la última parte del código que consistió en aplicar la transformada de Fourier para un número arbitrario de qubits. Asimismo, para la medición de un autómata QFA (Autómata Cuántico Finito por sus siglas en inglés), se logró probar que existe un QFA unidireccional que reconoce el lenguaje ab, lo cual direcciona este trabajo hacia la construcción de autómatas con lenguajes de más de dos letras.
Medina Ferrer Gustavo Alberto, Universidad de Sonora
Asesor:Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
TRANSPORTE CUáNTICO EN SISTEMAS CIRCULARES IMPLEMENTANDO LA MATRIZ DE FOURIER
TRANSPORTE CUáNTICO EN SISTEMAS CIRCULARES IMPLEMENTANDO LA MATRIZ DE FOURIER
Medina Ferrer Gustavo Alberto, Universidad de Sonora. Asesor: Dr. Blas Manuel Rodríguez Lara, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En computación cuántica, un sistema de transporte cuántico es traducido a un circuito cuántico, el cual trabaja con qubits como sus medios de transporte, los cuales pueden ser diferentes cosas, aprovechándose de alguna característica dual de ellos. Un circuito cuántico es exponencialmente más eficiente que un circuito clásico, por lo que la búsqueda de un proceso o algoritmo cuántico más eficiente nunca termina y es tan codiciado.
Un sistema circular, por otro lado, puede ser descrito como un enrejado de una dimensión doblado para que el final conecte con el principio, siendo así un sistema cíclico.
Una caminata cuántica (QW) dentro de un sistema de cualquier forma puede ser descrita de dos diferentes formas: por qubits-por-sitio o estados-por-sitio, de los cuales el primero es el menos eficiente y el segundo el más eficiente.
Un QW en un sistema circular de la forma de qubits-por-sitio con n sitios necesita de algunas cosas básicas: una moneda cuántica, una representación del espacio de posición y una del espacio de la moneda cuántica, un operador que dictara cada paso y un estado inicial.
Es importante notar que este resumen se centrará en describir una QW en un sistema circular.
METODOLOGÍA
En una QW, la moneda cuántica debería de ser hermítica, ya que esta es la única forma en la que se puede conservar la probabilidad.
Para declarar un operador de paso se necesita primero declarar matrices de paso contra-reloj y con-reloj V y V+, las cuales rotan la información del sitio n->n+1 o de n->n-1, por ejemplo.
Además de las matrices de rotación, se necesita declarar una definición de los estados de la moneda cuántica. En este caso serian |h〉 y |t〉 para ‘heads’ y ‘tails’, al igual que sus proyectores.
Ahora, es importante recalcar que no existen (dentro de la cantidad que se analizó) reportes o artículos que se adentren en el algoritmo que se debe de hacer para generar una QW en un sistema cíclico, por lo que esto resultó consumir mucho tiempo, buscando la forma correcta de hacer un circuito y una QW.
Sin embargo se logró generar una, la cual, apoyada en artículos, se describe de la siguiente forma:
-Primero que nada, debía entender lo que es la matriz de Fourier, y el uso de la misma. Esto porque nunca había tenido contacto con ella de alguna manera, por lo que tomó alrededor de una semana de estudio. El intento de usar la matriz fue gracias a un artículo que mencionaba la inclusión de la misma para crear una QW cíclica, y el Dr. Rodríguez tenía experiencia trabajando con la misma, por lo que para él no fue muy difícil encontrar cómo incluirla.
-La matriz de Fourier F contiene todos los eigenvalores de los eigenvectores que necesitamos en su diagonal, al igual que su inversa F+, y esta propiedad se usa para poder encontrar una ’matriz reloj’, llamada ‘C’, que está definida como
C=F+ * V * F
Al igual que su inversa C+
C+= F+ * V+ * F
Las cuales son matrices diagonales que contienen todos los eigenvalores en su diagonal.
-Una vez que obtenemos esta matriz, definimos V y V+ en base a C y C+, lo que termina siendo:
V= F+ * C+ * F
V+= F+ * C * F
Tras esto, definimos nuestro paso como un conjunto de pasos, los cuales son:
S1= T x 1 x 1
S2= 1 x F+
S3= Ph x C + Pt x C+
S4= 1 x F
Step=S4*S3*S2*S1
Donde T es nuestra ficha cuántica y Ph y Pt los proyectores de heads y tails.
Cabe resaltar que este circuito funciona para dos qubits y 4 sitios, aun cuando el algoritmo general del paso es posible llevarlo a n qubits y 2^n sitios.
Por otro lado, las compuertas que se usan en el operador de paso pueden ser descritas sin problemas usando compuertas que cualquier computadora cuántica puede procesar.
También se puede observar que la única compuerta controlada (por la ficha cuántica) es la de C o C+, ya que, con base en la que se escoja obtendremos V o V+, y esto es decidido por si la ficha cuántica muestra heads o tails.
Además, es importante recalcar que este algoritmo funciona para cualquier estado inicial, siendo esta una de las ventajas que tiene sobre otros algoritmos, siempre y cuando el estado inicial cumpla con la conservación de la probabilidad.
Después de varios pasos, el algoritmo debería de mostrarnos un poco de la distribución de probabilidad que tiene el sistema, dependiendo de la ficha cuántica y estado inicial.
CONCLUSIONES
Tras transcribir todo el algoritmo a un cuaderno de Mathematica, pudimos experimentar usando diferentes fichas cuánticas (Haddamard y Pauli-Y), al igual que diferentes estados iniciales, para correr el proceso hasta 8 pasos y después graficar cada una de las distribuciones de probabilidad que eran calculadas.
Esto dio resultados esperados, viendo como la distribución de probabilidad se extendía por el sistema, al igual que conservando la probabilidad del mismo.
Se probaron dos estados iniciales, uno donde la probabilidad era 50/50 entre los sitios 0 y 2, y uno donde la probabilidad era de 25% en cada uno de los 4 sitios. Además, para cada uno de los estados se probó usando la ficha Haddamard y la Pauli-Y, al igual que intentando alternando los signos de los coeficientes de probabilidad.
Esto nos dio un total de 8 caminatas cuánticas donde las distribuciones de probabilidad se veían exitosas, pudiendo considerarlo así un éxito.
Tras estos resultados numéricos, podemos concluir que, aunque no es increíblemente ventajoso, este algoritmo es más eficiente que los generalmente usados, con base en lo que una colega del Dr. Rodríguez nos comentó, estando ella en el campo de computación cuántica, ya que gracias al número de compuertas que tiene, una computadora cuántica podría correr más pasos usando este algoritmo, pero supera al número de pasos usuales por menos de media decena. Sin embargo, aún es difícil poder aplicarlo.
Fuera de los resultados numéricos, el verano resultó muy beneficioso, ya que no solo pude ejercitar herramientas analíticas y matemáticas, sino que adquirir nuevas, al igual que adquirir herramientas de orden y planeamiento de proyectos, ya que es algo que se enfatizó mucho al principio del verano.
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE CFD DEL FLUJO DE AIRE EN UNA TURBINA DE EJE VERTICAL TIPO SAVONIUS
SIMULACIóN DE CFD DEL FLUJO DE AIRE EN UNA TURBINA DE EJE VERTICAL TIPO SAVONIUS
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla. Pérez Monzón David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La demanda de energía eléctrica global actual abastecida por combustibles fósiles representa una amenaza para el medio ambiente debido a las consecuencias que trae consigo, tales como el aumento de GEI, contaminación de varias índoles, calentamiento global, cambio climático, etc. La necesidad de hacer una transición de las fuentes de dónde proviene la energía posiciona a las energías renovables como principal alternativa viable, rentable y amigable con el ambiente, además de propiciar el desarrollo de sociedades sustentables.
En la actualidad, el uso de tecnologías de aprovechamiento aplicadas a pequeña escala ha crecido significativamente, sin embargo, es un campo que aún está en desarrollo. Las turbinas eólicas de eje vertical (VAWT) aspiran solucionar las necesidades energéticas de ambientes rurales y regiones dónde es menos accesible el suministro de energía. Con esto, pretenden introducir prototipos menos costosos, eficientes y accesibles.
Una de las VAWT más conocidas es la Savonius, las ventajas de estas turbinas son la capacidad de operar en una amplia variedad de condiciones de viento, son de construcción simple y barata. Su aplicación para obtener energía útil de las corrientes de aire es una alternativa al uso de las convencionales turbinas de viento. Debido a que cada configuración diferente del rotor Savonius afecta su rendimiento, a lo largo de este verano de investigación se analizó el modelo de turbina de rotor clásico Savonius con determinados parámetros geométricos; para evaluar su eficiencia y comportamiento en velocidades relativamente bajas de viento, y se trató de replicar resultados obtenidos previamente en la literatura revisada.
METODOLOGÍA
En el pre-proceso de análisis con CFD, para la definición de la geometría del dominio a estudiar se construyó un aerogenerador de eje vertical tipo Savonius con ayuda de las herramientas de diseño del software FUSION 360 con las siguientes medidas:
Diámetro de los discos (D) : 80mm
Grosor de los discos: 1.5mm
Diámetro de los medios cilindros: 17.5mm
Altura: 58.24mm
Esta geometría se exportó al software ANSYS para realizar el análisis de flujo de aire en un dominio computacional, uno estacionario que simula un túnel de viento, que es la región donde se encuentra la zona en rotación, en donde entra y sale el flujo de aire y uno transitorio, que es la zona donde se encuentra la turbina y es la que rota para simular el funcionamiento del rotor y permite reproducir el efecto estela.
El dominio estacionario tiene un largo de 27D, un ancho y altura de 12D y el dominio transitorio tiene un diámetro de 4D.
Posteriormente, se realizó el mallado de ambos dominios, en dónde se divide en muchos elementos (celdas) cada dominio, en este caso 3D las celdas son volúmenes de control en el que se resuelven las versiones separadas de las ecuaciones de conservación y transporte. Para cerciorarse que la solución de CFD fuera de calidad se revisó a través de la herramienta de skweness la calidad de la malla, cabe resaltar que se refinó la malla en los puntos de contacto de los dominios, aumentando el número de divisiones y que el mallado fuera de mayor calidad.
Las configuraciones en ANSYS Fluent fueron las siguientes:
Condiciones de frontera:
Inlet: método de especificación de velocidad por medio de la magnitud de velocidad, normal a la frontera, marco de referencia absoluto, presión manométrica de 0 y la velocidad de viento elegida.
Walls: aluminio con condición no deslizante y rugosidad contante de 0.5.
Outlet: marco de referencia absoluto, presión manométrica de 0 Pa y método de especificación de dirección normal a la frontera.
Dominio transitorio: condiciones de pared (paredes con condición de no deslizamiento y una contante de rugosidad de 0.5), movimiento relativo a la zona adyacente y rotacional.
Para la simulación, los valores de velocidad elegidos fueron: 7.2 m/s, 6.2 m/s y 8.2 m/s, con una velocidad angular de 209 rpm. Usando el modelo de turbulencia k-epsilon realizable. Se establecieron 5000 iteraciones. Esta elección está basada en literatura previamente revisada. Se hizo el cálculo para cada configuración, solo cambiando la velocidad inicial.
CONCLUSIONES
Durante la estancia del verano, adquirimos conocimientos acerca de la modelación matemática aplicada a problemas de ingeniería como es la dinámica de fluidos computacional, aprendimos a interpretar resultados matemáticos y adecuarlos a los sistemas físicos simulados.
En el post-proceso se hizo un análisis de los resultados obtenidos, se calcularon los coeficientes de potencia para las 3 velocidades elegidas y se hizo una visualización de los resultados de manera gráfica a través de contornos de velocidades.
Podemos decir que las turbinas de eje vertical tienen un funcionamiento eficiente a pequeña escala, reflejado en los coeficientes de potencia obtenidos, lo que indica que son una alternativa para generar energía limpia en lugares en dónde las velocidades son bajas, además de ajustarse con la ODS no. 7 de la agenda 2030.
Mejía Avianeda Avril Paola, Instituto Politécnico Nacional
Asesor:Dra. Satu Elisa Schaeffer ---, Universidad Autónoma de Nuevo León
SIMULACIóN DE EPIDEMIAS BAJO MEDIDAS DE CONTINGENCIA
SIMULACIóN DE EPIDEMIAS BAJO MEDIDAS DE CONTINGENCIA
Mejía Avianeda Avril Paola, Instituto Politécnico Nacional. Asesor: Dra. Satu Elisa Schaeffer ---, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
La humanidad ha sido asediada por enfermedades infecciosas a lo largo de la historia. Ejemplos en la era moderna incluyen las epidemias del SARS, MERS, influenza AH1N1, ébola, y en la actualidad, el SARS CoV-2, virus que causa la enfermedad conocida como covid-19. Ante estas eventualidades, gobiernos de distintos niveles deben adoptar medidas prontas y efectivas para evitar una crisis de salud pública. Sin embargo, es difícil saber el impacto que tendrán las acciones tomadas ante un sistema complejo y dinámico, como lo es la propagación de una enfermedad en la población. Ante la inviabilidad logística, y quizá ética, de ensayar distintas medidas directamente a nivel población, surge la necesidad de realizar ensayos computacionales mediante modelos matemáticos de la enfermedad. La naturaleza aleatoria y evolutiva de los procesos de contagio hace de las simulaciones estocásticas una de las maneras más efectivas de estudiar y predecir el fenómeno.
Las técnicas de simulación multi-agente permiten analizar y cuantificar los efectos de distintas medidas ante la propagación de enfermedades, tales como el uso de cubrebocas, o el aislamiento social, además de interacciones con otros factores como la densidad poblacional, nivel socioeconómico y la calidad de aire. La comprensión de estas diferencias conlleva a una toma de decisiones facilitada y basada en evidencia científica.
METODOLOGÍA
Mediante una revisión de la literatura, se establecieron parámetros epidémicos. Teniéndolos definidos, y basándonos en técnicas existentes, se procedió a diseñar la simulación multi-agente, utilizando Python.
Con la finalidad de medir el impacto en el número de infectados, se realizaron simulaciones variando parámetros como la probabilidad de contagio, y se incorporaron intervenciones como el uso de cubrebocas, distanciamiento social, o la introducción de una vacuna con un porcentaje ajustable de efectividad. También se midió el efecto de dichas intervenciones con respecto al momento en que se llevaron a cabo.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de modelos epidemiológicos y ponerlos en práctica para el modelado de una simulación de epidemias sencilla, en la cual se introdujo la posibilidad de explorar los efectos de medidas de contingencia de forma cuantitativa. Las hipótesis que surgieron de nuestras simulaciones fueron verificadas por medio de pruebas estadísticas.
Mendoza Montes de Oca Jorge Uriel, Instituto Politécnico Nacional
Asesor:Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
INTELIGENCIA ARTIFICIAL APLICADA EN LA MEDICINA
INTELIGENCIA ARTIFICIAL APLICADA EN LA MEDICINA
García Camacho Francisco Javier, Instituto Politécnico Nacional. Mendoza Montes de Oca Jorge Uriel, Instituto Politécnico Nacional. Asesor: Dr. Teodoro Rivera Montalvo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El objetivo de este trabajo fue el aplicar nuestros conocimientos para determinar la radiación recibida en un consultorio de cardiología intervencionista, pero medir lo que no siempre se mide, en cuanto a médicos, enfermeras, pacientes y cualquier persona que esté ahí.Por esta razón nosotros determinaremos el nivel de radiación que existe en ese lugar con la ayuda de dosímetros y cálculos matemáticos.
METODOLOGÍA
La metodología usada fue primero el conocimiento de los rayos X, primero aprendimos sobre ellos y estudiamos su comportamiento, desde el comportamiento general hasta el comportamiento específico en un consultorio de cardiología intervencionista, con el manejo de aparatos como el arco en c y la protección radiológica necesaria para llevar un control y no llenarse de radiación peligrosa.
CONCLUSIONES
Estamos por obtener en como influyen y de que manera específica en las personas en el consultorio, para obtener una cantidad exacta y precisa para con esto determinar que medidas tomar y tener mejor controlado cuanta radiación está sieno recibida por todas las personas de ahí.
Meza Lepe Irma Yolanda, Universidad de Guadalajara
Asesor:Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
PRINCIPIO DE EXPLOSIóN Y EL ESTUDIO DE LóGICAS PARACONSISTENTES.
PRINCIPIO DE EXPLOSIóN Y EL ESTUDIO DE LóGICAS PARACONSISTENTES.
Meza Lepe Irma Yolanda, Universidad de Guadalajara. Asesor: Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La lógica se define como el estudio de los principios de razonamiento. Una de sus ramas es la lógica simbólica, la cual estudia lenguajes dotados de reglas que permiten deducir la validez de fórmulas validas, los cuales reciben el nombre de lógicas formales. La lógica clásica es considerada la lógica formal más importante, la cual se emplea para obtener razonamientos válidos en matemáticas; sin embargo, no es la única lógica formal que se estudia.
El principio de explosión es un principio que satisface la lógica clásica (entre otras lógicas),el cual establece que, ante la presencia de una contradicción, cualquier proposición se puede deducir; esto es, todo es demostrable a partir de una contradicción. Sin embargo, en ocasiones es necesario tener que razonar con información parcialmente inconsistente o contradictoria de forma controlada y discriminatoria.
Las lógicas paraconsistentes son sistemas lógicos formales que buscan estudiar la validez lógica "siendo tolerantes a la inconsistencia" y rechazando el principio de explosión. Desde su origen, estás lógicas han sido útiles para explicar diversos fenómenos del mundo real donde la información con la que se cuenta puede resultar parcialmente inconsistente o contradictoria.
METODOLOGÍA
Se realizó un trabajo de investigación inicial para estudiar las propiedades básicas de las lógicas formales. En particular se estudiaron la sintaxis y la semántica del cálculo proposicional clásico. Se presentaron algunos de los resultados del cálculo proposicional clásico que justifican los métodos de demostración que hemos empleado a lo largo de nuestra formación académica. Entre estos resultados, se verificaron las reglas de explosión y la regla de no contradicción.
Posteriormente, se investigaron otros ejemplos de lógicas no clásicas, identificando para cada una de ellas un sistema axiomático y un modelo semántico adecuado. Para lo anterior, se estudiaron modelos algebraicos, modelos de Kripke y modelos topológicos.
Finalmente, estudiando artículos de investigación publicados recientemente se investigaron algunos problemas que motivan la definición de sistemas lógicos que permitan estudiar la validez lógica ante la presencia de inconsistencia parciales. Lo anterior es relevante porque muchas situaciones reales no se pueden explicar mediante otras lógicas. En el trabajo realizado se investigaron algunos ejemplos con estás características denominadas lógicas paraconsistentes.
CONCLUSIONES
En el trabajo realizado durante la estancia se realizó una investigación de la lógica clásica de manera semántica y sintáctica con el fin de incentivar el concepto de lógicas no clásicas y cómo los resultados que siempre hemos conocido dejan de ser válidos cuando ya no se trabaja sobre esta lógica. Un claro ejemplo de esto es el principio de explosión que no dice que, ante la presencia de una contradicción se puede probar cualquier cosa; en el caso de las lógicas paraconsistentes este hecho no es válido. Esto motivó al estudio de ejemplos de lógicas paraconsistentes para poder observar qué fenómenos se desencadenan cuando el principio de explosión no es válido en una lógica.
Además, en el proceso para llegar a conocer las lógicas paraconsistentes se estudió lo que son las lógicas positivas y lógicas intermedias; así como los modelos de Kripke y modelos topológicos, y la relación que existe entre estos y las lógicas. En el caso de modelos de Kripke, se llegó a que una fórmula es válida en un modelo de Kripke si, y solo si se prueba bajo la lógica intuicionista. En el caso de los modelos topológicos se observó como se relaciona un espacio topológico con una lógica a través de los abiertos del espacio topológico.
Molano Toral Katia Yadira, Universidad Veracruzana
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
EL GRAFENO CON UN POTENCIAL UNIDIMENSIONAL
EL GRAFENO CON UN POTENCIAL UNIDIMENSIONAL
Molano Toral Katia Yadira, Universidad Veracruzana. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El grafeno es un material bidimensional formado por capas aisladas de átomos de carbono dispuestos en una red en forma de panal. Desde su descubrimiento en el 2004 se ha convertido en uno de los temas de investigación más recurrentes de la física del estado sólido.
Lo que se quiere lograr en esta investigación es el comportamiento de los electrones del grafeno en dos campos potenciales, ambos unidimensionales.
METODOLOGÍA
Se revisaron temas complementarios que me permitieran como lector tener un panorama más amplio.
Principalmente se revisaron las características del grafeno, entendiéndolo como una forma aleotrópica del carbono, un semiconductor con una gran resistencia mecánica en el plano, entre otras muchas cosas que hacen tan peculiar este material.
Por otro lado, como conceptos preliminares también se abordaron los postulados de la mecánica cuántica, y el papel del Hamiltoniano en nuestro caso en específico.
Para finalizar, se estudió la ecuación de Schrödinger y las matrices de Dirac para entender de mejor manera las matemáticas que hay detrás.
CONCLUSIONES
En mecánica cuántica, el grafeno logra tener un comportamiento semi clásico cando es estudiado a partir de potenciales unidimensionales. Llegamos a esta conclusión a partir de los resultados obtenidos, donde podemos observar en las gráficas un comportamiento similar, que sí bien no es exacto, es una buena aproximación.
Se ha construido un modelo de la perturbación con respecto al momento transversal como un pequeño parámetro, lo que caracteriza nuestro modelo es cómo chocan los electrones a la monocapa de grafeno y cómo estaban antes del choque.
Los datos obtenidos dan como resultado un modelo que podríamos encontrar fácilmente en la mecánica clásica.
Monroy Rodríguez Megan Ixchel, Instituto Politécnico Nacional
Asesor:Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
ENCAJES DE PRODUCTOS SIMéTRICOS EN
ESPACIOS EUCLIDIANOS.
Alvarado Garduño Omar, Instituto Politécnico Nacional. Bryant Morales Francisco Seneca, Universidad de Guadalajara. Monroy Rodríguez Megan Ixchel, Instituto Politécnico Nacional. Asesor: Dr. Javier Sánchez Martínez, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Un continuo es un espacio métrico, compacto, conexo y no vacío. Dados un continuo X y un número natural n, denotamos por Fn(X) a la familia de todos los subconjuntos de X no vacíos con a lo más n puntos. El conjunto Fn(X) puede ser dotado de diferentes topologías, en este caso, lo dotaremos de la topología inducida por la métrica de Hausdorff con la cual resulta ser un continuo.
Ya en el 2003 se estudió aquellos continuos X para los cuales F2(X) puede ser encajado en IR3 utilizando técnicas avanzadas de las matemáticas, logrando una caracterización dentro de la clase de los continuos localmente conexos: si un continuo tiene como subespacio un continuo H o un continuo con un n-odo (punto del cual salen n caminos los cuales solo se intersectan en dicho punto), donde n es mayor o igual a 5.
Se plantea dar una prueba alternativa al problema anterior, además de presentar una prueba completa que justifique que el segundo producto simétrico del continuo ocho es encajable en dichos espacios (al hacerlo sería el continuo más grande tal que su segundo simétrico se puede encajar en IR3).
METODOLOGÍA
Reuniones de manera virtual por la plataforma Meet, en donde se discutió el tema, se presentaron los resultados previos, se analizó la bibliografía de consulta y hubo discusión de ideas que permitieron dar solución a los problemas planteados en el proyecto.
De ser posible, presentar los resultados originales en eventos de difusión como congresos y talleres por alguno de los participantes en el proyecto. Se escribirán los resultados originales en formato de artículo para su posible publicación, con una redacción cuidadosa y rigurosa.
CONCLUSIONES
Se logró adquirir un conocimiento básico sobre la teoría de continuos y sus hiperespacios.
En cuanto a los objetivos propuestos solo se cumplió uno en su totalidad: dar una representación geométrica para el segundo producto simétrico de la figura ocho, la cual resulta ser un toroide a la cual «pegamos» dos bandas de Moebius en sus hemisferios. Para asegurar el encaje (que las bandas y el toroide no se intercepten entre sí), se encontró la expresión analítica para las bandas de Moebius dentro y fuera de un cilindro.
En cuanto al resto de demostraciones, se revisó un artículo el cual solucionaba de manera eficiente el problema del continuo H y solo se han obtenido ideas para el continuo con algún subespacio homeomorfo a un 5-odo.
Montoya Cota Dariana Lucero, Universidad Autónoma de Sinaloa
Asesor:Dra. T. Leticia Espinosa Carreón, Centro Interdisciplinario de Investigacion para el Desarrollo Integral Regional (IPN)
VARIABILIDAD DE LA HIDROLOGíA Y DEL SISTEMA DEL CARBONO EN GUAYMAS, SONORA EN 2016
VARIABILIDAD DE LA HIDROLOGíA Y DEL SISTEMA DEL CARBONO EN GUAYMAS, SONORA EN 2016
Montoya Cota Dariana Lucero, Universidad Autónoma de Sinaloa. Asesor: Dra. T. Leticia Espinosa Carreón, Centro Interdisciplinario de Investigacion para el Desarrollo Integral Regional (IPN)
PLANTEAMIENTO DEL PROBLEMA
Según Useros Fernández (2013), actualmente el cambio climático es uno de los principales problemas que aquejan a la humanidad causando efectos directos en el medioambiente, la aceleración este es trae consigo un incremento de la temperatura global ocasionando con ello un aumento del nivel del mar, afectando directamente a los sistemas hidrológicos y sistemas de carbono, además de la calidad del agua y de los sistemas biológicos marinos.
Los procesos hidrológicos poseen variaciones en tiempo y espacio, las cuales están influenciadas por factores fisiográficos, y por diversas actividades humanas así como animales (Woods, 2006), por otro lado, conocer el sistema del CO2 permite conocer los procesos que controlan su variabilidad espacial y estacional.
El estudio del sistema del carbono y de la variabilidad de la hidrología frente al puerto de Guaymas, Sonora, es escaso, por lo anterior, ha sido objeto de estudio en esta ocasión para determinar la variabilidad de la hidrología y del sistema del carbono, en el mes de septiembre del año 2016.
METODOLOGÍA
Para la realización de los mapas satelitales fueron descargadas un total de doce imágenes satelitales del portal de Ocean Color, seis para la concentración de clorofila y seis para la temperatura superficial del mar (TSM), correspondientes a los días 14-19 septiembre del año anteriormente mencionado. Para el procesamiento de estas imágenes se hizo uso del programa computacional SeaDas versión 8.1.0, donde se realizó un mosaico de las imágenes de concentración de clorofila y TSM, respectivamente, estos datos fueron transferidos al programa Microsoft Excel, donde fueron seleccionados los datos a introducir al programa Ocean Data View (ODV) versión 5.4.0, obteniendo los perfiles de clorofila y TSM para las costas de Guaymas, Sonora.
Fueron procesados datos de los días 16 y 17 de septiembre del año 2016, obtenidos a partir de un CTD de 15 estaciones en un crucero realizado a bordo del B/O Altair de la Secretaría de Marina, dentro de un área de estudio ubicada frente a las costas de Guaymas, Sonora. Para obtención de los perfiles hidrológicos (temperatura, salinidad, oxígeno disuelto y fluorescencia), se utilizó la información proporcionada por el CTD, en cinco estaciones se obtuvieron a profundidades estándar alícuotas de agua para la determinación de carbono inorgánico disuelto (CID) y alcalinidad total (AT), las cuales fueron analizadas en el laboratorio de Productividad Primaria y Sistema del Carbono en el IPN-CIIDIR Sinaloa, se procesó la información estación por estación en el programa ODV posterior a su análisis en Microsoft Excel. Además se realizó un diagrama temperatura-salinidad (T-S) y un mapa del área de estudio con dicho programa.
CONCLUSIONES
Las imágenes satelitales de clorofila mostraron una mayor concentración de ésta en zonas cercanas a la costa, de igual manera sucedió con las imágenes de TSM.
El diagrama T-S obtenido mostró que en el área de estudio se presentó la influencia del agua superficial tropical (TSW), agua del Golfo de California (GCW) y agua subsuperficial subtropical (StSsW).
Los perfiles verticales medidos con el CTD en los días 16 y 17 de septiembre de 2016 frente a Guaymas, Sonora procesados mediante el programa ODV muestran que la concentración máxima de clorofila (> 2.0 mg m-3) se registró a 50 m. En cuanto al oxígeno disuelto (OD), se presentaron altas concentraciones de la superficie a los 50 m, a partir de esta profundidad el OD fue disminuyendo, de igual manera los perfiles de salinidad de todas las estaciones mostraron la mayor concentración a esta profundidad. La concentración de CID fue aumentando paulatinamente con la profundidad, referentemente a la AT, se presentó una mayor concentración en la E01 (> 2425 µmol kg-1).
Morales Galindo Laura María, Fundación Universitaria Konrad Lorenz
Asesor:Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara
SEGMENTACIóN DE IMáGENES CON ALGORITMOS METAHEURíSTICOS MODERNOS
SEGMENTACIóN DE IMáGENES CON ALGORITMOS METAHEURíSTICOS MODERNOS
Morales Galindo Laura María, Fundación Universitaria Konrad Lorenz. Asesor: Dr. Diego Alberto Oliva Navarro, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La segmentación es el proceso de separar la imagen en diferentes regiones donde la idea es distinguir entre objetos de interés y el resto de la imagen. En el caso más simple, la segmentación es verificada considerando solo dos clases:
•La primera clase considera al objeto de interés.
•La segunda corresponde al fondo.
Este proceso es denominado también binarización. Podemos encontrar métodos óptimos para el cálculo del umbral óptimo de las imágenes. Estos métodos permiten la binarización de dos clases usando el histograma de intensidades de la imagen.
METODOLOGÍA
El algoritmo que más se acomoda a las necesidades es el Otsu, el cual es un reconocido algoritmo en la segmentación de imágenes, así como el SHO, el cuál tiene partes de códigos útiles para la implementación
CONCLUSIONES
Gracias a lo que hemos realizado en la investigación, se han logrado tener una visualización más rápida de las imágenes presentadas, igualmente hubo aprendizaje acerca del los algoritmos implementados
Moreno Ramírez Eliú, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
DETECCIóN DE EMOCIONES BASáNDOSE EN LAS CARACTERíSTICAS DE LOS GESTOS FACIALES DETECCTADOS POR UNA RED NEURONAL
DETECCIóN DE EMOCIONES BASáNDOSE EN LAS CARACTERíSTICAS DE LOS GESTOS FACIALES DETECCTADOS POR UNA RED NEURONAL
Moreno Ramírez Eliú, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Las emociones son reacciones que todos experimentamos: alegría, tristeza, miedo, ira… Son conocidas por todos nosotros y es bien sabido que estos estados generan cambios físicos tanto a nivel interno, cambios fisiológicos, como a nivel externo, gestos. Además de generar cambios en nosotros mismos, las emociones tienen consecuencias externas, nuestros actos, nos impulsan día a día a tomar lo que deseamos y escapar de lo que no. Hacemos elecciones porque nos encontramos emocionados, nos desesperamos esperando, lloramos porque hemos sido heridos, no intentamos ciertas cosas por miedo, rechazamos las cosas demasiado nuevas frontalmente, hacemos sacrificios inmensos por amor y sufrimos. Sin duda, nuestras emociones dictan nuestros pensamientos, intenciones y acciones, a veces superando nuestra mente racional, incluso llegamos a reaccionar demasiado rápido perdiendo el control provocando tomar malas decisiones que luego lamentaremos.
Ahora bien es importante el reconocimiento de nuestras emociones para así poder controlarlas y no dejarnos llevar por impulso, por ejemplo si perdiéramos el control de estas en nuestro trabajo o mientras conducimos, segúramente causaremos un accidente y no sólo por el hecho de estar enojados sino por el estar aburrido lo que causa una pérdida significante de atención a las actividades que nos encontremos efectuando, incluso el hacer este reconocimiento nos ayuda a saber cómo nos encontramos día a día y prevenir ciertas acciones o estados como la depresión.
La forma más sencilla de entender o saber los estados de ánimos es mediante los gestos que expresamos en el rostro, con el uso de las cejas, ojos, arrugas en las mejillas o la frente; esta es la clave que se usó en el proyecto. Nos basaremos en este hecho para reconocer dichos estados, crearemos una red neuronal que sea capaz de determinar la emoción actual de una persona con una simple fotografía.
METODOLOGÍA
El lenguaje para hacer uso de deep learning fue Python, el cual fue ejecutado en los servidores del Laboratorio de Ciencia de Datos alojados en el CITEDI del IPN, en donde se registró un usuario el cual tiene acceso a los recursos de hardware y software de dichas computadoras. En dicho alojamiento se instaló Python y así poder ejecutar los programas en una notebook de Jupyter.
Como ya se mencionó anteriormente se hará una red neuronal convolucional que prediga las emociones mediante gestos del rostro, para la cual usaremos una base de datos que contiene fotos de rostros de personas expresando varias emociones, este se obtuvo en: https://www.kaggle.com/apollo2506/facial-recognition-dataset; el dataset contiene carpetas con las siguientes clases (es decir expresiones): enojo, miedo, felicidad, neutral, tristeza y sorpresa..
Lo importante del programa es tener un entrenamiento eficiente, así que para una mejor eficiencia, tomando como punto de partida la base de datos, la cual contiene 35340 fotos en total distribuidas en cada clase (es decir en cada expresión), se aplica un generador de imágenes mediante {ImageDataGenerator} que crea una copia de una foto original y realiza transformaciones como: zoom, rotaciones y traslaciones; por lo tanto al entrenar la red no sólo toma la base de datos original sino que también se toman dichas transformaciones. Para la red se tomó un 80% de la base de datos como entrenamiento y 20% como datos de validación.
Una vez que se llegaron a unos buenos parámetros mediante pruebas, se llegó a una eficiencia del 0.75 con los datos de validación, la cual no es mala para diferenciar expresiones . Lo siguiente fue tomar fotos de personas ya sea individualmente o en grupo y mediante la librería OpenCv y el comando {CascadeClasiffier} el cual ayuda a reconocer objetos especialmente rostros. Posteriormente se recortan los rostros y se guardó cada imagen de las caras por separado y por último se hizo la predicción de las emociones predichas de cada rostro y ver si lo que nos dice la red neuronal corresponde a lo que nosotros sabemos de acuerdo a lo que cada expresión facial o gesto representa según la emoción de la persona en la fotografía.
CONCLUSIONES
La importancia del reconocimiento de expresiones nos ayudará siempre en el autocontrol, o a prevenir malas decisiones, con el hecho de tener cámaras en nuestro trabajo, en nuestro carro, o en cualquier lugar podremos prever acciones o posible conductas que sean perjudiciales para nuestra salud como la ansiedad, estrés, depresión, entre otras. Y esto es posible mediante una red neuronal que fue entrenada con fotos de distintas personas lo cual nos dice que a pesar de la diferencia de mentalidades, sexo o etnia la forma en que la mayoría nos expresamos es bastante similar a pesar de que lectura de las emociones es algo bastante complicada incluso para psicología, con esto podemos ver el gran potencial que tienen las redes neuronales, que hoy en día muchas de las aplicaciones como reconocimiento facial, escritura de textos, detección de enfermedades con radiografías, entre otras; son unas de las mejores prácticas que se les puden hacer.
Muñoz de la Toba Carlos, Universidad de Sonora
Asesor:Dra. Yadira Gochi Ponce, Instituto Tecnológico de Tijuana
ANÁLISIS DE LA MORFOLOGÍA DE LOS NANOTUBOS DE CARBONO PROPUESTOS PARA APLICACIONES BIOMÉDICAS
ANÁLISIS DE LA MORFOLOGÍA DE LOS NANOTUBOS DE CARBONO PROPUESTOS PARA APLICACIONES BIOMÉDICAS
Muñoz de la Toba Carlos, Universidad de Sonora. Asesor: Dra. Yadira Gochi Ponce, Instituto Tecnológico de Tijuana
PLANTEAMIENTO DEL PROBLEMA
Los nanotubos de carbón (CNT’s) son alótropos en forma tubular, de los cuales existen nanotubos de carbón de pared simple (SWCNT’s) que consisten en un solo tubo de grafeno y también existen los nanotubos de paredes múltiples (MWCNT’s) que están compuestos por varios tubos de grafeno concéntricos unos de otros.
Debido a las propiedades eléctricas, mecánicas, ópticas, térmicas únicas que poseen estas estructuras han llamado la atención de los científicos de materiales y algunas de sus posibles aplicaciones pueden ser como aditivo en lodo de perforación, administración de fármacos, sensores médicos, blindajes, refuerzo motriz, etc.
Existen varias técnicas para la síntesis de CNT’s como son descarga de arco (arc-discharge), deposición química de vapor (CVD), electrólisis, nebulización pirolítica, entre otros. Esta última fue la que se investigó pues es una de las más sencillas, además es posible la producción en masa la cual es una característica que disminuye costos y reduce tiempo de producción.
METODOLOGÍA
La nebulización pirolítica consiste generalmente en depositar pequeñas gotas producidas por un nebulizador o atomizador de una solución, usualmente una combinación de varios componentes como poliestireno/Pd o xileno, ferroceno, benceno, entre otros, (esto principalmente por sus estructuras hexagonal y pentagonal, lo que facilita la formación de CNT’s) mediante un gas de acarreo que usualmente un gas inerte dentro de un horno con un catalizador, donde se empieza a depositar esta nube de gas y finalmente se forman estas estructuras de carbono.
Durante la residencia, se investigó en múltiples artículos científicos, los factores que intervienen en la síntesis de CNT’s y como la variación de estos afecta en su morfología, tales como la temperatura, el flujo del gas de acarreo, el tamaño de las gotas, las concentraciones de los compuestos en la solución y tiempo de nebulización.
Se encontró que la temperatura está directamente relacionada al diámetro de los tubos y a su correcta formación. Adicionalmente es necesario determinar un rango específico del flujo del gas de acarreo, se observa en general un comportamiento tal que, entre mayor flujo, el diámetro y longitud de los tubos se ve reducido, de igual manera un flujo muy bajo o alto conduce a no formar los nanotubos.
El efecto del tamaño de las gotas en el diámetro es controversial pues en ciertos artículos se afirma que hay una relación directa donde entre mayor el tamaño de la gota, mayor el diámetro de los tubos, mientras que en otros se habla de que no se observó un cambio en el diámetro de los tubos al variar el tamaño de las gotas. Parte de este comportamiento, se considera que tiene que ver con otros factores que no eran similares en los experimentos en comparación aún así es de vital importancia este estudio pues quedan dados parámetros y condiciones en las que se pueden sintetizar CNT’s muy regulares de acuerdo con lo buscado.
La solubilidad y dispersión es modulable con la modificación superficial que se le de a los CNT’s es posible la modificación de sus propiedades físicas. Lo más común es que se le adhieran grupos funcionales a los CNT’s además se ha demostrado que la funcionalización química de los CNT mejora drásticamente la carga toxicológica.
Con toda la investigación realizada a lo largo de los años en caracterización de los CNT’s se ha alcanzado un nivel razonable de entendimiento en sus propiedades fundamentales lo que da paso a la posible exploración a diferentes aplicaciones, en especial las biomédicas.
Estas aplicaciones dependen entre otras cosas de la solubilización y dispersión de los nanotubos en ambientes biológicos acuosos pues cuando estos se producen son completamente insolubles en la mayoría los medios acuosos y se tienen registros de que son tóxicos en los sistemas biológicos, entonces es necesario también buscar la biocompatibilidad de los CNT’s.
Se encontró en la bibliografía algunos casos de funcionalización de nanotubos de carbono en los cuales hay un gran avance en la biocompatibilidad, por ejemplo, la funcionalización con los grupos amino puede hacer
Entrega de péptidos de manera intracelular
Unirse, condensarse y liberar de forma no covalente ácidos nucleicos biológicamente activos.
Adicionalmente uno de los factores que se encontró que se relaciona con la toxicidad es la longitud de los nanotubos no funcionalizados (en este caso de pared múltiple) en donde los que se estudiaron a longitudes mayores a 20µm se encontraron que se aumenta el riesgo de carcinogénesis.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los nanotubos de carbón, su producción, principalmente desde la técnica de nebulización pirolítica pasando a la caracterización y descripción de su morfología y terminar con las aplicaciones que se le pueden dar al funcionalizar los nanotubos, aun así queda mucho por investigar y experimentos por realizar para poder determinar una metodología precisa o adecuada para la producción de nanotubos de carbón biocompatibles que puedan ser útiles para una aplicación específica.
Navarrete Carpizo Catalina, Instituto Politécnico Nacional
Asesor:Dra. María Teresa Torrijos Muñoz, Benemérita Universidad Autónoma de Puebla
ANáLISIS DE DATOS CON ALGORITMOS CLúSTERING PARA LA DESCRIPCIóN DE LA CALIDAD DE EDUCACIóN EN MéXICO
ANáLISIS DE DATOS CON ALGORITMOS CLúSTERING PARA LA DESCRIPCIóN DE LA CALIDAD DE EDUCACIóN EN MéXICO
Navarrete Carpizo Catalina, Instituto Politécnico Nacional. Asesor: Dra. María Teresa Torrijos Muñoz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La educación se define como el proceso de desarrollar o perfeccionar las facultades tanto intelectuales como morales de los niños o jóvenes en cuestión. Es el factor más importante para el desarrollo de individuos dándoles identidad, enriqueciendo la cultura, el espíritu, los valores y por lo tanto se alcanzan mejores niveles de bienestar social, crecimiento económico, un fortalecimiento de la democracia, y avances tecnológicos y científicos. En México, desde los últimos 10 años hasta el presente la educación suficiente y de calidad sigue siendo un objetivo difícilmente de alcanzar, tanto la insuficiencia como la desigualdad de la educación en México se acentúan entre más alto sea el grado escolar y fluctúan mucho entre entidades federativas. Por un lado, la desigualdad se hace presenta en las brechas sociales y regionales donde el acceso y ejercicios del derecho a la educación es menor para los grupos más vulnerables, por el otro lado, la insuficiencia educativa se presenta en el personal docente, la oferta educativa, los servicios he infraestructura y la actualización de programa y planes de estudio.
La mayor problemática radica en que ciertos estados de la república, cuentan con un menor nivel de calidad en la educación que otros aunque todos los estados se rigan por la Secertaría de Educación Pública, por lo que durante el verano de inestigación se estudian las variables que afectan la educación en los estados de la republica y con base en ello poder realizar un modelo que matemático que nos permita realizar una asociación entre causa y efecto.
METODOLOGÍA
Para la presente estancia se llevo a cabo la minera de datos como herramienta para poder analizar los datos, este es un proceso utilizado por varias entidades para transformar datos en información que se puede utilizar para la toma de decisiones. Su funcionamiento consiste en utilizar grandes bases de datos para poder reconocer patrones que se repiten de manera consistente, este reconocimiento se logra a través de la elaboración de algoritmos computacionales.
Para que la minería de datos sea eficiente se debe precisar primeramente de un software, para esta investigación se utilizará el software de ‘Rapid Miner’, posteriormente los datos que se utilizaran para el análisis deberán de ser generados y limpiados antes de integrados al software en cuestión.
Los datos correspondientes a cada entidad federativa fueron considerados en términos de, nivel de escolaridad, número de maestros por entidad, número de escuelas por entidad, esperanza de escolaridad y el producto interno bruto que aporta cada entidad federativa al país. Estos datos que se utilizarán para el análisis de la educación en la República Mexicana fueron recopilados de la página oficial del Instituto Nacional de Estadística (INEGI); organismo público autónomo responsable de captar y difundir información de México que permita dar a conocer las características del país y ayudar a la toma de decisiones.
Los datos en crudo que se obtuvieron como resultado de la indagación, fueron estudiados para poder ser organizados en una estructura que mejor se adapte para el análisis de estos datos. Posteriormente se analizaron los datos y fueron extraídos para descubrir y corregir o eliminar los registros de datos erróneos o faltantes dentro de la base de datos, es decir que los datos fueron limpiados. Los datos también pasaron por el proceso de transformación para poder convertir los datos en información explotable, y de carga lo cual permite mover los datos de un sistema informático a otro que en este caso es ‘Rapid Miner’.
Rapid Miner es un software que unifica todo el ciclo de vida de la ciencia de datos desde la preparación de datos hasta el aprendizaje automático y las operaciones de modelos predictivos, permite el desarrollo de procesos de análisis de datos, así como la visualización de los resultados en graficas dentro de un entorno gráfico. Su utilización es presente en la industria automotriz, en los negocios eCommerce, en las comunicaciones, en la industria energética, los servicios financieros, el sector salud y en empresas privadas.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre los algoritmos de la minera de datos como son el Clustering, Asociacion y Segemtnacion y ponerlos en práctica, apoyandonos de los procesos por los cuales pasan los datos; extracción, transformación y carga. Sin embargo, al ser una investigación extensa y por la naturaleza de los algorimtos no supervizados (algortimos que necesetian datos históricos) no se pueden mostrar datos predictivos.
Para versiones futuras de la investigación se espera trabajar con indicadores establecidos por el Banco Mundial con el fín de encontrar patrones que lleven a la resolución de alguna incógnita.
Navarro Chávez Dafne Natalia, Universidad de Colima
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
CONTROL ESTOCáSTICO EN MODELOS HIDROLóGICOS DE LA CUENCA LERMA-SANTIAGO-PACíFICO
CONTROL ESTOCáSTICO EN MODELOS HIDROLóGICOS DE LA CUENCA LERMA-SANTIAGO-PACíFICO
Navarro Chávez Dafne Natalia, Universidad de Colima. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
La hidrología juega un papel importante en la vida cotidiana, así mismo las cuencas hidrológicas. El estudio y análisis de las cuencas son de mucha importancia. Los principales ingresos económicos del país vienen gracias a la actividad que se realiza alrededor de ellas. Hidrología es la ciencia natural que estudia al agua, su ocurrencia, circulación y distribución en la superficie terrestre, sus propiedades químicas y físicas y su relación con el medio ambiente, incluyendo a los seres vivos.
Una cuenca es una zona de la superficie terrestre en donde (si fuera impermeable) las gotas de lluvia que caen sobre ella tienden a ser drenadas por el sistema de corrientes hacia un mismo punto de salida.
METODOLOGÍA
Organismo de Cuenca Lerma Santiago Pacífico
La Región Hidrológico-Administrativa VIII Lerma-Santiago-Pacífico está ubicada en la zona centro-occidente del país; pasa por los estados de Aguascalientes, Colima, Guanajuato, Jalisco, Estado de México, Michoacán, Nayarit, Querétaro y Zacatecas. . El Producto Interno Bruto (PIB) de los municipios que integran la Región, equivalía en el año 2008 al 17 por ciento del PIB naciona.
Para poder estudiar la zona de la cuenca utilizaremos un programa del cuál podremos recolectar valores como las temperaturas, estadísticas, precipitación, etc. Se descarga Google Earth Pro directamente en Google. Se descarga de la página de CONABIO el mapa de regiones hidrológicas. Se descarga de la página de CONABIO el mapa de regiones hidrológicas. Al seleccionar Google Earth Pro abrirá una pestaña como esta. Dentro del programa debe abrirse el mapa de regiones hidrológicas. Se desactivarán las capas de las cuencas que no se utilizarán con el fin de que sólo quede la cuenca escogida. Y alrededor de la misma traza un polígono.
-Huracán Jova del Océano Pacífico: El día 5 de octubre por la noche se formó la depresión tropical No. 10-E de la temporada 2011 en el Pacífico Nororiental.
La depresión tropical No. 10 continuó su desplazamiento hacia el Noroeste y el día 6 por la tarde, se ubicó a una distancia de 800 km al Sur-Suroeste de Manzanillo, Col., con vientos máximos sostenidos de 65 km/h y rachas de 85 km/h, es decir, fuerza de tormenta tropical, por lo que se le asignó el nombre de Jova. El día 8 por la tarde, se ubicó a 710 km al Oeste-Suroeste de Manzanillo, Col., ya como huracán, con vientos máximos sostenidos de 120 km/h, rachas de 150 km/h y desplazamiento hacia el Este-Noreste a 6 km/h. El día 10 de octubre por la mañana, Jova alcanzó su mayor intensidad con vientos máximos sostenidos de 205 km/h y rachas de 250 km/h dentro de la categoría III de la escala Saffir-Simpson, a 400 km al Suroeste de Manzanillo, Col. Jova siguió perdiendo fuerza, por lo que el día 11 poco después del mediodía, se debilitó a huracán de categoría II, con vientos máximos sostenidos de 160 km/h y rachas de 195 km/h a una distancia de 175 km al Suroeste de Manzanillo, Col., fuerza con la que se mantuvo hasta las 01:00 horas local del día 12., debido a la fricción con el terreno, Jova siguió debilitándose rápidamente, por lo que a las 4:00 horas, ya se encontraba en tierra. El día 12 a las 10:00 horas del día se degradó a tormenta tropical con vientos máximos sostenidos de 100 km/h, y así, por la tarde del día 12, se degradó a depresión tropical.
Para recolectar información utilizaremos estaciones climatológicas Las estaciones se descargan directamente de Google en un archivo kmz. En ese archivo aparecen las estaciones climatológicas de tomo México, tanto las activas como las que ya no están activas. Para hacer el estudio se dejan activas solo las que pertenecen en la cuenca Lerma-Santiago-Pacífico. Por cuestión de tiempo no se utilizarán todas las estaciones para la recolección de datos. Una vez teniendo seleccionadas las estaciones se consulta en Google la Informaciones de Estaciones Climatológicas. De cada estación se rescatan los valores en mm de la precipitación de la fecha en que el huracán Jova afectó la zona (05 de oct al 12 de oct). Los resultados se anexaron a tablas de excel.
-Base de datos
Cimate Computing Project (CLICOM) es un sistema de software de manejo de datos climatológicos. Las observaciones diarias representan los datos recopilados (Tprom., Tmax., precipitación, etc.); así, cada una de las diferentes estaciones del país contiene diferentes periodos de información, donde se pueden encontrar datos de 1920 a 2012. Esta base fue convertida a una malla de 1/8 de grado por investigadores de la UNIVERSIDAD DE WASHINGTON.
Se realizó una revisión diaria de datos del Sistema de Información Hidrológica (SIH) del 14 de julio al 30 de julio, lo que nos da un total de 17 días. Los datos fueron descargados y almacenados para poder analizarlos.
Prueba de Fisher
La prueba de Fisher ayuda a determinar regiones homogéneas de una serie de datos. Primero se recolectan los datos de Precipitación acumulada de las estaciones que ya se habían elegido, se calcula la media, la desviación estándar y el coeficiente de variación. Después se realiza la tabla de estadísticos.
Líneas futuras de investigación
Recolectar todos los datos de las estaciones de la cuenca Lerma-Santiago-Pacífico. Estudio u uso de algoritmos genéticos para el estudio de los fenómenos climatológicos.
CONCLUSIONES
Como ya se ha mencionado antes la cuenca Lerma-Santiago-pacifico tiene un 17% del PIB en el país por lo cual es importante analizarla y prevenir daños o alteraciones que puedan afectar el buen funcionamiento de esta. Este trabajo se hizo con el fin de aprender a recolectar datos que nos puedan sirvan al momento de querer analizar la cuenca, así mismo en el transcurso de las actividades descubrimos algunos de los usos que le podemos dar a los datos que recolectamos. Es necesario conocer el impacto y los alcances que han tenido los fenómenos meteorológicos en las regiones para evitar al máximo las perdidas tanto económicas como humanas.
Navarro Humar Mariana Guadalupe, Instituto Tecnológico Superior de Cananea
Asesor:Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
DISEñO DE TRATAMIENTOS TéRMICOS, METALURGIA FíSICA Y TRANSFORMACIONES DE FASE.
DISEñO DE TRATAMIENTOS TéRMICOS, METALURGIA FíSICA Y TRANSFORMACIONES DE FASE.
Navarro Humar Mariana Guadalupe, Instituto Tecnológico Superior de Cananea. Asesor: Dr. Luis Alberto Cáceres Díaz, Centro de Tecnología Avanzada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la industria de manufactura aditiva se busca brindar herramnetales de alta calidad con ciertas propiedades requeridas, para ello es necesario que se lleven a cabo una serie de procesos en los cuales influye la microestructura de los materiales y el tratamiento termico que se les da.
Debido a que no se tiene un metodo exacto para la elaboracion de aceros grado herramienta de alta aleacion principalmente con estructura martensitica, es necesario estudiar e interpretar las transformaciones de fase en los aceros D2 y H13, para lograr entender los cambios que se presentan en su estructura cristalina y estabilidad de red.
Al conocer los aceros base carbono y elementos aleantes, que se componene de una estructura martensítica, empelados en herramentales de alta aleacion, es posible entender de una manera paractica la elaboración de ese tipo de aceros mediante la medición de los cambios que sufren en el proceso con las herramientas adecuadas como lo es XRD y Thermo-calc.
METODOLOGÍA
Utilizando varias fuentes bibliograficas, se desarrollaron actividades para cumplir con los objetivos establecidos. Elaborando reportes de investigacion, mapeos de propiedades mecanicas etc. Mediante la utilizacion del software Thermo-Calc se realizaron simulaciones de equilibrio termodinamico con la finalidad de tener un poco mas de practica en la utilizacion de dicha herramienta computacional para las actividades futuras.
indagación bibliográfica de temas relacionados con transformaciones de fase, fundamentos teoricos de termodinamica de materiales y herramientas computacionales.
Entender el efecto del carbono y elementos aleantes, para comprender la estructura cristalina y estabilidad de fases que se presentan en las aleaciones base hierro.
Simulaciones de equilibrio termodinámico en distintos sistemas, con el software Thermo-Calc que permite elaborar distintos diseños y calculos enfocados a diagramas de fase, procesos metalúrgicos, simulaciones de solidificacion de Scheil, simulaciones de difusión, con los cuales se puede estudiar el equilibrio termodinámico de dichos sistemas.
Medicion de los cambios estructurales de los aceros. mediante la difracción de rayos X en funcion de la temperatura para monitoriar los cambios de los aceros D2 y H13.
Para la metodologia experimental se utilizaran los aceros D2 y H13 a los cuales se les medirán los cambios estructurales mediante difracción de rayos X. Con el fin de correlacionar los resultados teóricos y experimentales, asi mismo se podrá entender las transformaciones martensitica en los aceros de alta aleación.
CONCLUSIONES
Durante la estancia del verano, se logararon adquirir conocimientos teóricos de transformaciones de fase, fundamentos de termodinámica basica, termodinámica computacional, caracteristicas y desempeño de los aceros estudiados. Así como la elaboracion de simulaciones de equilibrio termodinamico en distintos sistemas base Fe-C con el software Thermo-Calc. Lo cual es base fundamental apra seguir desarrollando el trabajo de investigacion. Debido a que el trabajo es extenso aun no se obtienen resultados experimentales. Se pretende una vez que se realicen las mediciones correspondientes, analizar resultados y obtener las conclusiones.
Navarro Salazar Fidel Alejandro, Universidad de Sonora
Asesor:Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
RESPUESTA óPTICA DE CRISTALES FOTóNICOS UNIDIMENSIONALES ALEATORIOS USANDO ALGORITMOS GENéTICOS
Acosta Esparza Marco Aurelio, Universidad Autónoma de Zacatecas. Arroyo Cordova José, Universidad Autónoma de Chiapas. Navarro Salazar Fidel Alejandro, Universidad de Sonora. Asesor: Dr. Cristian Ramírez Gutiérrez, Universidad Politécnica de Querétaro
PLANTEAMIENTO DEL PROBLEMA
Nuevas estructuras, materiales y diseños han sido la fuerza impulsora para nuevos dispositivos fotónicos que pueden ser aplicados en bioquímica, energía solar eficiente, imágenes de súper alta resolución, información y computación cuántica, entre otras tecnologías emergentes. Sin embargo, en diversos contextos, la fabricación y uso de los dispositivos y materiales están limitados por sus propiedades físicas y químicas, o aspectos logísticos como disponibilidad y costo.
Muchas leyes fundamentales se han generalizado en estos medios estructurados y, en consecuencia, prometen una amplia gama de aplicaciones importantes. Por ejemplo, los cristales fotónicos pueden realizar bandgaps fotónicos completos, de modo que la luz pueda transmitirse alrededor de una curva cerrada rodeada de tales cristales con una eficiencia casi perfecta. Estos efectos son logrados a través de la elección adecuada de materiales, así como de su distribución en el espacio.
Hasta ahora, hay dos enfoques de diseño principales. El primero es recurrir a métodos basados en la física, como el análisis analítico simplificado modelos matemáticos o condiciones experimentales obtenidas de condiciones particulares de experimentación o la intuición. El segundo, está basado en la simulación numérica generalmente enfocada a la optimización. Sin embargo, a menudo es necesario ajustar la geometría o condiciones de la simulación para que se acerque a respuestas específicas y a la realidad experimental.
Como alternativa se propone el uso de metodologías de aprendizaje profundo que permiten incorporar un modelo computacional compuesto por múltiples capas de unidades de procesamiento para aprender múltiples niveles de abstracción de datos. Este enfoque ha tenido un éxito en el procesamiento natural de lenguaje, reconocimiento de voz y análisis de imágenes, lo que ha atraído atención en diversas disciplinas incluidas la óptica y fotónica.
En el presente proyecto se implementa un algoritmo genético que resuelve el problema inverso de reflectores unidimensionales de amplio espectro de combinación de diversos materiales para obtener configuraciones de capas no ordenadas cuya respuesta óptica se asemeje a las configuraciones ordenadas convencionales.
METODOLOGÍA
Para la simulación de la respuesta óptica de estructuras fotónicas unidimensionales (1DPC) es necesario tener los valores del índice de refracción y coeficiente de extinción de diversos materiales en el rango espectral de trabajo. Los índices de refracción y coeficientes de extinción utilizados en estas simulaciones fueron obtenidos a través de una colección y recopilación de investigaciones, artículos y experimentos. Con el objetivo de homogeneizar la base datos de constantes ópticas de materiales, los datos fueron catalogados de acuerdo con el rango espectral, y se generaron nuevos valores homogéneos en el rango de 200 a 1100 nm cada 1 nm utilizando el método de interpolación spline cúbico.
Los algoritmos genéticos son principalmente algoritmos adaptativos o de búsqueda, usados generalmente en la optimización de parámetros del modelo en cuestión, tomando como premisa la idea de la selección natural. Tomando una población aleatoria, en la cual cada individuo representa una posible solución al modelo, esta población cambia de acuerdo con las necesidades propuestas, por lo que el algoritmo toma un conjunto de valores numéricos que conforma los cromosomas que mejor se adaptan para continuar con la con la evolución de la población, eligiendo a los hijos más aptos al cruzar o combinar los cromosomas de los padres. Sin embargo, es posible llegar a un estancamiento en la búsqueda de los parámetros más aptos, por lo que se implementa un proceso evolutivo llamado mutación, causante de que los cromosomas en la descendencia sean diferentes a los de los padres, logrando así evitar el estancamiento además de encontrar una mejor solución en comparación con la población inicial.
En este trabajo se utilizó GA para obtener 1DPC que se ajustaran a una respuesta de reflexión. El GA utiliza la lista de espesores de cada capa como el parámetro de estructura o cromosoma. Cada cromosoma posee un error asociado a la reflexión deseada. Operadores, como mutación y selección, fueron utilizados para minimizar el error. El error está definido como el error cuadrático medio.
Antes de comenzar el GA se establece el número de capas y los materiales a utilizar. El GA comienza creando una población inicial de N miembros, cada uno con una lista de espesores aleatorios. A partir de estos valores iniciales se calcula la estructura 1DPC y el error asociado para cada cromosoma. Posterior a estos pasos, el GA busca el cromosoma mejor adaptado utilizando procesos de entrecruzamiento y mutación.
CONCLUSIONES
La presente investigación ha logrado generar y probar un algoritmo genético que genera la configuración de espesores de capas de 1DPC que optimiza la reflectancia de la estructura en un rango espectral especifico. El algoritmo encontró configuraciones de capas no ordenadas cuya reflectancia se aproxima a las configuraciones ordenadas tradicionales, indicando que la respuesta óptica de este tipo de estructuras no es única. Los espectros generados a través del algoritmo genético también representan una base de datos de respuestas ópticas de diversas configuraciones de materiales y capas 1DPC que puede ser utilizada para el entrenamiento de algoritmos de aprendizaje profundo más complejos, como los basados en redes generativas antagónicas (GAN) o redes neuronales totalmente conectadas, que permitan generar nuevas configuraciones no ordenadas de 1DPC. Posterior a este trabajo, se buscará formar una base de datos de respuestas ópticas y configuraciones de cristales fotónicos de mayor volumen para ser donada a la UCI Machine Learning Repository.
Nieto Arcos Lizbeth, Instituto Politécnico Nacional
Asesor:Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
LAS INNOVACIONES DE LA ARQUITECTURA AL ALCANCE DE NUESTRO FUTURO.
LAS INNOVACIONES DE LA ARQUITECTURA AL ALCANCE DE NUESTRO FUTURO.
Nieto Arcos Lizbeth, Instituto Politécnico Nacional. Asesor: Dra. Elia Mercedes Alonso Guzmán, Universidad Michoacana de San Nicolás de Hidalgo
PLANTEAMIENTO DEL PROBLEMA
Actualmente nosotros los jóvenes nos hemos centrado en palabras simples TECNOLOGÍA e INNOVACIÓN, si bien algunos de nosotros únicamente conocemos las ideas de lo que a futuro nos será de ayuda para realizar distintas actividades desde nuestro hogar hasta nuestro ámbito profesional. Ahora hablemos un poco sobre nuestros intereses, gustos, aficiones y los temas que conllevan todo lo antes mencionado.
Existen investigaciones que para muchos pueden ser de conocimiento nulo pues no existe mucha información acerca de los materiales de los que hablaré a continuación; son innovaciones en materiales que se podrán utilizar en construcciones y que además traerán beneficios a nosotros los habitantes ya sea de una casa, un departamento o bien el lugar donde puedas colocar el material y genere un impacto visual que de originalidad a lugar donde se colocará dicho material.
METODOLOGÍA
La investigación partió del interés por los diferentes acabados utilizados en las construcciones con la finalidad de generar una estética que pudiese captar la atención de las personas al observarlo y a su vez de las distintas tipologías de los materiales, así como las innovaciones que recientemente se han implementado o planean implementarse a futuro debido a lo que actualmente se busca, lo cual es el cuidado del medio ambiente y sobre todo evitar aportaciones al deterioro del mismo.
Se realizó una búsqueda en artículos de investigación y videos de materiales que actualmente estuvieran en vías de desarrollo o que aún no se utilizan en la construcción, se llevó a cabo una comparación y descarte de los materiales que se consideraron apropiados para generar ya sean fachadas o acabados tanto en parámetros interiores como exteriores en una construcción y una vez seleccionados los materiales con las características mencionadas de sustentabilidad y sostenibilidad, comenzó la búsqueda de información específica de los 7 materiales y una vez encontrada comenzó el análisis de la información para saber los beneficios que cada uno de los materiales podía ofrecer, únicamente desde un punto de vista enfocado al interiorismo y el diseño total.
El interiorismo lo abordé según el concepto, características y objetivos mencionados por México Desing 2018:
El interiorismo crea confort en cualquier lugar, convirtiéndolos en lugares con vida, más acogedores y familiares, sea el espacio que sea, utilizando los elementos propios que sean necesarios para así lograrlo. Está caracterizado por su juego de diseños, limitación del espacio, la creación del concepto de espacios abiertos e ilusiones ópticas y por último, pero no menos importante sus diseños son orientados según los gustos o instrucciones de la persona que habitará el lugar. (¿Qué es el interiorismo?)
Si bien otro concepto a resaltar es la idea de Diseño Total, a la que se refirió Ove Arup ya que, en numerosas ocasiones, defiende la integración de diseño y construcción, así como la influencia de la estructura en la arquitectura, el papel que la arquitectura, la ingeniería deben jugar en la sociedad y el impacto que la tecnología moderna tiene en la sociedad. (I.2.2. Orígenes de la colaboración ingenieros.)
Continuando con el trabajo dentro del análisis de información de los materiales se realizó una ficha técnica por material donde mencionaban los aspectos técnicos, las características del material, una breve descripción de los beneficios que ofrece, además de su uso en construcciones en caso de tenerlo, así como el año de su aplicación y la persona que lo inventó o creó.
Los materiales que elegí fueron los siguientes: Concreto translúcido, Lámina de Privacidad Look Out también llamado cristal inteligente o PDLC, Vidrio con Cámara de Agua y micro algas en su Interior, Madera transparente, Hrydroceramics Bricks o bien Ladrillos Hidrocerámicas, Cemento Luminiscente y el Sistema constructivo Molecule.
Una vez encontrada y analizada la información se procedió a generar las propuestas tanto de lugares dentro de una edificación en el cual era pertinente el uso del material como de edificaciones en sí, ejemplos de ello son restaurantes, hoteles, oficinas, hospitales, etc.
CONCLUSIONES
Para finalizar la investigación concluí que no solo depende de la tipología del material para generar una propuesta sino también de los aspectos de comodidad, confort térmico, estético, estático, económico y sobre todo que en algún momento dichos materiales puedan generar un cambio a las edificaciones para poder encaminarlas a ser sostenibles y amigables con en el medio ambiente.
Puesto que fue una investigación a la par con la estancia virtual de verano adquirí conocimientos tanto de los investigadores como de la propia investigación que realicé, si bien no es una investigación amplia se puede generar un campo de estudio más a fondo y sobre todo de manera estructural al aplicarse los materiales dentro de la construcción con el fin de aportar beneficios a la estructura.
Al aportar información sobre todo a mis compañeros jóvenes constructores que quieran aprender más acerca del campo de la arquitectura y sus innovaciones, cumplo con mi objetivó como joven investigadora ya que un gran límite es no conocer más información que la de los libros, por ello quisiera agradecer al Programa Delfín por permitirme esta asistencia al XXVI Verano de Investigación, a los investigadores del verano y a mis asesores por compartir su amplio conocimiento, solventar mis dudas y sobre todo por el inconmensurable apoyo.
Nunca consideres el estudio como una obligación, sino como una oportunidad para penetrar en el bello mundo del saber. Albert Einstein
Olmos Velderrain Daniela, Universidad de Sonora
Asesor:Dra. T. Leticia Espinosa Carreón, Centro Interdisciplinario de Investigacion para el Desarrollo Integral Regional (IPN)
VARIABILIDAD DE LA HIDROLOGíA Y EL SISTEMA DE CARBONO EN MULEGé, BAJA CALIFORNIA SUR EN 2017
VARIABILIDAD DE LA HIDROLOGíA Y EL SISTEMA DE CARBONO EN MULEGé, BAJA CALIFORNIA SUR EN 2017
Olmos Velderrain Daniela, Universidad de Sonora. Asesor: Dra. T. Leticia Espinosa Carreón, Centro Interdisciplinario de Investigacion para el Desarrollo Integral Regional (IPN)
PLANTEAMIENTO DEL PROBLEMA
El Golfo de California es una de las zonas marítimas más productivas del mundo con una cadena alimenticia sumamente diversa y compleja. Sin embargo, son escasos los estudios que han sido realizados referentes a la bioquímica de la columna de agua y el sistema de dióxido de carbono (CO2) en esta región.
Por tal motivo, en este Verano de Investigación se realizó un análisis de datos obtenidos por medio de un CTD e imágenes satelitales de la zona del puerto de Mulegé en Baja California Sur en el verano de 2017, buscando así obtener información sobre diversas variables hidrológicas y el carbono inorgánico disuelto (CID).
METODOLOGÍA
Se realizaron mapas de clorofila (CLA) y temperatura superficial del mar (TSM) de la zona utilizando imágenes satelitales proporcionadas por el Grupo de Procesamiento de Biología Marina de la NASA con una resolución espacial de 4km por pixel en las fechas cercanas a la toma de muestras del crucero oceanográfico (los días 28 y 29 de junio de 2017), realizado a bordo del B/O Tecolutla de la Secretaría de Marina. Las imágenes fueron procesadas empleando los programas SeaDAS y Ocean Data View (ODV).
Se procesaron también los datos provenientes de 10 estaciones alrededor del puerto de Mulegé donde el CTD recolectó información de temperatura, salinidad, fluorescencia, oxígeno disuelto (OD). Se colectaron alícuotas a diferentes profundidades de la columna de agua para el análisis en laboratorio de carbono inorgánico disuelto (CID) y alcalinidad total (AT). Se empleó el programa OVD para realizar graficas de cada una de estas variables en función de la profundidad para las diferentes estaciones, así como un diagrama de temperatura-salinidad (T-S) para la identificación de las masas de agua presentes.
CONCLUSIONES
Al observar los mapas de clorofila (CLA) y temperatura superficial del mar (TSM) obtenidos a partir de las imágenes satelitales, se encontraron temperaturas mayores a los 30°C al interior de la bahía, con aguas más templadas al norte y sur de ésta. Se notó presencia de clorofila en toda la zona cercana a la costa, especialmente al sur de la bahía.
Fueron graficados los perfiles verticales registrados por el CTD el 28 y 29 de junio de 2016 en las diez estaciones frente a Mulegé. La estación 9 registró un máximo de clorofila (>3.5 mg m-3) alrededor de los 200 metros de profundidad, mientras que en el resto de las estaciones el valor máximo se presentó entre la superficie y los 50 m (~ 3 mg m-3).
Se encontró que la concentración de oxígeno disuelto fue mayor alrededor de los 35 m de profundidad (~ 7.5 ml L-1), y disminuye rápidamente en la mayoría de las estaciones a partir de los 100m, a excepción de las estaciones 1 y 2, donde este valor disminuye hasta los 200m.
En cuanto a la salinidad, el valor máximo (~ 35.5 ups) se localizó alrededor de los 30 m, disminuyendo rápidamente antes de los 100m de manera similar a la concentración de oxígeno.
Los valores más altos registrados de CID se encontraron entre los 100 y 200 m, siendo 2356 μmol kg-1 el valor máximo registrado por la estación 4 a 100 m (cabe resaltar que esta es la estación más alejada de la zona de estudio). Sin embargo, fueron pocos los datos registrados de esta variable ya que la profundidad máxima de la medición fueron 200 m (a excepción de la estación 10 donde el máximo fue de 500 m).
En cuanto a la gráfica de AT, los valores más altos fueron registrados cerca de la superficie (< 5 m) por las estaciones 9 y 10 reportando cantidades de > 2400 μmol kg-1.
El diagrama T-S se creó a partir de la información recolectada por las 10 estaciones. De acuerdo con el diagrama se encontró presencia del ATS, AGC y AStSs. La distribución de los datos indica una mayor presencia de AStSs en comparación con las otras masas de agua.
Para concluir con este trabajo, cabe resaltar la importancia que tienen este tipo de investigaciones debido a que el cambio climático y la acidificación del océano son grandes problemáticas ambientales actuales. El uso de la percepción remota y la realización de cruceros oceanográficos son grandes herramientas que permiten llevar a cabo dichos estudios. Ampliar la investigación en una zona tan rica como lo es el Golfo de California es imperativo para ayudar a su conservación.
Ortiz García Nahomi Giovanna, Universidad de Guadalajara
Asesor:Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
NEUROCIENCIA MATEMáTICA
NEUROCIENCIA MATEMáTICA
Ortiz García Nahomi Giovanna, Universidad de Guadalajara. Asesor: Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
A lo largo de nuestro cerebro, se detectan patrones de actividad oscilatoria, los cuales son registrados a través de electroencefalografías. Estas oscilaciones se refieren a fluctuaciones rítmicas de potenciales de acción de un grupo de neuronas, mismas que han sido clasificadas en bandas de frecuencias:
Delta (0.5-4 Hz). Se asocian principalmente con el sueño profundo y pueden estar presentes en el estado de vigilia.
Theta (4-7.5 Hz). Las ondas theta aparecen cuando la conciencia se desliza hacia la somnolencia, se han vinculado con el acceso a material inconsciente, inspiración creativa y meditación profunda.
Alpha (8-13 Hz). Localizadas en la mitad posterior de la cabeza, indican una conciencia relajada, sin atención ni concentración. La onda alfa es el ritmo más prominente de todo el reino.
Beta (14-26 Hz). Asociadas con el pensamiento y la atención activa, el enfoque en el mundo exterior o la resolución de problemas concretos. Se puede adquirir una onda beta de alto nivel cuando un humano está en estado de pánico.
Gamma (> 30 Hz). Las amplitudes de este ritmo son muy bajas y su ocurrencia es rara, por lo que puede usarse para confirmar ciertas enfermedades cerebrales.
METODOLOGÍA
Durante las primeras semanas se realizó una revisión de literatura: Cortical travelling waves: mechanisms and computational principles Muller et al Nature Reviews Neuroscience 19, 255-268 (2018), Introducción al EEG del libro EEG Signal Processing de S. Sanei y J.A. Chambers, John Wiley & Sons (2007), Fundamentos de procesamiento de señales en EEG del libro EEG Signal Processing de S. Sanei y J.A. Chambers, John Wiley & Sons (2007), con el objetivo de entender los fundamentos teóricos detrás del problema a resolver.
Posteriormente, se utilizó una base de datos (PhysioNet) que consta de más de 1500 registros de EEG de uno y dos minutos, obtenidos de 109 voluntarios, quienes realizaron diferentes tareas motoras/de imágenes, utilizando el sistema BCI2000 con 64 canales. Dicha base de datos fue analizada visual y cuantitativamente, por medio de códigos implementados en el programa Matlab, con la finalidad de poder discernir entre movimientos realizados por la mano derecha e izquierda, respectivamente.
CONCLUSIONES
Al estudiar las bandas de frecuencia alpha y gamma, se encontró que la primera de estas proporciona información mayoritariamente localizada en la región de la corteza motora, lo cual coincide con la teoría, pues se sabe que dicha área es la responsable de los procesos de planificación, control y ejecución de las funciones motoras voluntarias.
Mientras que las ondas gamma, se mostraron sin un patrón significativo y predominante, por lo que se decidió centrar la investigación en el ritmo alpha.
Con base en lo anterior, se establecieron distintos algoritmos en Matlab para establecer características de patrones espacio-temporales de actividad durante tareas de intención motora. Motivados por las visualizaciones de datos, se cuantificó la dirección de movimiento.
También, se establecieron algoritmos para identificar características en las propagaciones, entre ellas, se encontraron dos tipos: espacial y temporal. Con esta información, se obtuvo la velocidad de propagación de dichas ondas, para posteriormente utilizarla en modelos matemáticos y conocer más información sobre la dinámica del sistema.
Paniagua Pinto Marco Dalí, Universidad Autónoma de Chiapas
Asesor:Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
CáLCULO DE PROPIEDADES ÓPTICAS DE LA MATERIA
CáLCULO DE PROPIEDADES ÓPTICAS DE LA MATERIA
Paniagua Pinto Marco Dalí, Universidad Autónoma de Chiapas. Sánchez Villalobos Jairo Adrian, Universidad Autónoma de Chiapas. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El proyecto trata de el uso de software libre especializado para obtener propiedades ópticas no lineales específicas de materiales. La Óptica no lineal es el estudio de los fenómenos que ocurren como consecuencia de la modificación de las propiedades ópticas de un sistema material por presencia de luz. Estas modificaciones se presentan únicamente tras la presencia de luz intensa como lo es la de los láseres.
Se les consideran fenómenos "no lineales" ya que ellos ocurren cuando la respuesta del material hacia un campo óptico aplicado no depende de forma lineal de la fuerza del campo óptico.
Por ejemplo, la generación del segundo armónico ocurre como resultado de la respuesta atómica que escala cuadráticamente con la fuerza del campo óptico aplicado. En consecuencia, la intensidad de la luz generada en la frecuencia del segundo armónico tiende a aumentar como el cuadrado de la intensidad de la luz láser aplicada.
La obtención de estos fenómenos no lineales son de suma importancia ya que muestran la forma en la que los arreglos de sistemas materiales pueden cambiar propiedades fundamentales como lo son la refracción, la absorción o la absorción de dos fotones de forma distinta tras la variación de potenciales aplicados, por lo que nuestro trabajo trata sobre el cálculo de estas propiedades para arreglos de cristales como sulfuro de galio, diamantes, germanio, silicio, sulfuro de zinc, telururo de cadmio, antinonurio de indio, entre otros.
METODOLOGÍA
Se hizo uso de la herramienta de software ABINIT, el cual es un paquete de software en LINUX que calcula las propiedades ópticas y demás observables de los materiales. Estas las calcula a partir de ecuaciones cuánticas de la teoría funcional de densidad. También se hizo uso de la herramienta de software libre TINIBA, el cual fue creado por el Dr. Bernardo Mendoza y colaboradores para tener la función inversa de ABINIT, con el cuál a partir de propiedades físicas y ciertas acomodaciones de átomos podemos obtener respuestas ópticas lineales y no lineales así como la refracción, absorción, etc. por medio de primeros principios.
CONCLUSIONES
Bajo el método empleado en TINIBA obtuvimos soluciones de la refracción de los distintos cristales, así como la absorción del cristal, la absorción de dos fotones(comportamiento no lineal) y el segundo armónico, todos en relación con la energía suministrada. obteniendo resultados similares a los proporcionados por experimentos.
Paredes Alarcón Gabriel, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
ESTUDIO DE LA ELABORACIóN DE UN CONCRETO EMPLEANDO CENIZA DE CASCARA DE ARROZ (CCA) COMO SUSTITUTO DEL CEMENTO A DISTINTAS PROPORCIONES.
ESTUDIO DE LA ELABORACIóN DE UN CONCRETO EMPLEANDO CENIZA DE CASCARA DE ARROZ (CCA) COMO SUSTITUTO DEL CEMENTO A DISTINTAS PROPORCIONES.
Paredes Alarcón Gabriel, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El concreto es un material inmerso en cada proceso constructivo dentro del ramo de la construcción, su dureza, durabilidad como su maleabilidad, han hecho que se haga un elemento representativo en la construcción, sin embargo, en la obtención de los recursos para la elaboración de un concreto, representa una gran fuente de liberación de dióxido de carbono, teniendo un gran impacto ambiental en este campo.
La búsqueda de nuevos componentes que logren sustituir en cierto porcentaje los agregados del concreto es un reto para los investigadores, ya que no se debe disminuir las características de este. Es por ello que, para la presente investigación, se estudiará el posible uso de la ceniza de cascará de arroz (CCA) como sustituto del cemento en una proporción idónea.
METODOLOGÍA
Debido a las medidas sanitarias y de salud llevadas por la pandemia, La forma en la que se llevó la investigación fue de manera documental, principalmente se indagó a través de diversas tesis, artículos y documentales, dando respuesta al posible uso del CCA dando énfasis en algunos experimentos que se generaron en el estudio de este en sustitución del cemento a diferentes porcentajes.
Al arranque de esta pequeña investigación me familiaricé un poco con el tema, estudiando las características de la ceniza de la cascara de arroz, en algunas fichas de trabajo se iba recapitulando las posibles características buenas como malas en la posible implementación de este residuo agrícola.
(Mattey, Robayo, Diaz, Delvasto, Monzó s.f ) nos mencionan que
La cascarilla de arroz es un material de desecho agrícola que constituye alrededor del 20% de la producción mundial de arroz, que se aproximó a las 254,043 toneladas en el año 2020, la cascarilla de arroz es el mayor residuo resultante de la producción agrícola de granos y su disposición final es uno de los mayores problemas existentes.
Elaborando lo anterior, a través de documentales y reportajes nacionales e internacionales, estudié como era que se obtiene este desecho y como es que después se convierte en ceniza, elaborando algunos recursos gráficos para su fácil entendimiento en el tema.
Una vez teniendo un amplio panorama acerca de la situación actual del CCA me propuse a estudiar su posible implementación como sustituto del cemento en la elaboración de un concreto. La consulta bibliográfica electa fue en 7 tesis de manera internacional, más que nada porque de manera nacional no pude encontrar mucha información y en medios internacionales como Perú y Colombia, (uno de los principales productores de arroz) se han llevado investigaciones en la posible implementación de este, de manera que realicé una comparativa entre los diferentes estudios para obtener un indicativo para futuros experimentos en próximas investigaciones.
De igual forma se supo que el uso de la ceniza de cascarilla de arroz como sustito de un cemento es recomendable ya que se encontró que tiene un alto contenido de sílice, que, al calcinarlo a temperaturas de 500°C a 700 °C, se puede obtener un material amorfo y de estructura porosa, dando características comparables con las del cemento convencional.
CONCLUSIONES
Con este estudio se logró adquirir un conocimiento teórico con respecto al implemento de la ceniza de cascarilla de arroz como sustituto a un 5% del cemento obteniendo un f’c de 300.81 kg/cm² en dicho documento se tenía previamente un cilindro patrón de 280 kg/cm², aumentando considerablemente su resistencia del concreto.
De igual manera se determinó que el uso de CCA no puede ser mayor al 10% del peso del cemento, ya que a porcentajes mayores la fuerza a compresión tiende a disminuir.
Este conocimiento debe seguir en pie y en futuras investigaciones se recomienda una experimentación propia, ya que algunos autores de las diferentes tesis hacen uso de un aditivo que este puede afectar o no las características del concreto. De igual manera he de decir que no se cuenta con muchas fuentes de información nacional, por lo que se recomienda la experimentación mas a futuro.
Paredes Cabrera Melissa Yaeth, Universidad Veracruzana
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
ESTUDIO DE MUONES CON EL EXPERIMENTO ALICE-LHC
ESTUDIO DE MUONES CON EL EXPERIMENTO ALICE-LHC
Paredes Cabrera Melissa Yaeth, Universidad Veracruzana. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Se analiza el comportamiento de los muones detectados por el experimento ALICE-LHC para conocer la relación entre el momento de los muones y el número de muones registrados por evento.
METODOLOGÍA
Luego de una serie de seminarios impartidos por el Dr. Cahuantzi, con el fin de entender el funcionamiento general de los colisionadores y los detectores dentro del experimento ALICE-LHC, se trabajó en la realización de ejercicios utilizando el programa ROOT.
Se procedió a realizar el análisis de la muestra experimental asignada, se generaron diferentes gráficos, analizando 4 ramas del árbol de datos asignado: Pcov, nMuons, PSigncov y pMC.
CONCLUSIONES
De los histogramas del tipo TH2 se puede concluir que el momento reconstruido tiende a ser menor cuando aumenta el número de muones y, por el contrario, el momento generado se incrementa al aumentar el número de muones.
Al analizar el momento reconstruido promedio por cantidad de muones, se vuelve a reflejar la relación antes mencionada. Tomando en cuenta el signo de los muones, se puede notar cómo los muones con carga negativa tienden a tener un momento promedio mayor que aquellos cargados positivamente y los eventos con mayor número de muones corresponden a los cargados negativamente.
Paz Saavedra Marcos, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
de la Rosa Flores Gregory, Benemérita Universidad Autónoma de Puebla. Paz Saavedra Marcos, Benemérita Universidad Autónoma de Puebla. Varela Pérez Jaret Wendolyn, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Existen diversos métodos de síntesis de TiO2, como el método Sol-Gel, el método de Micela y Micela Inversa, el método Hidrotermal, el método de oxidación directa, entre otros. La importancia de su producción reside en las propiedades que este material posee como fotocatalizador, el dióxido de titanio posee la propiedad de degradación fotocatalítica de contaminantes orgánicos usando la radiación solar disponible en nuestro planeta. El TiO2 puede mejorar su actividad fotocatalítica por la radiación recibida a través de la luz visible. Se ha propuesto mejorar las propiedades superficiales del TiO2 mediante el dopaje con metales. En especial mediante la incorporación de metales de transición como iones dopantes, con la intención de extender la absorción de la luz del material en la región visible del espectro de radiación electromagnética, siendo el Au y la Ag algunos metales que reúnen las características necesarias para mejorar la absorción del TiO2.
METODOLOGÍA
El método de combustión es una técnica viablemente económica y muy fácil para preparar cerámicas y nanomateriales, algunas de las características más importantes son los calentamientos rápidos y tiempos de reacción cortos. Es una técnica de reacción redox exotérmica que produce polvos finos homogéneos de óxido metálicos y comienza con la formación de una solución acuosa que contiene un oxidante fuerte, el nitrato de un metal y un combustible orgánico para después calentar la solución hasta evaporar el agua, al no tener presencia de agua, la mezcla enciende espontáneamente por la combustión del nitrato del metal y el combustible formando polvos finos, liberando gases como N2, CO2, y H2O. Algunas ventajas de esta técnica son:
Empleo de equipo relativamente simple (parrilla eléctrica, mufla, centrífuga).
Condiciones de preparación simples como la calcinación y la pulverización.
Formación de productos de alta pureza.
Estabilización de fases metaestables.
Los compuestos se forman en sólo 5 minutos de calentamiento.
A continuación, se describe la obtención y depósito de nanopartículas de Ag sobre dióxido de titanio por el método de combustión.
Para el proceso se coloca una mezcla que contiene Urea, TiO2, AgNO3 y H2O tridestilada, dicha mezcla se homogeniza en un vaso de precipitados con 5 mL de agua tridestilada para llevarla a evaporación en una parrilla eléctrica a temperatura de 60 a 70 °C.
Posteriormente la mezcla homogeneizada se deposita en un crisol de porcelana y se introduce en una mufla marca FELISA modelo FE361 precalentada a 800°C durante 5 minutos.
Las muestras se someten a 5 lavados con agua tridestilada en una centrífuga Herme Labnet Z206 a 6000 rpm por 5 minutos cada lavado, con el propósito de eliminar residuos de carbono productos de la combustión. El secado se realiza en un horno BINDER durante 24 horas a temperatura de 40 °C.
Un proceso similar es requerido para el dopaje de partículas de oro, esta vez utilizando hidróxido de oro como precursor.
CONCLUSIONES
Durante la investigación, se encontró que existen más metales que se utilizan como dopantes, cada uno de ellos tiene un efecto diferente en la generación de pares electrón-hueco, por lo que se altera su permanencia sobre la superficie durante la carga transferida en la interfase, cabe destacar que estos dopantes pueden ocupar diferentes posiciones en la estructura cristalina del material, todo esto da como resultado que la eficiencia fotocatalítica sea variada, según el metal que se utilice.
Durante nuestra estancia, estudiamos y analizamos diferentes métodos de obtención de TiO2 mediante diversos artículos científicos, aprendiendo más sobre las diferentes técnicas de caracterización de nanomateriales, como es el caso de la Difracción de Rayos-X (XRD), la Microscopía Electrónica de Barrido (SEM), el Análisis Termogravimétrico (TGA) y la Espectroscopía UV-vis.
Si bien, la situación social actual nos negó la posibilidad de desarrollar una estancia presencial, durante este proceso de investigación hemos incorporado muchos nuevos conocimientos que nos permitirán formar parte de proyectos futuros relacionados con los nanomateriales y los fotocatalizadores para dar respuesta a severos problemas ambientales.
Durante la estancia se lograron adquirir conocimientos básicamente teóricos sobre la síntesis y caracterización de TiO2 dopado con Au y Ag, al ser una estancia virtual no fue posible llevar a cabo las pruebas experimentales respectivas. No obstante, el análisis, selección y discusión de toda la información recopilada muestra la amplia investigación que existe sobre el TiO2 dopado con iones metálicos y las aplicaciones potenciales de este material en la degradación de distintos colorantes.
Pelaez Hernandez Angel Daniel, Instituto Politécnico Nacional
Asesor:Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
SIMULADOR DE SECADORES MACROSCOPICOS Y MICROSCOPICOS EN MATLAB
SIMULADOR DE SECADORES MACROSCOPICOS Y MICROSCOPICOS EN MATLAB
Pelaez Hernandez Angel Daniel, Instituto Politécnico Nacional. Rivera Ramírez Adrián, Instituto Politécnico Nacional. Asesor: Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
PLANTEAMIENTO DEL PROBLEMA
La reducción del peso y volumen mediante el proceso de deshidratación de un alimento es un factor importante para su estabilización en el proceso de secado, con esto se logra un mayor tiempo de almacenaje y una mejora en la distribución. La deshidratación, es uno de los métodos más antiguos de conservación de alimentos conocido por el hombre. El proceso involucra la remoción de la mayor parte del agua del alimento para evitar la actividad enzimática y el desarrollo de microorganismos. La deshidratación genera estabilidad microbiológica y química, disminuye el peso y volumen, reduce el empaque, costos de almacenamiento y transporte, además permite el almacenamiento del producto a temperatura ambiente por largos períodos de tiempo. La deshidratación extiende la vida útil de los alimentos obteniendo productos con mayor valor agregado. Esto permite disponer de frutas y hortalizas durante todo el año y evita la pérdida de los excedentes de producción y consumo. Asimismo, favorece los microemprendimientos familiares y las economías regionales. En el proceso se tiene que proteger el valor nutricional del alimento, su sabor, color, olor y textura. Uno de los principales problemas de la deshidratación, es que al final del proceso se obtenga un producto lo más similar posible al de su origen. Es muy común que durante la deshidratación se pierdan nutrientes del alimento dicha pérdida dependerá de las condiciones del proceso tales como son la temperatura la humedad la velocidad del viento la duración etcétera.
METODOLOGÍA
El objetivo principal del simulador es ver cómo cada una de las variables influyen a lo largo del proceso de secado. Viendo, así como con las condiciones necesarias conforme el tiempo avanza la humedad del producto va disminuyendo. En los primeros días se planteó como objetivo el aprender a codificar el lenguaje Delphi y así aprender como es la creación de una aplicación para Android o IOS. De igual forma para las bases de datos.
Una vez entendido lo anterior, se presentaron diversas fuentes de información para adquirir conocimientos sobre los procesos de secado, se analizaron y se estudiaron algunos métodos de secado y se comprendieron conocimientos básicos del tema.
Una vez que se entendieron los conocimientos, se entró a la parte del modelaje y de la recolección de datos para poder hacer el simulador. Se hicieron algunos análisis estadísticos (con ayuda de MINITAB) para poder ver algunas diferencias entre los procesos en Monocapa y Multicapa, haciendo pruebas de normalidad, gráficos, pruebas de valores atípicos, todo con la ayuda de pruebas de hipótesis.
Una vez hecho el análisis, se procedió a darles una interpretación clara y concisa a los datos que se proporcionaron. Después, se procedió a hacer una recolección de todas las fórmulas y métodos que se ocuparían en el simulador, entre los métodos mas destacados que se programaron para el simulador fueron:
Método de las diferencias finitas.
Método Runge-Kutta para la aproximación de ecuaciones diferenciales ordinarias.
Con todas las herramientas necesarias se empezó la codificación del simulador, este ultimo paso fue el que mas tiempo tomó realizar, sin embargo, se logró terminar de manera satisfactoria.
CONCLUSIONES
A lo largo de la estancia se obtuvieron conocimientos sobre el proceso de deshidratación de los alimentos y su importancia a nivel económico y para la sociedad, se vieron los elementos que se necesitan para poder tener una buena deshidratación sin perder las propiedades de los alimentos y sus nutrientes. Se estudiaron y comprendieron los métodos de secado (por aspersión y arrastre), todas las variables y métodos que estos implican. Todo con la finalidad de crear un simulador para poder estudiar el proceso de secado en ciertos intervalos de tiempo. Viendo asi como con las condiciones necesarias se puede lograr una reducción de la humedad sin perder las principales características del alimento. Esto ayudo a poder reforzar los conocimientos obtenidos tanto en la estancia como a lo largo de la carrera.
Peraza Balam Jairo Osiel, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PARáMETROS ESTADíSTICOS EN EL ANáLISIS DE LA CUENCA
PARáMETROS ESTADíSTICOS EN EL ANáLISIS DE LA CUENCA
Peraza Balam Jairo Osiel, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
Cada día aumenta la necesidad de contar con datos históricos hidrológicos puesto que para la industria de la ingeniería es importante el análisis de los fenómenos hidrometeorológicos, con base a estos estudios se determinan la planeación, diseño y gestión de obras civiles, sin embargo no se cuenta con los datos en un solo sitio, si no que se tienen que buscar en diferentes sitios web.
METODOLOGÍA
Para la realización de la línea de investigación fue necesario realizar una serie de actividades en la cual:
Delimitación de una cuenca: se eligió una cuenca en específico en el país de México en la cual se escogió una ubicada en municipio de Bacalar, en el estado de Quintana Roo, para la delimitación de esta se uso del software de google earth pro, seguidamente se colocaron estaciones de la cuenca elegida con el mismo software.
Registro de tormentas: para esta actividad se buscó una tormenta que haya afectado en la cuenca elegida, en este caso fue de la tormenta Dean que afectó a la cuenca de Bacalar en Agosto 2007, los datos fueron recabados en el sitio web de Conagua (Comisión Nacional del Agua), posteriormente se descargaron datos de las estaciones de la cuenca elegida con las fechas que afectó la tormenta Dean,
Precipitaciones medias: en esta actividad se obtuvieron las medias de los datos de la actividad anterior, en la cual se hizo uso del software Excel y la media fueron calculadas por fechas.
Seguidamente se elaboró una actualización de estaciones con el software Qgis, resaltando la delimitación de la cuenca y las estaciones que se encuentran en ella.
Después se buscó información en el software CLICOM mapa y CLICOM malla de cada estación que se encuentra en la cuenca, donde se encontraron graficas de temperatura máxima, temperatura mínima, precipitación, entre otros datos. Por otra parte se descargaron datos diarios de la página SHI de la Conagua, donde son archivos de datos que muestran la precipitación de día a día, la descarga de estos datos comenzó el día 06 de Julio y se concluyó el 30 de Julio del 2021.
Las dos más importantes actividades que se realizó fueron la prueba de Fischer y la creación de una base de datos. La prueba Fischer se hizo con los datos recabados de la página Conagua de las estaciones localizadas en la cuenca seleccionada, la cual se registraron en Excel, seguidamente se calcularon la media, desviación estándar y el coeficiente de variación, posteriormente se pasaron a un tabla donde se hizo el análisis de los datos para que se haga la prueba Fischer con una probabilidad de excedencia del 5%, donde los grados de libertad fueron los años de registro de cada estación. Para la creación de la base de datos se descargó la climatología diaria de cada una de las estaciones ubicadas en la cuenca en la página de la Conagua, se procedió a escribir el código metiendo cada uno de los datos como lo es el nombre de la estación, el código de la estación, fecha, precipitación, evaporación, temperatura máxima y temperatura mínima.
CONCLUSIONES
Durante la estancia de verano se adquirió nuevos conocimientos sobre la hidrología, se aprendió nuevos conceptos, la descarga de datos sobre la climatología, el uso de software nuevos, a la creación de una base de datos, entre otros aspectos relacionado a la ciencia de la hidrología.
Pérez Aquino Víctor Julián, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PROCESAMIENTO DE SEñALES UTILIZANDO PYTHON Y PROGRAMACIóN EN PARALELO.
PROCESAMIENTO DE SEñALES UTILIZANDO PYTHON Y PROGRAMACIóN EN PARALELO.
Pérez Aquino Víctor Julián, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Francisco Joel Cervantes Lozano, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Una herramienta importante, tanto en el amplio campo de la ciencia como de la tecnología, es el análisis y procesamiento de señales, un conjunto de valores sucesivos que una variable física adopta. Importantes ejemplos pueden ser mencionados, desde el funcionamiento de una red telefónica hasta lectores de señales de energía presentes en detectores de partículas.
El mundo que nos rodea está lleno de señales y los seres vivos somos capaces de percibir dichas señales. Por ejemplo, el oído humano es capaz de percibir sonidos, pero el cerebro se encarga de filtrar solo algunos específicos, lo cual nos permite identificar (o al menos indagar) la procedencia de estos.
En las universidades, laboratorios y centros de investigación se replican estos fenómenos, con la finalidad de comprender la naturaleza y el funcionamiento de ciertas estructuras o para fomentar el avance tecnológico.
Las señales se relacionan con las matemáticas, pues es indispensable tener herramientas que permitan el procesamiento de las mismas. Es así como, utilizando la teoría de Fourier, pueden reconstruirse señales, desde señales simples hasta señales muy complejas donde el ruido hace muy difícil caracterizarlas. A pesar de la simplicidad de lo mencionado en este párrafo, el desarrollo matemático utilizado para caracterizarlas puede llegar a ser demasiado extenso y complejo, debido a las fuentes que las producen o factores externos que se mezclan con la señal original y que no forman parte del estudio de interés.
La mayor problemática que se presenta es el estudio y desarrollo de dichas señales en una computadora, usando técnicas de programación. Debido a la necesidad de solo manejar señales discretas y finitas, la cantidad de datos a procesar se convierte en una limitante debido al gran gasto de tiempo que implica, además del sobrecargo de procesos en la computadora, donde las características de la computadora como son el número de núcleos del procesador, su velocidad y la memoria RAM juegan un rol importante en el análisis de estos procesos. Es por eso por lo que durante el verano de investigación se implementó un código de programación en el lenguaje Python, que permitiera el uso de la programación en paralelo; donde la finalidad de paralelizar un algoritmo consiste en disminuir el tiempo de procesamiento mediante la distribución de tareas entre los procesadores disponibles Permitiendo así disminuir el tiempo de procesamiento de una señal y cuya aplicabilidad encuentra un amplio campo de aplicaciones no solo en el procesamiento de señales sino en diferentes ámbitos de las ciencias básicas y las aplicaciones tecnológicas.
METODOLOGÍA
Se realizó una investigación acerca del uso de la transformada de Fourier y cuál es la naturaleza de las señales a las cuales se les puede aplicar. A partir de métodos intuitivos se reconoció la estructura de dicha transformada, así como su objetivo, características, propiedades y requerimientos.
Se resolvieron ejemplos de transformaciones de Fourier de algunas señales, con la finalidad de observar a lo que se le denomina como Espectro de frecuencias, y así comprender la relación entre un dominio temporal y frecuencial.
Posteriormente se clasificaron los cuatro tipos de transformadas de Fourier en función de los tipos de señales que existen. Es así como se identifica la Transformada Discreta de Fourier como la única que es posible representar mediante software de computadora, debido a las características de la variable del dominio de la señal. Cabe menciona que en el mundo real solo existen señales discretas, las cuales pueden ser periódicas o a-periódicas. En este caso se consideraron variables discretas y periódicas, lo cual implica un espectro de frecuencias discreto y periódico.
Mediante el uso del lenguaje de programación Python, se creó un programa que replica a la Transformada Discreta de Fourier, a partir del cual se observaron ejemplos de transformaciones de ciertas señales creadas: una señal cuadrada y una triangular.
Una vez revisados los aspectos teóricos de la Transformada Discreta de Fourier, se estudió la teoría de la programación paralela, especialmente los módulos y funciones implementadas en Python. Usando técnicas de paralelización de funciones, se reescribieron programas para acelerar su procesamiento. Específicamente, se usó el módulo multiprocessing y se crearon objetos a partir de las funciones definidas en el programa, haciendo uso de la clase Pool.
Con el mismo módulo y las mismas técnicas, se procedió a reescribir el programa de la Transformada Discreta de Fourier, para que, de manera más general, el programa trabaje con cualquier tipo de señal y produzca su espectro de frecuencias, pero con un procesamiento más rápido y eficaz, haciendo uso del procesamiento en paralelo.
CONCLUSIONES
Durante la estancia de verano se adquirieron conocimientos teóricos del procesamiento de señales, específicamente, de cómo una señal está compuesta por varias señales fundamentales, las cuales corresponden a una estructura mucho más sencilla (funciones trigonométricas seno y coseno), y que, gracias a la transformada de Fourier, se puede obtener la frecuencia de las señales fundamentales.
A su vez, se comprendió la estructura de un procesador con diversos núcleos y la importancia de esto, tales como el procesamiento en paralelo usado hilos y procesos. De manera más específica, en Python se desarrolló la idea del procesamiento en paralelo usando procesos, debido a la presencia del Global Interpreter Lock (GIL), que impide el uso de hilos para el procesamiento en paralelo.
Por último, el resultado obtenido es un programa que permite hallar la transformada de Fourier de algunas señales, haciendo uso de los diversos núcleos de un procesador en la computadora. Dicho programa aún se encuentra en proceso de desarrollo para la mejora de sus capacidades y características.
Pérez Castro Ivan, Instituto Politécnico Nacional
Asesor:Dr. Juan Carlos Gómez Izquierdo, Instituto Politécnico Nacional
UN MODELO DE SABOR CON DOS CEROS DE TEXTURA PARA LA PARAMETRIZACIóN DE LA MATRIZ DEL MEZCLAS PMNS
UN MODELO DE SABOR CON DOS CEROS DE TEXTURA PARA LA PARAMETRIZACIóN DE LA MATRIZ DEL MEZCLAS PMNS
Carrillo García Axel, Instituto Politécnico Nacional. Pérez Castro Ivan, Instituto Politécnico Nacional. Asesor: Dr. Juan Carlos Gómez Izquierdo, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La masa de una partícula elemental representa su energía cuando esta se encuentra en reposo, esto implica que una partícula que no tiene masa no puede mantenerse en reposo, de hecho siempre debe moverse con rapidez igual a la de luz. El el modelo estándar de la partículas elementales un fermión masivo debe por lo tanto poder moverse con rapidez menor a la de luz, en un inicio se creía que los neutrinos (partículas del modelo estándar) eran fermiones sin masa, no obstante, después de la gran cantidad de pruebas experimentales recabadas en los últimos años se ha observado un fenómeno llamado oscilaciones de neutrinos, en la que los estados de sabor de los neutrinos cambian de uno a otro, para que esto sea posible tales neutrinos deben tener masa no nula.
El Modelo Estándar de las interacciones electrodébiles contiene tres neutrinos que son partículas con quiralidad puramente izquierda y sin masa. Tener tres neutrinos no masivos indica que debe existir conservación del número leptónico. Esta conservación de número leptónico es una simetría accidental en lugar de una simetría fundamental del modelo estándar. Por eso muchos físicos creían firmemente que los neutrinos deben ser partículas masivas, incluso mucho antes de acumular pruebas experimentales incontrovertibles de que los neutrinos oscilan de un sabor a otro. Este no es la única incógnita abierta hoy en día sobre los neutrinos, pues para cada una de las partículas en el modelo estándar existe su correspondiente antipartícula, que puede ser ella misma o distinta, en el primer caso se tiene neutrino de Majorana y en el segundo se tiene un neutrino de Dirac, aunado a esto. Esta el problema de la jerarquía en el espectro de masas el cual surge debido a que experimentalmente fermiones del mismo tipo, pero de diferente familia (clasificación en el modelo estándar), tienen una diferencia en el valor numérico de sus masas, pero debido a que no se sabe el valor de las masas de los neutrinos sino la diferencia de los cuadrados de estas, no ha sido posible saber si la masa del neutrino de la tercera familia es mayor que la del neutrino de la segunda familia y este a su vez mayor que la del neutrino de la primera familia (jerarquía normal) o bien que la masa del neutrino de la segunda familia sea mayor que la del neutrino de la primera familia y este a su vez mayor que la masa del neutrino de la tercera familia (jerarquía invertida).
Importantes avances teóricos se han hecho en la compresión de los mecanismos para la generación de las masas de los fermiones del modelo estándar y las mezclas del sabor de estos fermiones. Algunos progresos han sido realizados con la ayuda de los ceros de textura y las simetrías de sabor, a partir de estos dos elementos se pueden especificar relaciones cualitativas entre los ángulos de mezcla y las razones de masa de leptones con un mínimo de parámetros libres.
METODOLOGÍA
Se trabajo con un modelo de sabor que emplea el grupo de simetría permutacional S3 como una simetría se sabor, con esto las matrices de masa de los fermiones tienen una forma genérica con dos ceros de textura. Al diagonalizar las matrices de masa se obtienen expresiones teóricas para los elementos de estas matrices a través de los invariantes de matriz en términos de las masas físicas de los leptones cargados y las masas efectivas de los neutrinos de Majorana. En el proceso de diagonalización se encuentran matrices ortogonales y matrices de fases que permiten construir la matriz de mezclas PMNS (Pontecorvo-Maki-Nakagawa-Sakata) en la que con su parametrización general es posible determinar expresiones teóricas para las ángulos de mezcla (ángulo de solar, ángulo atmosférico y ángulo de reactor) en la oscilación de neutrinos.
CONCLUSIONES
En las expresiones halladas para los ángulos de mezcla se obtienen tres parámetros libres, dos de los cuales están restringidos a mantenerse en una región determinada; uno por las masa fisicas de los leptones cargados y otro por los datos esperimentales en los que se mide la diferencia de los cuadrados de las masas efectivas de los neutrinos, mientras que un tercero es una fase efectiva que permite determinar predicciones teóricas para los ángulos de mezcla en oscilaciones de neutrinos, además de ello el modelo tratado permite obtener resultados en los casos en que se cumple la jerarquía invertida y en los que se cumple la jerarquía normal en las familias de neutrinos.
Pérez Cordero María Fernanda, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Alan Díaz Manríquez, Universidad Autónoma de Tamaulipas
RECONOCIMIENTO FACIAL DE EMOCIONES EN NIñOS A TRAVéS DE REDES NEURONALES CONVOLUCIONALES.
RECONOCIMIENTO FACIAL DE EMOCIONES EN NIñOS A TRAVéS DE REDES NEURONALES CONVOLUCIONALES.
Pérez Cordero María Fernanda, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alan Díaz Manríquez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
Reconocimiento facial de emociones en niños a través de redes neuronales convolucionales.
Asesor: Alan Díaz Manríquez, Universidad Autónoma de Tamaulipas.
Estudiante: María Fernanda Pérez Cordero
Planteamiento del problema: Las emociones son una parte vital para las personas, para su supervivencia y sus decisiones. Recientes estudios neurológicos indican que el rol de la emoción en la cognición humana es esencial y que las emociones no son un lujo, en vez de eso, estas juegan un papel importante en la toma de decisiones, en la percepción y en la interacción humana.
Esencialmente, para los niños la capacidad para reconocer las emociones es un factor necesario para su adaptación al medio social y educativo; además de permitir la detección de trastornos como el autismo, la ansiedad y la depresión en etapas tempranas del desarrollo.
El reconocimiento emocional es una disciplina que se centra en el análisis de las expresiones faciales generadas por las emociones que las personas sienten en cada momento.
METODOLOGÍA
Metodología
Para la elaboración de nuestra base de datos se realizó una recolección y selección de imágenes de niños, en un rango de edad de 6 meses a 12 años. En su mayoría, las imágenes se descargaron de internet, para tener en nuestra base de datos niños de diferentes nacionalidades y así nuestro modelo sea más efectivo.
Se trabajó con el lenguaje de programación Python desde dos plataformas diferentes: Google Colab y Cocalc para elaborar los notebooks. Se estudiaron diferentes librerías para la realización de los programas: Numpy, Keras, Scikit Learning, matplotlib.pyplot.
Se estudiaron las redes neuronales desde su forma más sencilla, Perceptron, hasta una de sus formas más complejas redes neuronales convolucionales(RNC).
Para entender la estructura y funcionamiento de las redes neuronales se desarrollaron varios modelos, con bases de datos de Keras y Scikit Learning.
En la creación del modelo se utilizan las redes neuronales convolucionales, ya que gracias a su capacidad para extraer características importantes y distintivas de las imágenes para cada clase son las más indicadas para analizar y clasificar imágenes.
Se utilizan los módulos de Keras para agregar las capas y pesos correspondientes. Para entrenar nuestro modelo se hace directamente con toda la base de datos para tener mayor precisión, las pruebas se realizan con imágenes que no se encuentran en nuestra base de datos.
CONCLUSIONES
Conclusiones:
Durante la estancia de verano se adquirió conocimientos teóricos, tanto de las redes neuronales como de pauqeterías de Python. También se adquirieron en la práctica, ya que no solo se trabajó con la base de datos de las emociones en niños, sino que también se trabajó con otras bases de datos, por ejemplo de números escritos a mano.
Sin embargo, por la complejidad del modelo aún se siguen haciendo pruebas para encontrar los valores adecuados de los pesos, sesgos y número de capas necesarias, para que sean más altas las probabilidades de que la clasificación sea correcta, es decir que la predicción de nuestro modelo sea correcta.
Pérez Gosteva Cristian Asthar, Universidad La Gran Colombia
Asesor:Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
DINáMICA CLIMáTICA DE LOS úLTIMOS 25 AñOS EN EL DEPARTAMENTO DEL QUINDíO, COLOMBIA COMO INFORMACIóN BASE DEL PROGRAMA DE MITIGACIóN DEL CAMBIO CLIMáTICO
DINáMICA CLIMáTICA DE LOS úLTIMOS 25 AñOS EN EL DEPARTAMENTO DEL QUINDíO, COLOMBIA COMO INFORMACIóN BASE DEL PROGRAMA DE MITIGACIóN DEL CAMBIO CLIMáTICO
Giraldo Vásquez Ana María, Universidad La Gran Colombia. Pérez Gosteva Cristian Asthar, Universidad La Gran Colombia. Asesor: Dra. Fatima Maciel Carrillo González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El planeta experimenta cambios en la dinámica ambiental, climática y social que influyen en el desarrollo de las comunidades, por lo que es necesario diseñar, implementar y promover investigación que proponga prevención y mitigación los impactos que generan estos fenómenos asociados al cambio climático.
En este sentido, la Convención Marco de las Naciones Unidas sobre el Cambio Climático (CMNUCC, 1992) en su artículo primero describe el cambio climático como los cambios en el medio ambiente físico o en la biota que tienen efectos nocivos significativos en la composición, la capacidad de recuperación o la productividad de los ecosistemas naturales o sujetos a ordenación, o en el funcionamiento de los sistemas socioeconómicos, o en la salud y el bienestar humanos. El cambio climático es definido como la variación significativa y perdurable de la distribución estadística de los patrones climáticos en largos periodos de tiempo. Ciertamente, este fenómeno también es asociado con ENSO- fenómeno del niño, período de variabilidad climática relacionado con la precipitación y no transpiración que incide sobre los cambios en la temperatura de las aguas del océano. Ciertamente, según Instituto de Hidrología, Meteorología y Estudios Ambientales -IDEAM (2018) el clima presenta fluctuaciones de diversa duración estimadas en diferentes años, meses, siglos, milenios, que son expresados en valores de variables climatológicas como la temperatura del aire, precipitación, humedad relativa y demás que fluctúan por encima o debajo de la condición normal.
Por ello, en este caso, se analizó las anomalías de las variables climatológicas temperatura, precipitación, humedad relativa, entre otras en el departamento del Quindío con el objetivo de evidenciar la variabilidad climática a escala interanual y entender el comportamiento de las variables. Es importante caracterizar las diferentes dinámicas climáticas del departamento del Quindío a través del análisis temporal, dado al potencial ecosistémico del departamento y sus ecosistemas, que han sido fuertemente influenciados por fenómenos climáticos, como es el caso del aumento de la temperatura producto de la deforestación, el cambio de uso de suelo. Por lo anterior la pregunta investigación fue: ¿Cuál es la dinámica climática de los últimos 25 años en el departamento del Quindío, Colombia?
METODOLOGÍA
Se realizó una revisión bibliográfica respecto a las variables climáticas, variabilidad y cambio climático. Se analizaron diferentes estudios realizados para el caso de Colombia y México. Se descargó la información meteorológica disponible en los modelos de reanálisis (NASA/POWER SRB/FLASHFlux/MERRA2/GEOS) del periodo de 1995 al 2020 para la región de Quindío, Colombia.
Luego, se realizó un tratamiento y análisis estadístico de los datos obtenidos con el objetivo de identificar las principales características en las variables climáticas; seguido de ello, se halló la correlación de las variables de temperatura y precipitaciones en conjunto con los índices de fenómenos océano-atmosféricos como el ENSO (El Niño - Oscilación del Sur), PDO (Oscilación decadal del Pacífico) y NAO (Oscilación del Atlántico Norte).
Además, se utilizaron los Sistemas de Información Geográfica para el análisis de los datos y la generación de mapas de calor en escala temporal, con el objetivo de reconocer el comportamiento de la temperatura y la precipitación en el territorio, comparándolo con variables geográficas. Lo anterior con el fin de identificar el nivel de teleconexión de los fenómenos, la relación de exposición con las manchas solares y finalmente, realizar un análisis de la información publicada de cambios perceptibles en la región.
CONCLUSIONES
Se obtuvieron promedios y anomalías, las gráficas de las variables de temperatura, precipitación, viento y humedad relativa, que junto con el análisis de los fenómenos a nivel global se discutió para identificar la relación más fuerte con la señal del fenómeno El Niño. Adicionalmente se obtuvo que para la conexión de la actividad solar el periodo de datos disponibles es relativamente pequeño pues apenas alcanza un periodo de anomalía.
Se encontró que la principal relación se tiene con la señal del ENSO, con una variabilidad mayor del 50%. Por otra parte, la relación con las otras variables fue más pequeña, por ello, se recomendó la conservación y recuperación de las coberturas vegetales para que las regiones presenten mayor inercia o resistencia al cambio producto de señales de mayor escala.
Se espera obtener distintas comparaciones y salidas gráficas que representen estos datos para la posterior publicación y divulgación de los mismos en donde se evidencia y observa vínculo recíproco, sostenible y efectivo entre los conocimientos y herramientas aplicadas por las instituciones educativas en conjunción con el entorno social y natural, lo que permite un enriquecimiento de los sus procesos de generación y transferencia de conocimiento, con un incremento significativo en la importancia del papel activo y humano de los profesionales para la protección del territorio y la mitigación del cambio climático, mediante el estudio de la Dinámica climática de los últimos 25 años en el departamento del Quindío, Colombia como información base del programa de mitigación del cambio climático, cumpliendo de esta manera con las premisas de la responsabilidad social y ambiental.
Pérez Monzón David, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE CFD DEL FLUJO DE AIRE EN UNA TURBINA DE EJE VERTICAL TIPO SAVONIUS
SIMULACIóN DE CFD DEL FLUJO DE AIRE EN UNA TURBINA DE EJE VERTICAL TIPO SAVONIUS
Medina Lozano Ángela Monserrat, Benemérita Universidad Autónoma de Puebla. Pérez Monzón David, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La demanda de energía eléctrica global actual abastecida por combustibles fósiles representa una amenaza para el medio ambiente debido a las consecuencias que trae consigo, tales como el aumento de GEI, contaminación de varias índoles, calentamiento global, cambio climático, etc. La necesidad de hacer una transición de las fuentes de dónde proviene la energía posiciona a las energías renovables como principal alternativa viable, rentable y amigable con el ambiente, además de propiciar el desarrollo de sociedades sustentables.
En la actualidad, el uso de tecnologías de aprovechamiento aplicadas a pequeña escala ha crecido significativamente, sin embargo, es un campo que aún está en desarrollo. Las turbinas eólicas de eje vertical (VAWT) aspiran solucionar las necesidades energéticas de ambientes rurales y regiones dónde es menos accesible el suministro de energía. Con esto, pretenden introducir prototipos menos costosos, eficientes y accesibles.
Una de las VAWT más conocidas es la Savonius, las ventajas de estas turbinas son la capacidad de operar en una amplia variedad de condiciones de viento, son de construcción simple y barata. Su aplicación para obtener energía útil de las corrientes de aire es una alternativa al uso de las convencionales turbinas de viento. Debido a que cada configuración diferente del rotor Savonius afecta su rendimiento, a lo largo de este verano de investigación se analizó el modelo de turbina de rotor clásico Savonius con determinados parámetros geométricos; para evaluar su eficiencia y comportamiento en velocidades relativamente bajas de viento, y se trató de replicar resultados obtenidos previamente en la literatura revisada.
METODOLOGÍA
En el pre-proceso de análisis con CFD, para la definición de la geometría del dominio a estudiar se construyó un aerogenerador de eje vertical tipo Savonius con ayuda de las herramientas de diseño del software FUSION 360 con las siguientes medidas:
Diámetro de los discos (D) : 80mm
Grosor de los discos: 1.5mm
Diámetro de los medios cilindros: 17.5mm
Altura: 58.24mm
Esta geometría se exportó al software ANSYS para realizar el análisis de flujo de aire en un dominio computacional, uno estacionario que simula un túnel de viento, que es la región donde se encuentra la zona en rotación, en donde entra y sale el flujo de aire y uno transitorio, que es la zona donde se encuentra la turbina y es la que rota para simular el funcionamiento del rotor y permite reproducir el efecto estela.
El dominio estacionario tiene un largo de 27D, un ancho y altura de 12D y el dominio transitorio tiene un diámetro de 4D.
Posteriormente, se realizó el mallado de ambos dominios, en dónde se divide en muchos elementos (celdas) cada dominio, en este caso 3D las celdas son volúmenes de control en el que se resuelven las versiones separadas de las ecuaciones de conservación y transporte. Para cerciorarse que la solución de CFD fuera de calidad se revisó a través de la herramienta de skweness la calidad de la malla, cabe resaltar que se refinó la malla en los puntos de contacto de los dominios, aumentando el número de divisiones y que el mallado fuera de mayor calidad.
Las configuraciones en ANSYS Fluent fueron las siguientes:
Condiciones de frontera:
Inlet: método de especificación de velocidad por medio de la magnitud de velocidad, normal a la frontera, marco de referencia absoluto, presión manométrica de 0 y la velocidad de viento elegida.
Walls: aluminio con condición no deslizante y rugosidad contante de 0.5.
Outlet: marco de referencia absoluto, presión manométrica de 0 Pa y método de especificación de dirección normal a la frontera.
Dominio transitorio: condiciones de pared (paredes con condición de no deslizamiento y una contante de rugosidad de 0.5), movimiento relativo a la zona adyacente y rotacional.
Para la simulación, los valores de velocidad elegidos fueron: 7.2 m/s, 6.2 m/s y 8.2 m/s, con una velocidad angular de 209 rpm. Usando el modelo de turbulencia k-epsilon realizable. Se establecieron 5000 iteraciones. Esta elección está basada en literatura previamente revisada. Se hizo el cálculo para cada configuración, solo cambiando la velocidad inicial.
CONCLUSIONES
Durante la estancia del verano, adquirimos conocimientos acerca de la modelación matemática aplicada a problemas de ingeniería como es la dinámica de fluidos computacional, aprendimos a interpretar resultados matemáticos y adecuarlos a los sistemas físicos simulados.
En el post-proceso se hizo un análisis de los resultados obtenidos, se calcularon los coeficientes de potencia para las 3 velocidades elegidas y se hizo una visualización de los resultados de manera gráfica a través de contornos de velocidades.
Podemos decir que las turbinas de eje vertical tienen un funcionamiento eficiente a pequeña escala, reflejado en los coeficientes de potencia obtenidos, lo que indica que son una alternativa para generar energía limpia en lugares en dónde las velocidades son bajas, además de ajustarse con la ODS no. 7 de la agenda 2030.
Pérez Resendiz David Edmundo, Instituto Politécnico Nacional
Asesor:Dra. Dulce Yaahid Flores Renteria, Centro de Investigación y de Estudios Avanzados (IPN)
ANáLISIS DE SERVICIOS ECOSISTéMICOS DE LAS áREAS VERDES URBANAS EN EL MUNICIPIO DE SALTILLO.
ANáLISIS DE SERVICIOS ECOSISTéMICOS DE LAS áREAS VERDES URBANAS EN EL MUNICIPIO DE SALTILLO.
Pérez Resendiz David Edmundo, Instituto Politécnico Nacional. Asesor: Dra. Dulce Yaahid Flores Renteria, Centro de Investigación y de Estudios Avanzados (IPN)
PLANTEAMIENTO DEL PROBLEMA
Las áreas verdes urbanas son aquellos espacios abiertos (públicos o privados), cubiertos por vegetación, que se encuentran dentro de los límites de una ciudad y que pueden tener usos directos como la recreación o indirectos como una influencia positiva en el ambiente urbano para los usuarios, sin embargo, no suele brindárseles la importancia que estas tienen sobre las urbanizaciones donde se encuentran. Identificar la cantidad de áreas verdes con las que cuenta una ciudad, nos dará la perspectiva del porcentaje de terreno que se brinda a estos espacios en comparación a la extensión total de terreno urbanizado, determinar los servicios ecosistémicos que brindan y valorarlos económicamente para asignarles un costo monetario, sirve como una base para contextualizar a la comunidad acerca del costo económico y la necesidad que existe en las ciudades de priorizar e implementar la construcción de áreas verdes, generado en un lenguaje entendible para los usuarios de la ciudad.
METODOLOGÍA
La metodología empleada en el proyecto consistió en 3 fases; en la primera fase se identificaron y delimitaron las áreas verdes urbanas en el municipio de saltillo, clasificándolas por dos características principales (uso y tamaño). Como segunda fase se llevaron a cabo recorridos con los que se generó un inventario de especies arbóreas, en el parque ecológico El chapulín donde se midieron características físicas del arbolado, (altura, proyección de la copa y diámetro a la altura del pecho). Durante la tercera fase se calcularon los servicios ecosistémicos de las especies muestreadas en el parque, así como el valor económico de dichos servicios.
CONCLUSIONES
Del presente trabajo se identificaron 313 áreas verdes urbanas en el municipio de saltillo, que en conjunto cubren 402 Hectáreas lo que corresponde al 1.47% de la extensión total del municipio. En el inventario del PE El chapulín se identificaron 10 especies de árboles dominantes, las cuales de acuerdo al software especializado almacenan 647.61 toneladas métricas/año de carbono y junto a los demás servicios ( secuestro bruto de carbono: 14.213 toneladas métricas/año, escurrimiento pluvial evitado: 114.45 m3/año, eliminación de la contaminación: 0.1064 toneladas métricas/año), tienen un valor económico respectivamente de ($2,373,480.67, $52,514.56, $5,145.93, $55,881.10), con un valor estructural de remplazo de: $61,135,389.87. Llegamos a la conclusión de que las áreas verdes urbanas no solo sirven como un medio de recreación, sino que aportan servicios que tienen manera de cuantificarse, además hay que saber analizar qué tipo de servicio ecosistémico requerimos, lo que nos llevara a seleccionar una especie adecuada para introducir, logrando un equilibrio en el ecosistema, lo cual debe ser un punto clave las planificaciones las ciudades mexicanas. Cabe mencionar que gracias al Verano de la Investigación Científica he reforzado mi formación académica al permitir conocer desde otra perspectiva cómo funcionan áreas verdes y su implementación como una necesidad.
Pérez Rojas Gerardo Uriel, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
GUíAS DE ONDA óPTICAS
GUíAS DE ONDA óPTICAS
Pérez Rojas Gerardo Uriel, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Gloria Verónica Vázquez García, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las guías de onda ópticas son estructuras que sirven para confinar luz en una región específica, por lo que el poder comprender su construcción y propiedades es una labor de mucho interés, pues sus aplicaciones son muy amplias, un ejemplo se puede notar en las comunicaciones y las nuevas tecnologías. En este sentido, se plantea el estudio teórico y la simulación de guías de onda para comenzar a conocer mejor esta herramienta.
METODOLOGÍA
La construcción y estudio de las guías de onda se realizó en forma de simulación utilizando el software RSoft haciendo uso de sus herramientas para construir guías de onda enterradas las cuales se forman dentro del sustrato a una distancia de 100 micrómetros de la superficie con una potencia de entre 2 mW y 5mW. En la simulación se utiliza un láser de helio-neón con longitud de onda de 633 nanómetros para propagar luz en las guías de onda.Se obtuvieron también los modos transversales para su estudio y análisis.
CONCLUSIONES
Para la simulación de guías de onda enterradas se notó que al hacer uso de bajas potencias de fabricación se generarán modos con una mayor simetría. Pero, usando potencias mayores a 5 mW nos deformará los modos que se puede interpretar como un guiado débil.Como una perspectiva a futuro se espera poder utilizar un laboratorio de óptica para construir las guías de onda y poder comprender mejor su uso y funcionamiento. También se considera que después de fabricar y comprender en su totalidad esta herramienta fundamental, se pueda aplicar para la vida cotidiana como se mencionó al inicio de este documento, las telecomunicaciones pueden verse modificadas gracias a las guías de onda, pues, el intercambio de información podrá llegar a ser más rápido.
Piñeiro Morales Oscar Ivan, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
EL MODELO INFLACIONARIO Y LOS PROBLEMAS QUE RESUELVE
EL MODELO INFLACIONARIO Y LOS PROBLEMAS QUE RESUELVE
Piñeiro Morales Oscar Ivan, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Se decidió trabajar en la rama de cosmología, donde se me asigno estudiar los mecanismos de inflación, concentrandome en como surgió el modelo inflacionario y sus ventajas.
Se plantean los problemas del horizonte, de planitud y de los monopolos magnéticos como consecuencias de las teorías del Hot Big Bang (HBB) y de las teorías de gran unificación (por sus siglas en inglés, GUT).
METODOLOGÍA
Se revisó la literatura estandar, revisando el trasfondo básico de dinámica cosmológica y posteriormente se revisó el articulo original por Alan Guth sobre un universo inflacionario, tuvimos sesiones relevantes para discutir ideas y guiar hacia el siguiente paso. Se revisaron libros y articulos para estudiar el tema.
CONCLUSIONES
El modelo de inflación cosmológica como fue planteado por Guth resuelve a grandes rasgos los problemas del horizonte, planitud y de los monopolos magnéticos. Resuelve el problema del horizonte, pues como aquí el universo tiene un periodo de crecimiento exponencial (el periodo inflacionario), las regiones del universo temprano resultan estar causalmente conectadas (esto es, que la información pueda llegar de un punto al otro conectando estas regiones) antes de separarse y estar causalmente disconexas, lo que explica la homogeneidad e isotropía del universo. Resuelve el problema de planitud pues con el periodo inflacionario, el universo pudo estar severamente curvo en un periodo de tiempo y debido al crecimiento exponencial, este se "aplanaría", de modo que no se requiere la imposición de planitud para el universo temprano. Resuelve el problema de los monopolos magnéticos, pues la densidad de número de estos resultaría ser muy baja después del periodo inflacionario, por lo que sería casi imposible encontrar uno en la actualidad.
Esta solución no viene sin problemas pues cuando Guth trata de explicar como se detiene la inflación propone la creación de burbujas donde la inflación se detiene, que en analogía a la congelación de un líquido, se considera como una transición de fase donde el crecimiento de la burbuja asimila cada vez más espacio hasta que todo el universo se ve cubierto por estas burbujas donde la inflación ha parado. Sin embargo, el modelo propuesto por Guth tiene problemas, en particular con la nucleación de burbujas y la colisión de las mismas para llegar a un "recalentamiento" o bien, termalización del universo, que es necesario para que la inflación suceda el suficiente tiempo y para que la generación de estas burbujas sea suficiente para detenerla.
Piscil Moreno Jose Angel, Benemérita Universidad Autónoma de Puebla
Asesor:Mg. Carlos Alberto Díez Fonnegra, Fundación Universitaria Konrad Lorenz
UNA PROPUESTA DIDáCTICA PARA LA ECUACIóN CUADRáTICA IMPLEMENTANDO GEOGEBRA Y BASADA EN EL TRINOMIO CUADRADO PERFECTO.
UNA PROPUESTA DIDáCTICA PARA LA ECUACIóN CUADRáTICA IMPLEMENTANDO GEOGEBRA Y BASADA EN EL TRINOMIO CUADRADO PERFECTO.
Piscil Moreno Jose Angel, Benemérita Universidad Autónoma de Puebla. Asesor: Mg. Carlos Alberto Díez Fonnegra, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
En México, en la educación secundaria se tienen los primeros acercamientos al álgebra escolar, comienza a presentarse el registro algebraico al estudiante y algunos temas como la ecuación cuadrática pueden llegar a ser complicados o difíciles de comprender.
Con base en lo anterior, este trabajo tiene como objetivo mejorar la comprensión de la ecuación cuadrática mediante la comprensión y la corrección del deslizamiento metadidáctico de este objeto a través de su aplicación en situaciones de problemas.
METODOLOGÍA
Se tomará una muestra de estudiantes de tercer año de secundaria que no hayan visto ecuación cuadrática en sus aulas, pero que sean capaces de entender el registro semiótico algebraico.
A esta muestra de estudiantes se les impartirá una secuencia didáctica (online, usando Microsoft Teams), como se enuncia a continuación:
Plantear problemas que impliquen ecuaciones cuadráticas. Se ambientará al estudiante en el registro semiótico algebraico, mostrando objetos en registros semióticos escritos o dibujos de objetos de su cotidianidad y mostrándoles que pueden verse como objetos de álgebra. Después de esto, se plantearán problemas que involucren ecuaciones cuadráticas que tengan cierta relación con situaciones a las que se pueden llegar a involucrar creando necesidades de aprender.
Interpretación gráfica del trinomio cuadrado perfecto. Se da continuidad al ambiente del registro semiótico algebraico y, en efecto, se mostrará un cuadrado construido a partir de dos cuadrados de diferente área y dos rectángulos de áreas iguales, como parte del proceso, se ocupará el software GeoGebra.
Trinomio cuadrado perfecto. Usando las fórmulas de área de los cuadriláteros obtenidos en la sesión anterior, calcularemos el área del cuadrado mayor, haciendo notar la forma algebraica del trinomio cuadrado perfecto.
Completar trinomio cuadrado perfecto. Se usará GeoGebra para ver la idea gráfica de completar trinomios. Posterior a ello, se explica que literalmente, nos falta algún cuadrilátero para llegar a la figura del trinomio cuadrado perfecto y haciendo un análisis visual, ver qué completa al trinomio.
Ejercicios de ecuaciones usando el trinomio cuadrado perfecto y revisando su interpretación gráfica. Se retomará a los ejercicios planteados en la sesión 1, pero esta vez para resolverlos usando las propiedades que se han ido aprendiendo.
Aplicación de un instrumento evaluativo. Se efectuará una prueba que calificará la eficacia de esta muestra de estudiantes al resolver una ecuación cuadrática (se dará la ecuación y deben hallar sus raíces) y también, la eficacia que tienen al resolver problemas (ellos deberán plantear la ecuación y además resolverla), se aplicará la misma prueba a otro grupo de estudiantes que ya conozcan y sepan resolver ecuaciones cuadráticas, pero que hayan aprendido este tema con base en la fórmula general para resolver ecuaciones cuadráticas.
CONCLUSIONES
Después de aplicar a ambos grupos de estudiantes la misma prueba y analizar los resultados, se identificó que de manera general los resultados del grupo al que se le implementó la secuencia didáctica (grupo A) son mejores en comparación con el grupo de estudiantes que aprendió el tema con fórmula general y factorización (grupo B). De catorce preguntas posibles, el grupo A en promedio contestó bien el 92.85% de las veces, mientras que el grupo B contestó bien el 73.21% de las veces.
Entrando en detalle cuantitativo, para el caso en que se daba una ecuación, el grupo A resolvió bien en promedio el 83.333% de las veces, el grupo B lo hizo bien el 95.833% de las veces. Para el caso en que se daba una gráfica, el grupo A resolvió bien en promedio el 94.44% de las veces y el grupo B lo hizo bien el 73.61% de las veces. Para el caso en que se daba un enunciado, el grupo A resolvió bien en el 100% de las veces y el grupo B lo hizo bien el 37.5% de las veces.
Detallando la parte cualitativa, los errores del grupo A se perciben como distracciones de signos o de olvidarse de alguna operación, son más bien, errores puntuales. Por su parte, en el grupo B, en algunas ocasiones, no solucionaban el problema, podían plantear una ecuación con base en la información dada, pero luego no usaban esa solución para responder a las preguntas, también se notaron problemas con algunas propiedades de la raíz cuadrada de un número, en algunos otros casos, prefirieron dejar totalmente en blanco la pregunta, sin embargo, sus respuestas a los ejercicios donde sólo tenían que resolver una ecuación son satisfactorios, lo cual, prueba que en la mayoría de los casos aprenden reglas, fórmulas y a sustituir números, pero se percibe que tienen algunas deficiencias a la hora de aplicar ecuaciones cuadráticas en situaciones de problemas.
Plancarte Hernández María Esmeralda, Instituto Tecnológico de Acapulco
Asesor:M.C. Luis Ivan Ruiz Flores, Instituto Educativo y de Especialidades
SISTEMAS ELéCTRICOS DE POTENCIA
SISTEMAS ELéCTRICOS DE POTENCIA
Plancarte Hernández María Esmeralda, Instituto Tecnológico de Acapulco. Asesor: M.C. Luis Ivan Ruiz Flores, Instituto Educativo y de Especialidades
PLANTEAMIENTO DEL PROBLEMA
Hoy en día, se busca la agilidad de operación en Sistemas Eléctricos de Potencia (SEP), principalmente para evitar paros de planta de energía. Lo anterior, derivado a que pueden afectar a la red eléctrica pública por alguna distorsión interna del consumidor o usuario final. También, se busca el monitoreo en tiempo real de parámetros eléctricos en las subestaciones, tales como: tensión eléctrica, corriente eléctrica, armónicos, etc., para ello se considera la instalación de Sistemas de Automatización en las Subestaciones (SAS).
Las subestaciones eléctricas existentes tienen aproximadamente una operación de más de 3 décadas, los equipos de estas instalaciones con el paso de los años y el avance tecnológico empiezan a ser obsoletos para el futuro; es decir, que requiere de un proceso de modernización eléctrica y un reemplazo de los equipos eléctricos primarios, tales como: interruptores de potencia, relevadores de protección, Dispositivos Electrónicos Inteligentes (DEI’s), transformadores de potencia, etc. Dicha modernización, la seguridad eléctrica se debe enfocar en primera instancia la vida humana y en consecuencia a la conservación óptima de las instalaciones eléctricas. En diversas empresas de Generación, Distribución, Industria, Comerciales, Centros de Datos, etc., cuenta con una subestación principal que permite recibir la alimentación de energía. Por lo tanto, es necesario la migración de las subestaciones eléctricas con base a la tecnología reciente y utilizando los estándares internacionales.
METODOLOGÍA
Por medio de la lectura de artículos de investigación sobre la comparación de tecnologías en subestaciones: Subestaciones Aisladas en Gas (GIS) con SF6, Subestaciones Aisladas en Gas (IAS) y las Subestaciones Híbridas. Se llegó a la conclusión que las tecnologías más viables serían las GIS y/o las Subestaciones Híbridas.
En la actualidad, se han modernizado las subestaciones eléctricas a nuevas tecnologías como: Subestaciones compactas aisladas en Gas con SF6 y Subestaciones híbridas. Cada una de ellas cuenta con ciertas ventajas individuales para su rendimiento durante la instalación al Sistema Eléctrico de Potencia (SEP). Se realizo una comparativa de tecnologías utilizando información de diferentes catálogos de algunas empresas reconocidas que trabajan en la instalación, mantenimiento, control y fabricación de las mismas, estas son: SIEMENS, ABB, CHINT.
Las de Tecnologías Compactas en gas SF6, otorgan la facilidad de migración de subestaciones antiguas o con tendencias de modernización. Por otro lado, también las Subestaciones Híbridas tienden a combinar el uso de polímeros en las conexiones de alta tensión y conectados a terminales que están aisladas en gas, con la diferencia que en condiciones de un sismo se pueden minimizar el escape del gas acorde al estándar; es decir, el contar con una Tecnología Compacta en Gas en su Totalidad si bien es de menor mantenimiento, se tendrá que vigilar periódicamente el nivel de gas en el medio extintor. Se realizo una tabla comparativa donde se presentan algunas características de ambas tecnologías (Compactas en Gas SF6 versus Híbridas).
Para el funcionamiento de un Sistema Eléctrico de Potencia sea eficaz se deben considerar la adecuada selección de complementes en el equipo de la subestación, tales como; aparamentas, transformadores, sistema de comunicación, sistemas de control, protecciones y monitoreo de condición. Con base a la investigación extensa, también se conoció que desde los últimos 30 años se han llevado modernizaciones en las subestaciones de Sistemas Automatizados en Subestaciones (SAS), dado que el desarrollo y actualización de estándares es actualmente de los principales impulsadores en la evolución de estos sistemas operativos. Se especificaron las características claves se un SAS según la empresa ETAP, entre ellas la más destacable es la Automatización de subestaciones en IEC 61850.
Actualmente, solo existen pocas empresas generadoras de DEI’s (Dispositivos Electrónicos Inteligentes) para implementarlas a sistemas eléctricos de potencia. La aparición de los Dispositivos Electrónico Inteligente da la confiabilidad a la modernización de las subestaciones eléctricas a ser sistematizadas, para ello se da a destacar la utilización del estándar IEC 61850 y su implementación correcta con base a las características mínimas requeridas en su implementación.
Para el entendimiento claro se implementó asesoramiento para adquirir conocimientos y habilidades para poder realizar análisis de flujo de carga y cortocircuito en un Sistema Eléctrico de Potencia en modernización sumado a eso, el uso de normas eléctricas y los criterios básicos para el análisis de SEP’s, todo lo anterior basado en un sistema de la Industria Nacional de Refinación e Industria Petroquímica. Además, los conceptos de capacidad interruptiva y caída de tensión, y su impacto en el análisis de Sistemas Eléctricos de Potencia.
Se realizó un curso básico de manejo de software de simulación ETAP. Consecuente a lo anterior, se hizo un estudio de un modelo matemático de cortocircuito y de flujo de carga con el uso software etapa, donde se observaron situaciones problemáticas en el sistema eléctrico los cuales fueron corregidos.
CONCLUSIONES
Durante la estancia de verano se desarrollaron habilidades y se adquirieron conocimientos extensos sobre Sistemas Eléctrico de Potencia, las nuevas tecnologías, el impulso de la innovación de manera global, la implementación del uso de software a los estudios matemáticos. La finalidad con base a lo aprendido es seguir haciendo trabajos de investigación y participar en congresos de investigación presentando proyectos o artículos que impulsen el desarrollo tecnológico para el futuro.
Priego Sanabria Josue Samuel, Instituto Tecnológico de Tapachula
Asesor:Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
AJUSTE Y VALIDACIóN DE MODELOS FISICOMATEMáTICOS PARA LA DESCRIPCIóN DEL COMPORTAMIENTO DEL FLUJO DE AIRE EN UNA CáMARA TéRMICA
AJUSTE Y VALIDACIóN DE MODELOS FISICOMATEMáTICOS PARA LA DESCRIPCIóN DEL COMPORTAMIENTO DEL FLUJO DE AIRE EN UNA CáMARA TéRMICA
Priego Sanabria Josue Samuel, Instituto Tecnológico de Tapachula. Asesor: Dr. Gerardo Vera Medina, Instituto Tecnológico de Tapachula
PLANTEAMIENTO DEL PROBLEMA
Descripción del comportamiento del movimiento de un fluido dentro de una cámara térmica con el propósito de mantener una temperatura constante, controlada y aislada del exterior, mediante el sistema de flujo forzado por régimen laminar.
METODOLOGÍA
Se uso una cámara térmica con una estructura en forma cubica con lados de una longitud de 1 m, con las aristas suavizadas, de tal manera que se pueda considerar como una placa plana, las condiciones iniciales dentro de la cámara es una temperatura de 50º C con sus respectivas constantes de densidad y viscosidad del aire junto con un valor de Reynolds máximo de 500,000 para mantener el estado laminar del flujo.
Al sustituir nuestros valores en las ecuaciones se obtuvieron valores de velocidad de 1 m/s y una distancia critica de 9 m aproximadamente; el espesor de capa limite resulta de 10 cm, esto contribuye a la consideración de planteada de ajustar las ecuaciones de flujo laminar en una placa plana, puesto que el espesor de la capa limite se encuentran por debajo de las dimensiones de la cámara térmica.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la mecánica de fluidos y como se pueden lograr sistemas controlados de estos, sin embargo, al ser un extenso trabajo aún se encuentra en la fase de cálculo y ajuste de modelo para los posteriores resultados. Se esperan que el efecto laminar se mantenga en todo el perímetro de la estructura y la temperatura interna en 50º C
Quintero Espinosa Luis Fernando, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE ECOBLOCK CON MATERIALES RECICLADOS DE PET.
PROTOTIPO DE ECOBLOCK CON MATERIALES RECICLADOS DE PET.
Quintero Espinosa Luis Fernando, Instituto Politécnico Nacional. Sánchez González Fernando, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En las últimas décadas, el medio ambiente se ha visto bombardeado y afectado
negativamente por la industria de la construcción, la cual afecta directamente al medio
ambiente por generar grandes cantidades de residuos de la construcción.
Según el censo del INEGI en el 2020 126,014,024 millones de personas. Actualmente el país
tiene 126 millones de habitantes en 1.973.000 Km2, por lo que se estima que hay 64
personas por cada kilómetro cuadrado. Su capital, Ciudad de México es la más poblada de
Latinoamérica y la sexta del mundo. El aumento desmedido de la población año con año ha
traído graves problemas a México, tales como un fuerte deterioro ambiental,
especialmente por contaminación del agua y generación de residuos especialmente en el
ámbito de la construcción. Además, en las grandes ciudades como es el caso de la Ciudad
de México el déficit de viviendas es alto y se produce hacinamiento.
Por medio de esta investigación se dará a conocer el aprovechamiento de residuos
industriales con la finalidad de poder informar acerca de la fabricación de materiales de
construcción; el caucho y el aserrín serán los elementos esenciales para la elaboración de
bloques ecológicos (eco-bloques), así logrando generar, en base, del reciclaje del caucho y
el aserrín un eco ladrillo resistente, económico, versátil para generar diferentes estilos de
diseño y amigable con el medio ambiente. Que al ser fabricado el uso de un residuo
industrial como una materia prima podría constituir una fuente de ahorro en costos y
recursos.
METODOLOGÍA
Dentro de la metodología de la investigación, encontramos que nuestra investigación
tiene como fin, plantear una alternativa en la construcción de vivienda de bajo costo con
material de desecho como lo es el plástico reciclado, para el desarrollo del proceso
encontramos que este trabajo obedece a cuatro fases, las cuales son de carácter
investigativo y experimental.
En primer lugar, durante el desarrollo de esta etapa se realizó una evaluación de criterios
en cuanto al planteamiento de una posible solución que diera respuesta a problemáticas
en cuanto a vivienda, medio ambiente y economía se refieren, aspectos que se analizaron
desde un punto de vista sostenible y tecnológico, lo cual nos llevó a formular nuestro
proyecto de investigación enfocado en la fabricación de un bloque prefabricado de pet.
Realizada esta etapa de lluvia de ideas y planteamientos, se continuo con un proceso de
investigación, dando lugar al desarrollo del proyecto, el cual consistió en realizar una
recolección de información referente a nuestro tema de investigación, enfocada en los
estudios que se tienen con respecto al contenido de nuestro proyecto; el desarrollo de un
block de pet.
La obtención de la materia prima en este caso (pet), será buscando en las calles, botes de
basura y los que nosotros mismos obtendremos de nuestro día a día.
CONCLUSIONES
Dentro de este proyecto, encontramos a través del seguimiento de los procesos de
investigación y de orden experimental resultados concretos que involucran
alternativas de innovación y tecnología, desarrollando un nuevo material con el uso
de material de desecho en la fabricación de un elemento constructivo.
La forma, textura, medidas y peso de los ladrillos presentan excelentes condiciones,
debido a que su aspecto, presentación y forma.
En cuanto a su peso, se encuentra una característica muy importante la cual destacar
ya que el mismo es considerablemente mucho más liviano que su par constructivo
(bloque de mortero con cemento y arena), se reduce considerablemente el peso de
las muestras, porque el mismo tiene un peso promedio de 0.784 gr y su par el ladrillo
convencional, tiene 1.075 gr en promedio.
ARQUITECTO MILLER ERNESTO PIÑEROS MORENO, NOVIEMBRE 2018, PROYECTO DE
FACTIBILIDAD ECONÓMICA PARA LA FABRICACIÓN DE BLOQUES CON AGREGADOS DE
PLÁSTICO RECICLADO (PET), APLICADOS EN LA CONSTRUCCIÓN DE VIVIENDA, MÉXICO,
UNIVERSIDAD DEL VALLE DE MÉXICO.
Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
ENERGíAS RENOVABLES APLICADAS A SEGUIDOR DE PANELES SOLARES
ENERGíAS RENOVABLES APLICADAS A SEGUIDOR DE PANELES SOLARES
Cisneros Chumacero Arturo Alán, Benemérita Universidad Autónoma de Puebla. Ramirez Cruz Daniel, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Enrique de la Fuente Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las energías renovables han surgido como medida de recuperación del ambiente por las décadas que el ser humano ha contaminado, desde la revolución industrial hasta la fecha con la quema de combustibles fósiles y gases. Es claro ver que la energía que se necesitó en la época medieval no es la misma que la necesaria en la actualidad para el ser humano, por poner un ejemplo. El hombre actual está inmerso en el uso de energía, debido al desarrollo de la tecnología en su vida cotidiana y el avance de hacer cada vez objetos inteligentes que faciliten las actividades del día a día, o procesos de automatización para satisfacer más rápido las necesidades de toda una población.
Desde que se levanta una persona promedio utiliza un celular, la TV, se baña y ocupa un calentador de gas, prepara el desayuno con una estufa de gas o alguna parilla eléctrica, se va al trabajo usando un automóvil de combustión, (sin mencionar que todo los productos que usa como vestimenta utilizaron algún tipo de energía para su creación) utilizará alguna computadora o algún otro dispositivo que ocupara electricidad la mayor parte del día conectado y si es un estudiante o realiza home office necesitará la computadora para realizar sus actividades ya que la pandemia de Covid-19 aumento el uso de estos dispositivos electrónicos.
Dado a esto es necesario innovar sobre los sistemas de producción de energía, ya que, los más populares (hidrocarburos) son la principal causa de los grandes problemas climáticos actuales.
METODOLOGÍA
La metodología aplicada para el desarrollo de la investigación se dividió en actividades semanales donde se iba llevando un monitoreo por parte del investigador, la estructura es la siguiente:
Semana 1: -Investigar sistemas de Paneles Solares, 4 sistemas citadas
-Investigar que son energías renovables aplicadas a paneles solares
Semana 2: -Selección de un panel solar o diseño de panel solar.
Semana 3: -Explicación física del panel seleccionado
-Explicar uso y funcionamiento de panel
Semana 4: -Explicación matemática del funcionamiento del panel solar.
Semana 5: Crear herramientas matemáticas para mejor funcionamiento para el panel solar.
Semana 6: -Crear documento abordando todos los puntos anteriores.
Semana 7:- Exponer método y preparar una exposición.
CONCLUSIONES
Gracias a esta investigación se ha comprobado el poco impacto y popularidad de energías renovables, en particular la producción de energía eléctrica a partir de energía solar, ocupando apenas un 0.64% del total de la producción de energía en México. También realizado un pronóstico a partir de fórmulas, para los años de la vida útil de un sistema de paneles solares, que un hogar necesita, su consumo y el retorno de inversión. La simulación hecha hizo que la implementación de panales solares sea mas asequible para toda la población sin importar cualquier caracteristica fisica, social o economica. Es importante recalcar que esta simulación se hizo a partir del cálculo de que una sola persona compra el sistema de paneles solares, pero los beneficiarios serian muchos más si se fueran más de 1 hogar quien adquiera los sistemas.
Está claro que es una propuesta al gobierno o a una empresa privada que quiera innovar y contribuir a la expansión de este tipo de energías y también a la disposición de la población. El fin es claro, que sea aumentar ese porcentaje de energía solar lo máximo posible en los años venideros, y como consecuente retrasar y evitar las catástrofes del cambio climático.
Ramírez Mendoza María Fernanda, Universidad de Guadalajara
Asesor:Dr. Jorge Armando Ojeda Sánchez, Universidad de Colima
TRANSFERENCIA DE CALOR EN DUCTOS MEDIANTE FLUJO DE NANOFLUIDOS.
TRANSFERENCIA DE CALOR EN DUCTOS MEDIANTE FLUJO DE NANOFLUIDOS.
Ramírez Mendoza María Fernanda, Universidad de Guadalajara. Asesor: Dr. Jorge Armando Ojeda Sánchez, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Analizar la transferencia de Calor en ductos mediante flujo de nanofluidos. En la cual nos interesa saber la transferencia de calor del exterior de una tuberia a ubn fluido especial (nanofluido). Con el fin de reducir las pérdidas que se presentan en dichos ductos.
METODOLOGÍA
Desarrollo del modelo matemático bajo el concepto de Temperatura Media, en condiciones de flujo de calor uniforme en la superficie externa del tubo.
Exposición de los procedimientos matemáticos, conceptos que justifican esta aproximación.
Generación de resultados, mediante asignación de valores
Generación de graficas
CONCLUSIONES
Con el modelo matematico desarrollo y los datos obtenidos se analizó la transferencia de calor del exterior de la tubería, considerando que el fluido tiene una viscosidad, densidad y calor específico constantes. Al reducir la ecuación se logro describir la interacción del fluido.
Ramírez Peralta María Fernanda, Instituto Politécnico Nacional
Asesor:Dr. David Israel Bravo Barcenas, Universidad de Guadalajara
DISEñO Y FABRICACIóN DE SISTEMAS DE ALEACIONES CON PROPIEDADES BIOMéDICAS
DISEñO Y FABRICACIóN DE SISTEMAS DE ALEACIONES CON PROPIEDADES BIOMéDICAS
Ramírez Peralta María Fernanda, Instituto Politécnico Nacional. Ruiz Mondragón José Pablo, Instituto Politécnico Nacional. Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las patologías traumáticas actualmente, son una de las cinco principales causas de muerte en la población mundial. La Organización Mundial de la Salud estima que las patologías traumáticas corresponden a un 12% de años de vida perdidos por discapacidad, además, el envejecimiento, ha obligado al ser humano a mejores protesis.
La evolución de las prótesis ha sido larga, comenzando desde las primeras extremidades artificiales de madera, hasta la actualidad. A estos metales actualmente se les da el nombre de biomateriales, su propósito es el de interactuar con el medio biológico, un ejemplo es el titanio, el cual con sus aleaciones posee características favorables de osteointegración, biocompatibilidad, etc., para la fabricación de prótesis.
Es así como la aleación Ti-6Al-4V ha sido usada para solucionar problemas traumáticos, pero se ha demostrado que después de un lapso, en el tejido cercano a la zona del biomaterial existen altas concentraciones de partículas de vanadio, las cuales son toxicas y tienen efectos carcinogénicos. Por lo tanto, se ha buscado el diseño de aleaciones tipo β con elementos de aleación como Nb, Ta y Zr, objetivo en común con este proyecto, ya que se ha demostrado en estudios in vitro que estas aleaciones no causan efectos tóxicos en el tejido.
METODOLOGÍA
El presente trabajo está basado en el analisis de dos series de aleaciones. La primera es el sistema Ti-30ZrxTa con adiciones de 1 a 5% at. de Ta. El segundo sistema TIZrNbxTa con adiciones de 2.6, 4, 6 y 8% at. de Ta. Estas muestras se procesaron mediante fundición por arco eléctrico, empleando un horno TA-200 el cual cuenta con tres electrodos de Tugnsteno (W) en un crisol de Cobre (Cu).
Para los análisis FE-SEM y XRD se utilizaron los equipos MIRA 3MLU TESCAN y un difractómetro PANalytical modelo Empyrean, respecitvamente para el ensayo de microdureza se aplicó una carga constante de 300 gf con un intervalo de 15 s haciendo uso de un micro-durómetro Future Tech FM-800.
Patrones XRD
Para el análisis de los patrones de difracción XRD se utilizó el software MDI JADE 5.0, en el cual se introducen los patrones resultantes de las muestras, en formato digital rd, para realizar su respectivo análisis
Posteriormente, en la pestaña correspondiente a la base de datos PDF se abre la opción Chemistry, en el apartado de metal alloys , donde se colocaron los elementos correspondientes a cada muestra. Dichos elementos son Ti, Zr y Ta teniendo aleaciones TiZrxTa, y Ti, Zr, Nb y Ta para la aleaciones TNTZ.
Identificación de las fases presentes
Posteriormente, se localizaron los picos que coincidían con la carta cristalográfica de intensidad y dirección de cada fase para determinar si las fases de la aleación son de tipo α o β de Ti, o pertenecientes a Zr.
Primero, se identificaron los picos del patrón de la muestra, luego, se selecciona la carta cristalográfica que se va a comparar con el patrón.
Este procedimiento se realizó para cada una de las muestras, logrando realizar la indexación de las fases presentes de cada una de las muestras. Al considerar todas las muestras, se identifican los cambios presentes en las aleaciones provocados por las adiciones de Ta.
La fase de óxido de Titanio al inicio del patrón, alrededor de 20°, se identificó de acuerdo con el trabajo de Zhou et al. donde identifican este compuesto al adicionar Ta a las aleaciones de Ti .
También se calculan las constantes de reticulación de la estructura cristalina, en general, hay una tendencia de decrecimiento de las constantes debido al aumento de átomos de Ta conforme aumenta su porcentaje de adición en la aleación Ti-30Zr.
En el caso de la aleación de TNTZ con las adiciones de Ta, posee una estructura cubica céntrica, debido a esto se puede observar la presencia predominante de la fase β.
IMÁGENES SEM
Para el análisis SEM se utilizó el programa Imagine Pro Plus V 6.0, en el cual, se realizó una calibración utilizando plantillas de regletas y la escala de las imágenes SEM para cada acercamiento de microscopía electrónica de barrido ( de 200X a 3000X). Posteriormente, se colocó la escala en cada imagen y se editaron de manera que se tenga un tamaño adecuado.
Para la calibración se utiliza una imagen con una escala predefinida para asignarla cantidad de μm a los que equivale cada división de la escala.
Esta calibración se realiza por cada magnificación, la cual es indicada en cada pie de imagen.
Colocación del marcador de escala
Una vez teniendo la regleta calibrada, se coloca el marcador de la escala en un extremo de la imagen y se guarda como una nueva imagen.
PRESENTACIÓN DE RESULTADOS
Aleaciones Ti-30Zr-xTa y TiNbZr-xTa
Cada imagen es posteriormente editada en Power Point, y se guarda en formato de archivo de imagen de etiqueta con extensión .TIFF o .TIF para conservar su resolución.
En las imágenes SEM se pudo apreciar que es la misma muestra tanto de lado derecho como izquierdo esto debido a que una es obtenida mediante la señal de electrones secundarios (SE) y la otra por la señal de electrones retrodispersados (BSE). Dentro de la imagen se pudo determinar qué tipo de estructura estamos observando, además de las distintas fases que podemos encontrar en la aleación debido a la diferencia de tonalidades en la estructura. Asimismo, se comprueban las fases establecidas por el analisis de los patrones de difracción de rayos X de cada una de las muestras
CONCLUSIONES
Se analizaron biomateriales con aplicación en el área de la biomédica mediante la identificación de las fases de aleaciones basadas en el titanio, niobio, tantalio y zirconio, a través del procesamiento de los patrones XRD según su dirección cristalográfica, y el análisis de las muestras SEM.
La adición de Ta en aleaciones Ti-30Zr estabiliza la composición en fases de Ti y Zr, las cuales se presentan de acuerdo con el porcentaje de Ta. En cantidades de 1,2 y 3% se presentan mayormente la fase beta de Ti y fases de Zr, y en los porcentajes de 4 y 5 se presentan las fases alfa y Zr. Este incremento de Ta también favorece la microdureza en escala Vickers
En la aleación TNTZ, la adición de Ta, estabilizó toda la muestra, en una fase beta, teniendo así una estructura cubica centrada, donde a mayor concentración de Ta, mayor estabilidad.
Ramírez Ramírez Gálvez Alma Isarel, Universidad de Colima
Asesor:Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
EQUIVALENCIA ENTRE VARIEDADES AFINES Y ANILLOS COORDINADOS DE VARIEDADES
EQUIVALENCIA ENTRE VARIEDADES AFINES Y ANILLOS COORDINADOS DE VARIEDADES
Ramírez Ramírez Gálvez Alma Isarel, Universidad de Colima. Asesor: Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
La geometría algebraica es una rama de las matemáticas que clásicamente estudia los ceros de polinomios en varias variables. La geometría algebraica moderna está basada en el uso de técnicas de álgebra abstracta, principalmente el álgebra conmutativa, para resolver problemas geométricos acerca de estos conjuntos de ceros.
Los objetos fundamentales estudiados en esta rama son las variedades algebraicas, las cuales son manifestaciones geométricas de las soluciones de sistemas de ecuaciones polinomiales en una o más variables. Por ejemplo, el circulo, la parábola, la elipse, son variedades algebraicas.
Durante este verano se estudiaron las variedades algebraicas, en específico las variedades afines, así mismo se estudiaron los ideales en las variedades y los ideales de variedades, posteriormente conocimos el cociente entre de un anillo de polinomios y un ideal de una variedad el cual tiene un isomorfismo con los anillos coordinados, todo esto para finalizar con el entendimiento y demostración de la equivalencia entre dos variedades isomorfas y dos anillos coordinados isomorfos.
METODOLOGÍA
Durante el periodo del programa se estudiaron distintos temas para llegar al entendimiento de la equivalencia anteriormente mencionada, el camino que se realizo para acercarnos a ello fue el siguiente: monomios → polinomios → variedades → ideales → ideales de variedades → mapeos polinomiales → cocientes → demostración del teorema.
Los monomios son la multiplicación de varias variables finitas, cada una elevada a un exponente (no necesariamente el mismo), la definición de monomios nos permite definir estrictamente los polinomios en una o mas variables, por lo tanto, declaramos a los polinomios como la combinación lineal finita de monomios con coeficientes en un campo arbitrario, por ejemplo, podemos decir que 3xy² es un polinomio en dos variables con coeficiente en los racionales. Además, el conjunto de polinomios en n variables es un anillo y se puede corroborar fácilmente dicho hecho.
Una vez que tuvimos el significado de los polinomios fue mas sencillo definir las variedades afines, pero primero necesitamos los espacios afines. Un espacio afín de n dimensiones es el conjunto de vectores en n dimensiones donde cada componente pertenece a un campo; y dado los espacios afines, definimos las variedades afines como el conjunto de vectores en un espacio afín tales que un conjunto de polinomios se anula en esos vectores.
Podemos ver a las variedades afines como la parte geométrica de nuestro tema, pero también existe una parte algebraica, por lo que es aquí cuando estudiamos los ideales. Los ideales los definimos como un subconjunto del anillo de polinomios tales que satisfacen ciertas propiedades, además los ideales son generados por un conjunto finito de polinomios. Otro concepto esencial que se estudio fueron los ideales de variedades afines, los cuales son los polinomios que son anulados en todos los puntos de una variedad afín.
Hasta este punto hemos definido conceptos básicos de la geometría algebraica, el siguiente subtema importante estudiado son los mapeos polinomiales los cuales juegan un papel crucial en el problema final. Los mapeos polinomiales son funciones que van de una variedad afín a otra las cuales no necesariamente están en el mismo espacio afín. Estos mapeos fueron introducidos porque en especial nos interesan los que van de una variedad afín arbitraria a un campo. Además, a la colección de estas funciones se les llama anillos coordinados.
El ultimo concepto esencial en este trabajo que necesitamos fueron los cocientes, especialmente los cocientes entre un anillo de polinomios y un ideal, estudiamos que si este ideal es en especifico un ideal de una variedad entonces este cociente es isomorfo al anillo coordinado de la misma variedad.
CONCLUSIONES
Todas estas definiciones y resultados obtenidos nos fueron útiles para la demostración de una proposición que indica que un mapeo polinomial puede tener una inversa e induce un homomorfismo entre anillos coordinados tal que es la identidad en las funciones constantes.
Dada esta proposición, fuimos capaces de comprender la solución del teorema deseado a demostrar, el cual indica que, si dos variedades afines son isomorfas entre sí, eso es equivalente a que los anillos coordinados de esas dos variedades también sean isomorfos donde el isomorfismo entre estos sea la identidad en las funciones constantes.
Durante este proyecto se pudo apreciar la relación estrecha que se puede tener entre la geometría y el algebra abstracta, de igual manera la importancia que tienen los polinomios en la geometría algebraica. Fue interesantes analizar y estudiar las variedades y los ideales a la par, sus distintas propiedades y los resultados que resultan de jugar con ellos.
Este proyecto fue una gran experiencia personal y académica, la cual me permitió trabajar en una rama de las matemáticas que hasta el momento no había profundizado en ella, el aprendizaje ha sido grato y el trabajo y apoyo del Dr. Andrés Daniel Duarte ha sido excelente.
Regalado Contreras Andrés, Universidad Veracruzana
Asesor:Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
EFECTOS EN CAíDAS DE PRESIóN POR USO DE BIORREDUCTOR DE VISCOSIDAD PARA PETRóLEO CRUDO EXTRAPESADO
EFECTOS EN CAíDAS DE PRESIóN POR USO DE BIORREDUCTOR DE VISCOSIDAD PARA PETRóLEO CRUDO EXTRAPESADO
Regalado Contreras Andrés, Universidad Veracruzana. Asesor: Dr. Edgardo Jonathan Suarez Dominguez, Universidad Autónoma de Tamaulipas
PLANTEAMIENTO DEL PROBLEMA
La producción y transporte de petróleo crudo pesado se ha incrementado en los últimos años. Este tipo de fluido presenta una viscosidad elevada que dificulta el transporte. Aumentar la temperatura del sistema disminuye la viscosidad, pero requiere grandes cantidades de combustible; diluir con petróleo crudo ligero es otra buena opción, pero presenta dificultades de bombeo además de ser una alternativa costosa; los tensioactivos se utilizan como emulsiones para suspender el petróleo en microgotas para reducir la viscosidad aparente, pero resulta ser muy costoso y se debe elegir de forma adecuada el tensioactivo. (Souas, et al. 2020).
La alta viscosidad del fluido hace que se experimenten grandes pérdidas por fricción. La mayoría de los métodos para reducir las pérdidas por fricción en el transporte de fluidos es sobre fluidos monofásicos, siendo entonces un problema industrial importante las pérdidas por fricción en flujo bifásico. Es posible optimizar el uso de aditivos para reducir pérdidas de carga por fricción a la par de obtener una ventaja económica en consumo de energía utilizando un tensioactivo catiónico. (Alwasiti, et al. 2021).
Utilizar mejoradores de flujo o reductores de viscosidad trae consigo diferentes modificaciones a las condiciones del sistema trabajado. Una de estas alteraciones es sobre las caídas de presión en el transporte de petróleo crudo pesado y extrapesado, pero deben evaluarse diversos modelos para su correcta aplicación según sea el caso presentado.
Es necesario realizar la evaluación de modelos de caída de presión aplicados a pruebas de campo para utilizarse en casos similares, así como ampliar los experimentos con fluidos modélicos.
METODOLOGÍA
A partir de los resultados de campo obtenidos de la zona norte, específicamente en los 3 ductos en los que se desarrolló el proceso experimental, se evaluaron modelos existentes de caída de presión. Los 3 ductos poseen un diámetro de 6 in y el material de fabricación es acero al carbón, pero difieren en longitud. El primer ducto tiene una longitud de 1926 m; el segundo ducto se extiende hasta 3090 m de longitud; el tercer ducto mantiene una longitud de 1326 m, además se cuenta con las características generales del petróleo que transportan al inicio y final de los ductos.
Posteriormente se realizó un software para realizar los cálculos de caídas de presión descritos antes a través de diferentes hipótesis (considerando la caída de presión en un lecho poroso, considerando el fluido como no newtoniano y considerando el fluido como newtoniano), pero mismos criterios y consideraciones para el cálculo de variables con ecuaciones.
Los criterios utilizados fueron los siguientes: la velocidad y flujo del fluido se determinaron a partir de los BPD que se estiman a producirse. La densidad se obtiene a partir de la medición de los grados API, mientras que la longitud total de los ductos y los diámetros se obtuvieron directamente de las condiciones iniciales.
A partir de los datos experimentales se realizó adicionalmente un estudio del efecto que podría tenerse si se inyectaran mejoradores en fondo de pozo a partir de un análisis teórico considerando un medio poroso estándar que, aunque no necesariamente reproduce con exactitud el medio poroso de un yacimiento específico, sí permite contrastar los resultados sin y con producto, de tal manera que pueda estimarse las diferencias en las caídas de presión y por tanto si los efectos podrían ser positivos o no si esto se realizada desde el fondo de pozo; para ellos se consideró que Los valores de esfericidad varían entre 0 y 1, pero una gran cantidad de partículas se pueden acotar en un intervalo de 0.8 a 1. En este intervalo, la diferencia del gradiente en las cotas es de 1.56 veces, por lo que asumir una partícula completamente esférica no supone un cambio abismal en los resultados. En el caso del diámetro de la partícula, se considera el punto medio del rango de 75.7 a 106.7 μm, que abarca los diámetros de partículas de petróleo crudo extrapesado en una prueba experimental (Marín, et al. 2020). Similarmente, el orden de flujo para petróleo crudo extrapesado se puede considerar en el punto medio del intervalo que va de 0.917 a 0.929. (Laurencio, et al. 2017).
Por otra parte, la viscosidad se determinó directamente de las pruebas experimentales, siendo que estos valores son para crudo muerto. Es importante mencionar esto ya que en yacimientos la viscosidad baja sustancialmente debido a la presencia del gas, así como a la temperatura. Por último, la consistencia se obtuvo a partir de las expresiones matemáticas mostradas con anterioridad utilizando el gradiente de velocidad, el orden de flujo y la viscosidad aparente.
A partir de los datos medidos y calculados, se utilizaron 3 métodos diferentes para determinar el cambio en la caída de presión antes, durante y después de la adición del biorreductor de viscosidad.
Los resultados se complementaron con un experimento a partir de fluidos modélicos. Para el proceso experimental se utiliza un recipiente hermético como sistema empacado, en dónde se coloca la grava. Este recipiente hermético tiene una entrada y una salida de flujo, la salida está regulada con una válvula. Un poco antes de la entrada al recipiente se coloca un manómetro. El flujo se logra a través de una bomba hidráulica de 1/32 Hp de potencia, y se utiliza una manguera industrial transparente.
Con el experimento armado, se procedió con dos fluidos diferentes: El primero de ellos será agua, y el segundo un fluido modélico con una viscosidad similar a la del aceite quemado. Ambos fluidos fueron tomados en cuenta utilizando el sistema empacado ideal y sin utilizar.
CONCLUSIONES
Los resultados obtenidos mostraron que al utilizar el biorreductor de viscosidad en el petróleo crudo extrapesado no sólo se disminuye la viscosidad, sino que también se disminuyen las caídas de presión que se experimentan bajo diferentes circunstancias, principalmente en periodos de dosificación del compuesto. Por otra parte, en un medio idealizado se muestra de forma experimental que la relación entre la caída de presión y la viscosidad del fluido se asemeja a los resultados teóricos calculados.
Reyes Pérez Javier, Instituto Politécnico Nacional
Asesor:M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
VIABILIDAD ECONóMICA DEL USO DE SARGAZO MOLIDO (LIMPIO Y SUCIO) COMO BIOMASA EN COMPARACIóN CON OTRAS PARA LA OBTENCIóN DE BIOENERGíA, Y LA BúSQUEDA DE TéCNICAS PARA EL ENRIQUECIMIENTO DE BIOGáS
VIABILIDAD ECONóMICA DEL USO DE SARGAZO MOLIDO (LIMPIO Y SUCIO) COMO BIOMASA EN COMPARACIóN CON OTRAS PARA LA OBTENCIóN DE BIOENERGíA, Y LA BúSQUEDA DE TéCNICAS PARA EL ENRIQUECIMIENTO DE BIOGáS
Reyes Pérez Javier, Instituto Politécnico Nacional. Asesor: M.C. Jose Aurelio Sosa Olivier, Universidad Juárez Autónoma de Tabasco
PLANTEAMIENTO DEL PROBLEMA
Las playas del Caribe, en donde están ubicados Cancún, Playa del Carmen, Riviera Maya, Cozumel y Tulum, son considerados unos de los destinos preferidos en México, para turistas nacionales e internacionales (Espinosa, L., A., 2020). Durante los últimos años el incremento de sargazo ha alcanzado máximos de +500 mil toneladas (SEMA, 2018), lo cual ha generado una gran variedad de problemas, entre ellos malos olores, crecimiento de insectos, alteración en la reproducción de animales locales, problemas económicos y turísticos en la zona. Razones por lo que debe ser removido, y aprovechado al mismo tiempo.
El estudio económico pretende aportar elementos para determinar que el sargazo es un material que puede ser aprovechado para la obtención de bioenergía, comparando de forma especifica las ventajas económicas que tendría el uso de esta biomasa sobre otro tipo, entre ellos pellets de aserrín de residuos agrícolas, de bagazo de caña, briquetas de madera mixta, etc.
La purificación del biogás se realiza por diversas técnicas (carbón activado, membranas, zeolitas, criogenias, adsorción química con aminas) con el fin de eliminar componentes como CO2 y H2S, con la finalidad de obtener biogás rico en CH4 con una gran posibilidad ser empelado para obtener bioenergía, de manera que se pretende reducir la emisión de gases de efecto invernadero (caso del CO2), y evitar corrosión en tuberías por el H2S, además de aumentar el rendimiento del CH3 (Trisha L., D., Marc A. D., 2020).
METODOLOGÍA
Mediante la búsqueda en paginas oficiales gubernamentales, se identificó para los años del periodo 2017-2019 la cantidad en toneladas de sargazo recolectado en las costas del caribe de México, así mismo con los datos proporcionados del costo por la recolección del sargazo, se determinó un factor, el cual relaciona el costo en moneda nacional, por cada tonelada recolectada en el año; mediante este dato y otros como costo del lavado y molienda del sargazo, se estimó un valor final por tonelada de sargazo molido, para realizar una comparación con otras distintas biomasas, y determinar si el sargazo molido es un recurso competitivo económicamente para ser usado como biomasa y su posterior uso en la obtención de bioenergía.
Los datos de costos de las distintas biomasas se recolectaron de diversas plataformas de literatura científica, como Elsevier, EBSCO y Springer; mediante los datos recolectados, se decidió sobre la competitividad del sargazo molido como biomasa.
Con ayuda de estas mismas plataformas científicas, se identificaron para los años 2010-2020, los distintos tipos de técnicas empleadas para la purificación, enriquecimiento y limpieza de biogás.
CONCLUSIONES
El periodo de estancia virtual realizado con el Dr. José Aurelio, permitió la adquisición de conocimientos relacionados al manejo de herramientas bibliográficas digitales para la búsqueda de información real, y reciente sobre temas ambientales de interés nacional, así como la mejora del criterio de identificación de información útil para cada tema, y obtener provecho de las distintas investigaciones con la finalidad de enriquecer los estudios bibliográficos que están involucrados en investigaciones prácticas.
Lo identificado demuestra que el sargazo es un material competitivo en el mercado de biomasas, para la obtención de bioenergía, y es punto clave para resolver la problemática actual que vive el caribe.
Reyes Reyes Victor Antonio, Instituto Tecnológico de Iztapalapa III
Asesor:M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
ESTUDIOS HIDROLóGICOS A TRAVéS DE UN PROCESO ESTOCáSTICO DE LA CUENCA SAN PABLO
ESTUDIOS HIDROLóGICOS A TRAVéS DE UN PROCESO ESTOCáSTICO DE LA CUENCA SAN PABLO
Reyes Reyes Victor Antonio, Instituto Tecnológico de Iztapalapa III. Asesor: M.C. Omar Antonio de la Cruz Courtois, Universidad Autónoma de Chiapas
PLANTEAMIENTO DEL PROBLEMA
La cuenca San Pablo comparte ubicación con San Luis Potosí y Zacatecas, perteneciente a la región hidrológica No. 37, debido a la escasa información no cuenta con una imagen que detalle su ubicación y ciertas características de la región como el clima, flora y fauna entre otras. Cabe recalcar que uno de los mayores problemas que aqueja al campo de investigación es la desactualización de las estaciones climatológicas de la cuenca y la falta de registro de datos en varias de ellas, además de no tener una homogenización de las regiones, la obtención de la precipitación media de la tormenta Dean que impacto a San Luis Potosí y tener información acerca del año hidrológico comprendido de 1980 al 2000.
METODOLOGÍA
Promedio aritmético de la precipitación de la tormenta Dean.
Para comprender mejor como funcionan los procesos estocásticos de la precipitación media de la tormenta que impacto a San Luis Potosí es necesario ingresar a la página de la Comisión Nacional del Agua (CONAGUA), para poder obtener el resumen de la tormenta y después registrar la información de la página de Climatología de CONAGUA para registrar la climatología diaria de las siguientes estaciones: Coyotillos-24160, El Hospital-24189, Salinas de Hidalgo-24148, Peñón Blanco-24055, El Rusio-32015, Guadalupe Victoria-32024 y Villa Hidalgo-32061 para los días de la duración de la tormenta, correspondientes a el 13/08/2007 al 23/08/2007 y posteriormente obtener el promedio aritmético o la media de la precipitación de la tormenta Dean.
Regiones homogéneas para la cuenca San Pablo.
La prueba F de Fisher es necesaria para saber cuáles regiones son homogéneas dentro de la cuenca San Pablo y tenerlas en cuenta para futuras investigaciones, para ello es necesario registrar los valores acumulados de la Precipitación Máx 24 H de la página de CONAGUA que se puede encontrar en los valores mensuales; una vez registrados, se debe obtener la media, la desviación estándar y su coeficiente de variación.
Con los datos de Coeficiente de Variación ahora se obtiene los estadísticos F, para todas las probabilidades con una excedencia del 5% para la prueba F de Fisher, posteriormente determinar las regiones son homogéneas, la tabla parece una matriz en donde ciertos datos coinciden permitiendo determinar que las estaciones elegidas si son homogéneas.
Año hidrológico de la cuenca San Pablo (1980-2000).
Ciertamente se sabe cuando inicia el periodo de lluvias en México, sin embargo, no siempre es así, para las cuencas hay un criterio que permite saber que mes es el que empieza la temporada de lluvia o mayor precipitación se registra. Para ello se debe registrar los valores mensuales de la precipitación de los años respectivos de 1980-2000 y volver a obtener la media, pero esta vez en necesario calcular el coeficiente de correlación y la asimetría.
Se busca el coeficiente de correlación menor, escogiendo el mes siguiente para volver a calcular lo anterior y obtener el año hidrológico para la cuenca San Pablo.
CONCLUSIONES
Para concluir, en esta estancia del verano se reforzaron conceptos básicos de la hidrología además de estar realizando actividades para comprender como funciona la estadística en este ámbito de la ingeniería, sin embargo, es necesario hacer que las dependencias estén actualizando la información de las estaciones climatológicas para una amplia y mejor investigación para el beneficio social además de contar con mayor información acerca de la ubicación, su climatología entre otros para la cuenca San Pablo.
Ríos Segura Gustavo, Universidad Veracruzana
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PUNTOS DE LAGRANGE EN EL SISTEMA SOLAR
PUNTOS DE LAGRANGE EN EL SISTEMA SOLAR
Guzmán May Celia Alondra, Universidad Veracruzana. Ríos Segura Gustavo, Universidad Veracruzana. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
Los puntos de Lagrange son cinco posiciones en donde la fuerza gravitacional que ejercen dos cuerpos es nula; en estos puntos de equilibrio un objeto puede permanecer estacionario respecto a los dos cuerpos más grandes.
Los primeros tres puntos de Lagrange son inestables, esto es, si un cuerpo en cualquiera de estos sitios (L1, L2 y L3) sufre una mínima pertubación, el cuerpo escapará fácilmente. Los otros dos puntos (L4 y L5), por otra parte, son estables, por ejemplo, algunos asteroides han sido encontrados en los puntos Lagrangianos L4 y L5 de Júpiter y Marte. En Jupiter, a los asteroide se les llama Trojan asteroides, y estos se mueven alrededor de los puntos lagrangianos.
Existen diferentes formas de calcular estos puntos; podemos ocupar ecuaciones diferenciales, álgebra, lenguajes de programación y métodos numéricos.
METODOLOGÍA
Los cinco puntos de Lagrange que se encuentran ubicados alrededor de dos masas pueden ser calculados. En nuestro caso los calculamos con la relacion de Planeta-Sol y Luna-Planeta, y tomamos de base el potencial efectivo. Además, trabajamos bajo tres diferentes potenciales para calcular los puntos y comparar los cambios, estos potenciales son el Newtoniano, el de Manev y el de Schwarzschild.
Para la solucion de los puntos se utilizó el software de Wolfram Mathematica. Este software nos ayudó a obtener las soluciones de los difenters polinomios que nos arrojaban los distintos potenciales, así como la solución de una sistema de dos ecuaciones con dos incógnitas. Los datos obtenidos fueron puntos de Lagrange en un plano XY con los cuales se hicieron tablas y mapas que mostraban estos puntos para cada potencial y para cada sistema plateado.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre este tema, se realizaron cálculos y gráficas para poder endenter y comprenderlo de una mejor manera. Saber como cambian estos puntos con los diferentes potenciales nos ayudó a comprender como afectan las correcciones relativistas al potencial de Newton.
En los datos de las tablas realizadas se aprecia que si hay una diferencia para la mayoria de los puntos de Lagrange obtenidos, sin embargo, esta no es lo suficientemente grande para poder observarse bien en los mapas del sistema realizado.
Rivera Ramírez Adrián, Instituto Politécnico Nacional
Asesor:Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
SIMULADOR DE SECADORES MACROSCOPICOS Y MICROSCOPICOS EN MATLAB
SIMULADOR DE SECADORES MACROSCOPICOS Y MICROSCOPICOS EN MATLAB
Pelaez Hernandez Angel Daniel, Instituto Politécnico Nacional. Rivera Ramírez Adrián, Instituto Politécnico Nacional. Asesor: Dr. Luis Antonio Gama Moreno, Instituto Tecnológico de Tlajomulco
PLANTEAMIENTO DEL PROBLEMA
La reducción del peso y volumen mediante el proceso de deshidratación de un alimento es un factor importante para su estabilización en el proceso de secado, con esto se logra un mayor tiempo de almacenaje y una mejora en la distribución. La deshidratación, es uno de los métodos más antiguos de conservación de alimentos conocido por el hombre. El proceso involucra la remoción de la mayor parte del agua del alimento para evitar la actividad enzimática y el desarrollo de microorganismos. La deshidratación genera estabilidad microbiológica y química, disminuye el peso y volumen, reduce el empaque, costos de almacenamiento y transporte, además permite el almacenamiento del producto a temperatura ambiente por largos períodos de tiempo. La deshidratación extiende la vida útil de los alimentos obteniendo productos con mayor valor agregado. Esto permite disponer de frutas y hortalizas durante todo el año y evita la pérdida de los excedentes de producción y consumo. Asimismo, favorece los microemprendimientos familiares y las economías regionales. En el proceso se tiene que proteger el valor nutricional del alimento, su sabor, color, olor y textura. Uno de los principales problemas de la deshidratación, es que al final del proceso se obtenga un producto lo más similar posible al de su origen. Es muy común que durante la deshidratación se pierdan nutrientes del alimento dicha pérdida dependerá de las condiciones del proceso tales como son la temperatura la humedad la velocidad del viento la duración etcétera.
METODOLOGÍA
El objetivo principal del simulador es ver cómo cada una de las variables influyen a lo largo del proceso de secado. Viendo, así como con las condiciones necesarias conforme el tiempo avanza la humedad del producto va disminuyendo. En los primeros días se planteó como objetivo el aprender a codificar el lenguaje Delphi y así aprender como es la creación de una aplicación para Android o IOS. De igual forma para las bases de datos.
Una vez entendido lo anterior, se presentaron diversas fuentes de información para adquirir conocimientos sobre los procesos de secado, se analizaron y se estudiaron algunos métodos de secado y se comprendieron conocimientos básicos del tema.
Una vez que se entendieron los conocimientos, se entró a la parte del modelaje y de la recolección de datos para poder hacer el simulador. Se hicieron algunos análisis estadísticos (con ayuda de MINITAB) para poder ver algunas diferencias entre los procesos en Monocapa y Multicapa, haciendo pruebas de normalidad, gráficos, pruebas de valores atípicos, todo con la ayuda de pruebas de hipótesis.
Una vez hecho el análisis, se procedió a darles una interpretación clara y concisa a los datos que se proporcionaron. Después, se procedió a hacer una recolección de todas las fórmulas y métodos que se ocuparían en el simulador, entre los métodos mas destacados que se programaron para el simulador fueron:
Método de las diferencias finitas.
Método Runge-Kutta para la aproximación de ecuaciones diferenciales ordinarias.
Con todas las herramientas necesarias se empezó la codificación del simulador, este ultimo paso fue el que mas tiempo tomó realizar, sin embargo, se logró terminar de manera satisfactoria.
CONCLUSIONES
A lo largo de la estancia se obtuvieron conocimientos sobre el proceso de deshidratación de los alimentos y su importancia a nivel económico y para la sociedad, se vieron los elementos que se necesitan para poder tener una buena deshidratación sin perder las propiedades de los alimentos y sus nutrientes. Se estudiaron y comprendieron los métodos de secado (por aspersión y arrastre), todas las variables y métodos que estos implican. Todo con la finalidad de crear un simulador para poder estudiar el proceso de secado en ciertos intervalos de tiempo. Viendo asi como con las condiciones necesarias se puede lograr una reducción de la humedad sin perder las principales características del alimento. Esto ayudo a poder reforzar los conocimientos obtenidos tanto en la estancia como a lo largo de la carrera.
Robles Olivas Frida Sofía, Universidad Autónoma de Baja California
Asesor:Dr. Armstrong Altrin Sam John S. -, Universidad Nacional Autónoma de México
ESTUDIO DE GRANULOMETRíA DE MONTEPíO Y PUNTA ROCA PARTIDA, EN EL ESTADO DE VERACRUZ.
ESTUDIO DE GRANULOMETRíA DE MONTEPíO Y PUNTA ROCA PARTIDA, EN EL ESTADO DE VERACRUZ.
Elizarrarás Botello Miranda, Universidad Autónoma de Baja California. Robles Olivas Frida Sofía, Universidad Autónoma de Baja California. Asesor: Dr. Armstrong Altrin Sam John S. -, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El estudio de la clasificación del tamaño de partículas sedimentarias, así como el tipo de movimiento que presentan, son características que permiten inferir el transporte litoral, además de las fuentes de origen. A dicho estudio, se le conoce como Granulometría. El sedimento es clasificado dependiendo de su tamaño, en: gravas (>2 mm), arenas (2 mm a 62 micras), limos (62 a 4 micras) y arcillas (<4 micras), que adquiere durante su transporte desde la fuente originaria hasta el lugar de depósito. Cuando la partícula tiene que enfrentarse a un recorrido mayor, el fluido en movimiento aplicará una fuerza de erosión casi constante que resultará en una partícula pequeña, pulida y redonda. Por otra parte, si el recorrido no es tan extenso, la partícula no presentará tanta erosión, y su superficie será dominada por aristas pronunciados.
Con el fin de comprender la dinámica sedimentaria de Montepío y Punta Roca Partida en el estado de Veracruz, se analizaron 5 muestras sedimentarias, a través de análisis granulométricos y estadísticos. Dichos análisis proporcionaron información sobre el fluido de transporte, la distancia, caracterización del sedimento, y por tanto permite la diferenciación de los dos ambientes de depósito Montepío y Punta Roca Partida.
METODOLOGÍA
Teniendo en cuenta la importancia de los estudios granulométricos, se recolectaron distintas muestras situadas en San Andrés Tuxtla, Veracruz. Dichas muestras se resguardaron en bolsas Ziploc y se etiquetaron con las coordenadas, nombre del sitio y recolector. Para el análisis granulométrico de cada una de las cinco muestras de la zona 1, Montepío (S1, S2, S3, S5 y S11) y la zona 2, Punta Roca Partida (RS3, RS9, RS12, RS14 y RS15) en una balanza analítica se pesaron y separaron 35 gr. de cada una de las muestras. Después, los 35 gr. de muestra se colocaron en una serie de tamices (en orden decreciente) con tamaños de -1 a 3.75 phi, que se taparon con una charola de colecta de fracción menor a 4 phi. Cada muestra fue llevada al tamizador, donde se homogeneizó durante 10 minutos. Una vez transcurrido el tiempo, se recolectaron las fracciones separadas por cada uno de los tamices, y se pesaron las submuestras resultantes sobre los distintos tamices. A partir de esto, se calculó el peso en porcentaje y el percentil acumulado, con lo que fue posible conocer la distribución de tamaño de grano en cada una de las cinco estaciones de los dos sitios analizados. Además, fue posible comprender la dinámica física en las regiones costeras de Montepío y Punta Roca Partida, mismas que fueron comprobadas con el apoyo de bibliografía especializada.
CONCLUSIONES
De las dos regiones analizadas en el estado de Veracruz puede destacarse que las cinco muestras de Montepío presentan altos contenidos de arenas medias, de al menos 20% del sedimento total; sobre todo en las estaciones tres (S3) y cinco (S5); al igual que ocurre con las estaciones de Punta Roca Partida. El primer diagrama bivariante nos indica que para Montepío, los sedimentos de las estaciones uno (S1), cinco (S5) y once (S11), corresponden a procesos fluviales, mientras que las estaciones dos fueron transportadas por la aledañas al ambiente deposicional de la playa. A partir del diagrama bivariantes de energía publicado por Friedman (1967) y el diagrama resultante de los límites proporcionados por de Halls y Hoyt (1969) y de Moiola y Weiser (1968) se distinguió que todos los sedimentos de las cinco estaciones de Montepío pertenecen a la playa. Los diagramas bivariantes de transporte en Punta Roca Partida señalan que los sedimentos de las estaciones tres (RS3) y nueve (RS9) fueron transportados por procesos fluviales; los de la estación 15 (RS15) por procesos de playa y los 9 y 14 (RS9 y RS14) por la plataforma continental. Por otra parte, fue evidente que los sedimentos de Punta Roca Partida pertenecen en su mayoría a sedimentos de playa, a excepción de la estación 15 (RS15) que contiene sedimentos de posible procedencia dunar.
La localización de las estaciones y el tamaño de grano predominante en cada una, nos permitieron conocer parte de las dinámicas físicas predominantes de las dos zonas. Las corrientes superficiales frente a la zona de Tuxpam, desplazan el sedimento del sureste hacia el noroeste. Se menciona sin embargo que en las temporadas de suradas, los vientos veracruzanos y por lo tanto las corrientes superficiales (en consecuencia el efecto de coriolis) que se dirigen al norte, deflectan el agua hacia el mar abierto, generando así parte del fenómeno de surgencias y hundimientos costeros.
Rocha Alva Cristian de Jesús, Universidad Politécnica de Tecámac
Asesor:M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
ANáLISIS NUMéRICO DE LAS PROPIEDADES MECáNICAS DE UN CIGüEñAL EN FUNCIóN
ANáLISIS NUMéRICO DE LAS PROPIEDADES MECáNICAS DE UN CIGüEñAL EN FUNCIóN
Rocha Alva Cristian de Jesús, Universidad Politécnica de Tecámac. Asesor: M.C. Misael Flores Baez, Universidad Politécnica de Tecámac
PLANTEAMIENTO DEL PROBLEMA
Hasta ahora, durante el desarrollo del análisis de fatiga a cigüeñales en otros artículos ha sido enfocado a determinar las características químicas del material con que han sido fabricados, y a realizar estudios de microestructura cuando el cigüeñal ha llego a la zona plástica, siendo esto más cómodo para realizar el análisis en donde se puede medir la dureza y estudiar una parte diferencial de todo el cigüeñal. No descartar que los estudios mencionados sean esenciales para determinar la falla del elemento así como la vida útil, con lo que da la oportunidad de plasmar en este trabajo el análisis de fatiga visualizando el comportamiento del cigüeñal bajo condiciones de frontera aproximadamente apegados a la realidad en un estudio tridimensional
METODOLOGÍA
El presente trabajo se basa en la observación de desgaste que sufre el cigueñal al aplicarlos a cargas que sobrepasan la fractura establecida del material con el que se desarrolla el material
CONCLUSIONES
Conforme se valla desarrollando el proyecto se determinara bien cual seran las conclusiones
Rodríguez Alonzo Said Isaac, Universidad Autónoma de Ciudad Juárez
Asesor:Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa
SIMULACIÓN MONTE CARLO DE IONES EN SOLUCIÓN ACUOSA PARA EL ESTUDIO DE SU DISTRIBUCIÓN EN EL MEDIO
SIMULACIÓN MONTE CARLO DE IONES EN SOLUCIÓN ACUOSA PARA EL ESTUDIO DE SU DISTRIBUCIÓN EN EL MEDIO
Rodríguez Alonzo Said Isaac, Universidad Autónoma de Ciudad Juárez. Asesor: Dr. José Guadalupe Ibarra Armenta, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
Un sistema coloidal se compone de dos o más sustancias, un medio continuo que puede encontrar en estado líquido o gaseoso, y uno disperso que se encuentra en estado sólido (generalmente partículas). Se pretende entonces, emular este sistema mediante un programa computacional para estudiar las interacciones físicas que ocurren entre las partículas coloidales (iones) entre planos cargados, en una solución electrolítica. En concreto, se desea conocer la distribución de las posición de los constituyente en el medio cuando llegan estos al estado de equilibrio, la variación de la energía y el comportamiento del potencial eléctrico.
METODOLOGÍA
Se formuló un algoritmo en el lenguaje de programación C++, haciendo uso del método Monte Carlo para la evolución del sistema, mediante el movimiento aleatorio, siguiendo una distribución gaussiana; y se aplicó el modelo de imagen mínima para reducir el tiempo de cómputo, tomando una fracción del sistema total y aplicando condiciones de periodicidad. Se utilizaron las ecuaciones de la interacción de Coulomb y las expresiones de largo alcance de Boda (proporcionadas por el asesor) para el cálculo de la energía y el potencial difuso. Los datos obtenidos se guardaron en archivos de texto generados por el mismo programa, para su posterior análisis mediante el software de gráficos científicos "Origin"; estos datos se compararon con el trabajo realizado previamente por el asesor.
CONCLUSIONES
Con los archivos obtenidos, se pudo observar la posición final de los iones al haber llegado al equilibrio, viendo que estos siguieron el comportamiento esperado de acuerdo con la teoría. Asimismo, se observó buena concordancia con los datos proporcionados por el asesor; comprobando así, la funcionalidad del programa elaborado. Sin embargo, para el cálculo de la energía, no hubo la misma satisfacción; por lo que será necesario seguir trabjando en esta parte.
Rodríguez Beck Kort Gerardo, Universidad Autónoma de Coahuila
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
ESTIMACIóN DE LA MASA DEL HIGGS A TRAVéS DE SUS RELACIONES DE RAMIFICACIóN
ESTIMACIóN DE LA MASA DEL HIGGS A TRAVéS DE SUS RELACIONES DE RAMIFICACIóN
Rodríguez Beck Kort Gerardo, Universidad Autónoma de Coahuila. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
Desde hace ya algunas décadas, alrededor de 1960, los físicos François Englert y Peter Higgs predijeron de forma independiente la existencia de un nuevo bosón escalar (conocido ahora como bosón de Higgs) esencial para dar masa a las partículas fundamentales y bosones Gauge a través de un proceso de ruptura u ocultación de la simetría electrodébil. Esta era la pieza faltante para completar lo que hoy en día llamamos el modelo estándar de la física de partículas, una formulación lagrangiana basada en la teoría de campos cuánticos que modela la evolución temporal e interacción de las partículas fundamentales (o al menos que hasta el momento consideramos como fundamentales), pues gracias al mecanismo de ocultación de la simetría electrodébil sabemos cómo se genera la masa de las partículas fundamentales.
El 4 de julio de 2012 el Consejo Europeo para la Investigación Nuclear (CERN por sus siglas en francés) confirmó la existencia del Higgs, este descubrimiento, resultado de un gran esfuerzo internacional de décadas, es considerado (personalmente así lo consideró) un hito en la historia de la humanidad.
Desde 2012 se han medido con cada vez mayor precisión las propiedades del Higgs, en particular el valor numérico de la masa de las partículas fundamentales es algo que el modelo estándar no predice, sólo los experimentos pueden estimar este valor, sin embargo hay algunas alternativas teóricas que nos permiten estimar indirectamente la masa de las partículas, una ejemplo es a través de sus anchuras de decaimiento y razones de ramificación.
METODOLOGÍA
En el lagrangiano del modelo estándar podemos encontrar todas las posibles interacciones entre partículas fundamentales, con estos términos de interacción presentes en el lagrangiano podemos modelar proceso de dispersión entre partículas o procesos de decaimineto de una partícula inicial a dos o más partículas.
Para que una partícula inicial de masa mo pueda decer a otro par de partículas de la misma especie de masa m se debe cunplir que
mo > 2m
en otras palabras, la partícula inicial debe tener por lo menos el doble de la masa que las partículas a las que decae, esto bajo el argumento de conservación de la energía.
Si conocemos la masa de las partículas inicial y de sus posibles productos de decaimineto podemos determinar si la partícula puede o no decaer, como se mencioncó, en el lagrangiano del modelo estándar encontramos las posibles interacciones de decaimiento, es decir, nada nos esegura que la presencia de un término de interacción entre tras partículas implique un decaimiento que involucren a las tres partículas, pues se debe cumplir la condición entre sus masas antes mencionada.
Si calculamos entonces las tasas de decaimiento y razones de ramificación del Higgs, podemos estimar su maso, pues el valor de las masas de sus posibles productos de decaimiento ya se había medido con buena presicicón para 2012. Por tasas de decaimiento y raozones de ramificación entenedmos lo siguiente :
Tasa de decaimiento :
Una de las caracteristicas mas importantes de una partícula es su vida media, esta depende de algún modo de sus posibles canales (posibilidades) de decaimiento e interacción, la vida media de una partícula 𝜏 , es el inverso de la tasa de decaimiento Γ , esto es
𝜏 = 1 / Γ
con Γ la probabilidad por unidad de tiempo de que una partícula decaiga.
Razón de ramificación:
Es la fracción de tiempo en la que una partícula se desintegra a un estado final particular, se suele denotar como
BR( X - AB ) = Γ ( X - AB) / Γ (X)
donde
- BR( X - AB ) : razón de ramificación (branching ratio) para un decaimiento de una partícula X incial a dos partícual finales A y B
- Γ ( X - AB) : Tasa de decaimiento de una partícula X incial a dos partícual finales A y B
Γ (X) : Tasa de decaimiento total de una partícula X incial a todos sus posibles productos
Para calcular las tasa de decaimiento del Higgs debemos estudiar el lagrangiano del modelo estándar para saber todos los posibles canales de decaimiento, una vez hecho esto debemos proceder a modelar las interacciones ayudándonos de los llamados diagramas de Feynman que son producto de la teoría de campos cuánticos. Los canales de decaimiento del Higgs presentes en el modelo estándar son los siguientes
H - f,f* fermión, anti fermión
H - ZZ bosón Z
H - WW* bosones W+ y W-
H - gg par de gliones
H - 𝛄𝛄 par de fotones
dentro de H - f,f* tenemos 9 posibilidades, una por cada fermión del modelo estándar, sin embargo ya que la masa de estas partículas dicta qué tan fuertemente se acoplan (interaccionan) las mismas con el Higgs, las únicas contribuciones medibles son las del quark top y el leptón tau, la masa de los demás fermiones es muy pequeña. El decaimiento H - 𝛄𝛄 es un tanto peculiar, pues los fotones son los mediadores de la interacción electromagnética, en otras palabras solo interactúan directamente con partículas con carga eléctrica, el Higgs es una partícula neutra pero gracias a la presencia de los otros bosones de gauge el Higgs puede producir un par de fotones, de a través hecho este canal de decaimiento fue como se descubrió en CERN.
CONCLUSIONES
Hasta ahora hemos calculado las siguientes tasas de decaimiento utilizando el modelo estándar y diagramas de Feynman
H - f,f*
H - ZZ
H - WW* .
Hasta ahora las tasas de decaimiento calculadas coinciden bien con los resultados ya reportados, aunque el cálculo puede ser mejorado contemplando correcciones radiativas las cuales consisten en tomar en cuenta la probabilidad de que una partícula emita y absorba un fotón espontáneamente.
Actualmente se trabaja en calcular las tasa de decaimiento restante con el objetivo de obtener las razones de ramificación y estimar la masa del Higgs.
Rodríguez Escalante Carlos Alberto, Instituto Tecnológico de Tapachula
Asesor:Mtro. Alfredo Cuevas Sandoval, Universidad Autónoma de Guerrero
ESTUDIO DE LAS PROPIEDADES FíSICO-MECáNICAS DE PIEZAS DE MAMPOSTERíA ALIGERADAS CON ESFERAS DE POLIESTIRENO.
ESTUDIO DE LAS PROPIEDADES FíSICO-MECáNICAS DE PIEZAS DE MAMPOSTERíA ALIGERADAS CON ESFERAS DE POLIESTIRENO.
Rodríguez Escalante Carlos Alberto, Instituto Tecnológico de Tapachula. Asesor: Mtro. Alfredo Cuevas Sandoval, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Los elementos de mampostería se utilizan como cerramientos de edificios con o sin carga y como tabiques interiores. Hay varios materiales, formas y tamaños de unidades de mampostería en todo el mundo. Uno de estos tipos son las unidades de mampostería de hormigón (CMU). Aunque las unidades de mampostería de hormigón tienen muchas ventajas, los retos exigen a los materiales de fabricación a reducir su densidad y mejorar sus características térmicas y mejorar sus características térmicas. Estos retos dieron paso a la producción de bloques ligeros y materiales más eficientes térmicamente en la producción.
La búsqueda de los hormigones ligeros se debe principalmente a la reducción de costes resultante de las numerosas ventajas del material, como la reducción de la carga muerta, las secciones más pequeñas que requieren menos refuerzo y la facilidad de construcción.
En el presente estudio se propone la elaboración de tabicones huecos utilizando una sustitución de poliestireno, como sustitución de agregados pétreos. El objetivo es determinar los parámetros experimentales de resistencia a la compresión y peso volumétrico en los sistemas de tabicón elaborados a base de poliestireno, a fin de realizar un análisis comparativo entre el tabicón modificado y los ejemplares convencionales. Esas pruebas corresponden a los parámetros de control de calidad mínimos establecidos
METODOLOGÍA
1.- Introducción
2.- Materiales y métodos
2.1.- Diseño del espécimen
2.1.1. Poliestireno
2.1.2. Cementantes
2.2.- Métodos
2.2.1. Elaboración de la mezcla.
2.2.2. Muestreo
2.2.3. Peso volumétrico
2.2.4. Resistencia a compresión
3.- Resultados
3.1. datos
3.3. Peso volumétrico
3.4. Resistencia a compresión
4.- Conclusiones
Referencia
CONCLUSIONES
Se puede concluir que los especímenes reflejaron valores que están dentro de los parámetros de resistencia a la compresión establecidos por la norma NMX-C-441-ONNCCE y norma NMX-C-037-ONNCCE De acuerdo a las pruebas experimentales se demuestra que las piezas de mampostería aligeradas con esferas de poliestireno propuestos en este trabajo pueden tener uso exclusivo como elemento divisorio.
Rodriguez Espejo Gustavo, Universidad Veracruzana
Asesor:Dr. Daniel Martínez Carbajal, Tecnológico de Estudios Superiores del Oriente del Estado de México
LA TEORíA DE LA RELATIVIDAD GENERAL DE ALBERT EINSTEIN Y LAS OBSERVABLES FíSICAS
LA TEORíA DE LA RELATIVIDAD GENERAL DE ALBERT EINSTEIN Y LAS OBSERVABLES FíSICAS
Rodriguez Espejo Gustavo, Universidad Veracruzana. Asesor: Dr. Daniel Martínez Carbajal, Tecnológico de Estudios Superiores del Oriente del Estado de México
PLANTEAMIENTO DEL PROBLEMA
En 1865, Maxwell sentó las bases de la teoría electromagnética, la cual permitió ver de forma clara que la electricidad y el magnetismo son dos manifestaciones de un mismo fenómeno.
Si bien la electrodinámica podía explicar una gran cantidad de fenómenos electromagnéticos no cumplía con el Principio de Relatividad de Galileo, el cual implica que las leyes de la física deben ser las mismas en cualquier sistema inercial. Que las ecuaciones de Maxwell no siguieran este principio implicaba la existencia de un marco de referencia preferencial en el cual sería posible determinar si un sistema se encuentra en movimiento, o no. En 1887, los científicos Michelson y Morley se propusieron medir la velocidad de la tierra con respecto al éter. El experimento consistía en dividir un haz de luz con un interferómetro; cualquier cambio en la velocidad de la luz debería producir un patrón de interferencia.
Sin importar la orientación del aparato, la luz se movía con la misma velocidad en todas las direcciones.
En 1905, Albert Einstein propuso la teoría de la relatividad especial, con el propósito de resolver la incompatibilidad con el principio de relatividad. Se basa en dos postulados fundamentales: El principio de relatividad y la invarianza de la velocidad de la luz.
Einstein era consciente de que se trataba de una teoría incompleta, ya que no tomaba en cuenta a la gravedad, por lo que solo era aplicable para ciertos marcos de referencia, los cuales se movieran a una velocidad constante. En 1915 Einstein publicaría su Teoría de la relatividad general, donde se generalizaría a la relatividad especial al considerar la posibilidad de tener un espacio-tiempo curvo, y donde asocia a la gravitación con dicha curvatura.
La relatividad general de Einstein ha sido capaz de predecir y explicar múltiples fenómenos físicos como los cambios en la órbita de Mercurio, la curvatura de la luz al pasar cerca de objetos masivos, la existencia de ondas gravitacionales o la existencia de agujeros negros, de los cuales es posible obtener observaciones indirectas las cuales son denominadas sombras de agujeros negros, que se deben a fotones que siguen geodésicas circulares e inestables.
METODOLOGÍA
Gran parte de nuestro trabajo se centró en el desarrollo y entendimiento de las herramientas teóricas y matemáticas necesarias.
Uno de los aciertos de Einstein fue el percatarse que se posible escribir el electromagnetismo de Maxwell de forma covariante, es decir, de manera que sea cierta para cualquier transformación de coordenadas, y despues presentó su teoría de movimiento, igual de forma covariante. Para esto es necesario introducir el concepto de tensor, así como su álgebra y herramientas de cálculo tensorial.
Estudiamos la relatividad especial. Se introdujeron las transformaciones de Lorentz; se trabajaron los conceptos de contracción Lorentz, dilatación temporal, diagramas espacio-temporales, intervalo y su invariancia y 4-vectores.
Se inició con el estudio de tensores con propiedades de los vectores, por ejemplo, transformaciones generales de coordenadas, transformaciones de sus bases, el concepto de 1-formas, su transformación, el espacio dual y como transforma, el tensor métrico y algunas de sus propiedades.
Se trabajó con el Tensor de Faraday; con ayuda de éste fue posible escribir a la Fuerza de Lorentz de forma covariante. Utilizando el formalismo lagrangiano se obtuvieron las ecuaciones de Maxwell en el vacío. Además, se hizo un análisis de las propiedades del tensor de Faraday. Para finalizar, se realizó el análisis correspondiente para poder escribir las ecuaciones de Maxwell con fuentes de forma covariante.
Posteriormente se estudiaron los espacios con métrica no trivial (depende de las coordenadas). Se realizó el estudio de vectores y 1-formas en coordenadas curvilíneas, definiendo a los símbolos de Christoffel y la derivada covariante.
Se introdujo el concepto de variedades, con hincapié en variedades riemannianas. Se estudió el transporte paralelo tanto en un espacio plano como en uno curvo, lo cual nos llevó al estudio de las geodésicas.Mediante el análisis del transporte paralelo de un vector a lo largo de una determinada curva cerrada, se introdujo al tensor de Riemman, el cual guarda la información de la curvatura del espacio tiempo. Se estudiaron algunas propiedades de este tensor. Con esto, se introdujo el tensor de Ricci y el escalar de curvatura.
Se definió el tensor de Energía-momento, y con todos los tensores ya definidos se construyeron las ecuaciones de campo de Einstein. Por último, se estudiaron los vectores de Killing, y utilizando la ecuación geodésica, se realizó un análisis de las cantidades conservadas.
Finalmente se estudiaron los diferentes observables físicos de la teoría.
CONCLUSIONES
Al trabajar con el ansatz propuesto para un espacio-tiempo estático y esféricamente simétrico calculamos los símbolos de Christoffel, tensores de Riemann, Ricci, Einstein y escalar de curvatura. Observamos la cantidad inmensa de operaciones que se deben realizar para estudiar nuestra solución propuesta. Posteriormente se realizó el análisis correspondiente en el que obtuvimos la solución de agujero negro de Schwarzchild.
Analizamos la estructura causal de un agujero negro: cómo es que se modifican los conos de luz conforme uno se acerca al horizonte de sucesos y cómo es que serían pasándolos. Con esto, se observó una inversión de los ejes espacial y temporal, siendo esto la causa de que nada pueda escapar de él.
Las sombras de los agujeros negros es una medición indirecta de la existencia de estos, por lo que existe un gran interés de la comunidad científica por conocer la forma más general de esta sombra.
Una de las tantas aportaciones de Einstein fue el de expresar tanto a la teoría electromagnética de Maxwell como su teoría de la relatividad en forma covariante, es por esto, que considero que el estudio de tensores que realizamos en esta estancia de investigación es sumamente significativo.
Si bien no realizamos una investigación profunda ya que para esto se requiere más tiempo, se cimentaron las bases para incursionar en problemas de sombras de agujeros negros, así como de ondas gravitacionales y de soluciones cosmológicas.
Rodriguez Giraldo Lady Melissa, Institución Universitaria Colegio Mayor de Antioquia
Asesor:Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
CAMBIOS DE LA EVAPOTRANSPIRACIÓN ANTES Y DESPUÉS DE UN INCENDIO FORESTAL EN UN PASTIZAL SEMIÁRIDO
CAMBIOS DE LA EVAPOTRANSPIRACIÓN ANTES Y DESPUÉS DE UN INCENDIO FORESTAL EN UN PASTIZAL SEMIÁRIDO
Rodriguez Giraldo Lady Melissa, Institución Universitaria Colegio Mayor de Antioquia. Asesor: Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
Las regiones áridas y semiáridas ocupan aproximadamente el 40% de la superficie terrestre, donde los pastizales representan uno de los biomas más importantes ya que son sustento de actividades humanas relacionadas a la producción de alimentos. Los sistemas semiáridos se caracterizan por potenciales de evapotranspiración (ET) que suelen exceder en términos anuales, la precipitación. La ET es indispensable para estudios hidroclimáticos, además es un mecanismo importante en el balance de energía y agua de los ecosistemas (Poon & Kinoshita, 2018). El cambio climático juega un factor importante en la hidrología y bajo los escenarios actuales de cambio climático, se espera que los cambios en el aumento de temperatura y disminución de la precipitación sean mayores, estas alteraciones están acelerando los ciclos de los incendios forestales, desencadenando un cambio irregular en la ET (Poon & Kinoshita, 2018).
La evapotranspiración es la suma de dos procesos físicos que se presentan simultáneamente: 1) Evaporación donde se rigen en cuerpos de agua y coberturas del suelo; 2) Transpiración de la vegetación hacia la atmósfera, estos dos procesos se engloban bajo el término evapotranspiración (Calvo, 2019), es válido resaltar, que existen diferentes tipos de métodos para evaluar esta variable como lo son Método de Penman-Monteith FAO, Método de Hargreaves y Samani, Método de Turc, entre otros, donde influyen factores como la radiación solar, temperatura del aire, presión de vapor del aire, velocidad del viento y superficie (Ha et al., 2015). Por lo anterior, el objetivo fue evaluar la ET antes y después de un incendio forestal en el 2017 de un pastizal semiárido, para determinar los cabios anuales y estaciones de ET pre y post fuego.
METODOLOGÍA
La zona de estudio se encuentra en la cuenca de Río verde grande que se localiza al oeste del Estado de Jalisco (21°17’0’’ N, 101°55’0’’ O), localizada al noreste de Lagos de Moreno y suroeste de Ojuelos (figura 1). La precipitación anual promedio de la zona es de 454mm, con una temperatura promedio de 28 °C en verano y de 11.8 °C en invierno. La vegetación predominante matorral xerófilo en el que se han registrado zonas de matorrales rosetófilos, crasicaules, micrófilos inermes, magueyales (Agave asperrima), nopaleras (Opuntia spp.) y grandes extensiones de pastizal. Se utilizó el producto satelital MOD16A2 Versión 6 Evapotranspiración / Flujo de calor latente, con datos acumulados de 8 días, con una resolución de píxeles de 500 metros (m), la información de las imágenes se basa en un algoritmo de la ecuación de Penman-Monteith para la estimación de la ET. Con el fin de lograr la extracción de los datos se generó una malla de puntos equidistantes y se extrajo la información del archivo Raster de ET, permitiendo determinar la ET de manera directa en la zona del incendio forestal para el período de años comprendidos del 2013 al 2020, la descarga de imágenes satelitales se realizó teniendo en cuenta la temporada de sequías y lluvias, con el fin de evaluar la ET ante esos dos escenarios. Además, se realizó la correlación de la ET con los datos extraídos de las imágenes MODIS y los obtenidos por la torre de covarianza turbulenta ubicada en Ojuelos, para determinar la confiabilidad de este método.
CONCLUSIONES
La variación espacial de la ET sobre la fecha del incendio se evidencia una disminución más destacada de este flujo debido a la perdida vegetal, sin embargo, también se logra evidenciar una recuperación e incremento de la ET para los años posteriores del 2017, el fuego de los incendios es un elemento para regular el ciclo del carbono, después de los incendios el contenido de nutrientes aumenta en los primeros centímetros de la superficie, debido a las cenizas y mineralización de nutrientes, favoreciendo un crecimiento más rápido sano para esta zona de pastizales permitiendo una recuperación y facilita una mayor ET. Adicionalmente, las precipitaciones son un factor clave para la evapotranspiración y se demuestra en donde las épocas de lluvia incrementan esta ET gracias al ciclo hidrológico donde se retroalimentan de manera directa. Es importante implementar nuevas metodologías para los análisis como las técnicas de teleobservación y métodos tradicionales con el fin de verificar la información y obtener un resultado mucho más asertivo, con el fin de poder implementar nuevas estrategias y gestionar una mejor planificación de los recursos.
Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
ANáLISIS DE SEñALES DE RADIOFUENTES CAPTADAS POR EL
RADIOTELESCOPIO MEXART EN MéXICO
ANáLISIS DE SEñALES DE RADIOFUENTES CAPTADAS POR EL
RADIOTELESCOPIO MEXART EN MéXICO
Rodríguez Meléndez Luz Silvana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Estudiar objetos interestelares en radiofrecuencia permite conocer fenómenos asociados a dichas emisiones e incluso predecirlos, lo que es muy estudiado en fı́sica espacial y útil en telecomunicaciones. Y eso se puede lograr con radiotelescopios constituidos básicamente por una antena, cableado y un receptor.
México cuenta con el radiotelescopio MEXART, un arreglo plano de 64x64 dipolos, con una cobertura superficial de 9600 m2 diseñado para detectar radiofuentes a 140 MHz y que busca monitorear, junto con otros radiotelescopios en el mundo, el medio interplanetario, hacer observaciones de Centelleo Interplanetario (CIP), vigilar tormentas solares y hacer predicciones pertinentes del clima espacial que afectan a la Tierra.
El CIP es una variación aleatoria en la intensidad proveniente de una fuente debido a que la señal se propaga a través de un medio no perfecto como la ionósfera, el medio interplanetario y el medio interestelar.
Las mediciones realizadas por radiotelescopios están sujetas a factores ambientales que pueden afectar las observaciones. Los constantes cambios en la ionósfera que aumentan o disminuyen su transparencia ante las señales, emisiones de radio hechas por el hombre, el ruido instrumental y más, pueden interferir con las señales y con los datos obtenidos por las antenas. El error asociado al instrumento de medición y el factor humano, también impactarán en nuestros datos.
El objetivo principal del progama de fı́sica espacial, asesorado por el Dr. Ernesto Aguilar Rodrı́guez es comprender las bases del funcionamiento del MEXART y trabajar con datos generados por el mismo al captar las emisiones de diversas radiofuentes extragalácticas que, con la ayuda de la técnica del centelleo interplanetario, nos permiten determinar parámetros del viento solar (densidad y velocidad) y dar seguimiento a perturbaciones que viajan a través del medio interplanetario que pueden llegar a la Tierra. Datos generados diariamente en el MEXART, desde el 1 de enero hasta el dı́a 21 de junio del 2021 necesitan ser clasificados, estudiados y ajustados con el fin de identificar tendencias en los datos y minimizar el impacto
de errores.
METODOLOGÍA
Por segundo año consecutivo, la estancia de investigación del Verano Delfı́n se realiza de forma virtual, debido a la pandemia de COVID19. Es ası́ que, todo contacto con el invesigador y las actividades realizadas, se han hecho de manera virtual.
Para adentrarse en el programa, previo al inicio de la estancia, se organizaron seminarios semanales en forma de videoconferencia, donde se expusieron los temas relacionados a la fı́sica espacial e instrumentación. Al mismo tiempo, se comenzó a estudiar la bibliografı́a relacionada con emisiones de radio. Una vez iniciada la estancia, hubo que leer bibliografı́a relacionada al Centelleo Interplanetaro (CIP) y al lenguaje de programación para el análisis de datos, IDL.
A la par, se adaptó el equipo de cómputo, con la instalación y actualización del sistema operativo Linux Ubuntu y la programación necesaria para trabajar con bases de datos. Los datos obtenidos por el MEXART fueron almacenados desde el observatorio como archivos de texto y compartidos en una cuenta de MEGA, de forma que pudieran ser de fácil acceso para el estudiante. Al graficar dichos datos en forma tiempo vs intensidad esperamos obtener, en los mejores casos una curva muy parecida a una distrubución normal cuya forma es una firma de flujo producida por el tránsito de la fuente estudiada, a lo largo del haz de emisión de la antena; otras con algunos valores que llegan a salir de la tendencia y otros donde el ruido es tanto, que no se logra identificar ninguna firma.
Se descargaron, clasificaron y almacenaron los archivos de texto por fuente y fecha y se creó la carpeta con los programas necesarios para realizar el análisis correspondiente.
Se graficó cada archivo de datos correspondiente a cada observación y sobre él, se realizó un ajuste gaussiano. Se catalogó la calidad de la curva de tránsito, donde BUENA corresponde a una curva bien definida, REGULAR a curvas con algunas irregularidades por ruido, y MALA a gráficas en las que la curva no era distinguible debido al ruido.
Al realizar el ajuste sobre cada observación, se obtiene la amplitud de la curva del tránsito de la radiofuente, el ancho a media altura (FWHM por sus siglas en inglés) y el tiempo central y estos datos se almacenan en archivos de texto. A toda gráfica se le realizó dicho ajuste, incluso si esta no era muy clara.
A la par, se generó un nuevo programa capaz de analizar y graficar amplitud vs tiempo, FWHM vs tiempo y tiempo central versus tiempo, donde tiempo es el dı́a y hora en que la señal fue captada, con la finalidad de calcular la tendencia de los datos en cada radiofuente.
CONCLUSIONES
Al ser una base de datos extensa, aún no se han terminado los ajustes gaussianos de todas las fuentes. Sin embargo, con las fuentes que ya se ha finalizado, se ha iniciado el análisis que nos arroja las tendencias finales de los parámetros amplitud, FWHM y tiempo central. Estos primeros resultados nos permiten ver que fuentes con mediciones bien definidas (gráficos con poco ruido y curvas bien definidas) tienen una FWHM que tiende a ciertos valores y con amplitudes que tienen ciertos patrones al ser graficados. Aquellas radiofuentes con menor calidad en la medición han arrojado una FWHM que también tienden a ciertos valores y que tienen patrones, pero menos definidos. Esto puede deberse a una baja calidad de la las mediciones, pues es una fuente cuyos gráficos mostraron mucho ruido, curvas incompletas o curvas muy poco definidas.
Pero tener el análisis de todas las fuentes, ayudará a tener una conclusión más certera.En una bitácora se anotan los errores que algunos ajustes arrojan, con el fin de tomarlos en cuenta en la conclusión final. Se busca obtener el análisis de la totalidad de las fuentes y con ellas, poder dar una mejor conclusión sobre los resultados obtenidos respecto a la calidad de los datos de cada una de las fuentes trabajadas.
Rodríguez Murrieta Bryan Alexis, Universidad Autónoma de Sinaloa
Asesor:Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca
SIMULACIóN NUMéRICA DEL EFECTO SEGUNDO PICO EN LA MAGNETIZACIóN DE UN SUPERCONDUCTOR TIPO II A BASE DE HIERRO FE(SE,TE)
SIMULACIóN NUMéRICA DEL EFECTO SEGUNDO PICO EN LA MAGNETIZACIóN DE UN SUPERCONDUCTOR TIPO II A BASE DE HIERRO FE(SE,TE)
Rodríguez Murrieta Bryan Alexis, Universidad Autónoma de Sinaloa. Tirado Félix Eduardo, Universidad Autónoma de Sinaloa. Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca
PLANTEAMIENTO DEL PROBLEMA
El descubrimiento y desarrollo de nuevos materiales superconductores tipo II es un trabajo de investigación que ha sido de interés en estos últimos años, ya que en estos se han encontrado unas mejores propiedades termomagnéticas tales como una alta temperatura crítica y un segundo campo crítico elevado. Además se han encontrado muestras que contienen material magnético, como el hierro, que no se pensaba que podían presentar superconductividad. La dinámica del flujo magnético en un superconductor tipo II que contiene hierro en sus capas superconductoras es compleja debido al cambio de fase que presenta la red de vórtices, muy por debajo del segundo campo crítico, y a la pregunta abierta de cómo afectan su estructura y morfología particular a las propiedades del estado mixto. A su vez, estos materiales están regidos por el arrastre de flujo activado térmicamente (flux creep). Este tipo de materiales superconductores tipo II no convencionales presentan las mejoras en las propiedades termomagnéticas mencionadas con anterioridad y también una baja anisotropía comparada con la de los cupratos, lo que los hace unos buenos candidatos para el progreso de diagnósticos médicos, la computación cuántica y el transporte de energía. Por lo anterior, durante el verano de investigación se modela numéricamente el efecto de un campo magnético externo DC con diferentes tasas de incremento sobre los ciclos de magnetización de un superconductor tipo II. Específicamente estamos interesados en realizar experimentos numéricos de ciclos de magnetización que presentan un segundo pico, tales como los reportados en el estudio de la relajación magnética dinámica de un monocristal de FeSe0.5Te0.5 (Tc = 14.5 K) realizado por Galluzzi et al. doi.org/10.1063/5.0010324
METODOLOGÍA
El primer objetivo fue modelar el comportamiento de doble pico en la gráfica de densidad de corriente contra el campo magnético a una temperatura de 10 K y una tasa de incremento SR del campo magnético externo de 5×10-4 T. En trabajos teóricos previos se ha logrado reproducir el segundo pico en la densidad de corriente crítica Jc(B) agregando al modelo de Kim-Anderson una función Lorentziana o una función Sigmoide, por esto es que se utilizó como base la función Lorentziana. Para realizar el modelado nos apoyamos en el software científico MATLAB, pues permite un fácil manejo de los datos y la creación de gráficas es más sencilla.
El segundo objetivo fue simular numéricamente los ciclos de histéresis del mismo material a una temperatura de 6 K para 5 SR distintos, para esto fue necesario realizar otro modelo de Jc(B) pues las curvas de magnetización son diferentes al cambiar la temperatura. Se consideró una placa infinita superconductora tipo II isotrópica que ocupa la región |x| ≤ d/2, −∞< y,z <∞ y es sometida a un campo magnético externo Ha(t) = Ha(t)z con diferentes SR. Se emplean las ecuaciones de Ampere y Faraday con las condiciones de frontera μ0Ha = B(x = 0,d) y la ley material B = μ0H, dicha ley es válida cuando el anclaje de los vórtices en el bulto del material domina el proceso irreversible de la respuesta magnética, de tal forma que excluye la influencia de los efectos superficiales o barreras geométricas. Para tomar en cuenta la naturaleza superconductora del material, se requiere un modelo fenomenológico para el campo eléctrico inducido E y para Jc(B). Se emplea una relación constitutiva no lineal Ey = ρ(J,B)Jy.
Para este caso, los modelos para Jc utilizados en el primer objetivo resultaron no ser los más adecuados. Por lo anterior, se realizó una busqueda de funciones que presentaran el comportamiento deseado. Las propiedades en las que nos basamos son: Presentar un comportamiento asintótico cuando B es cero y cuando los valores de la misma sean grandes, obtener un efecto de segundo pico asimétrico suave y ser decreciente y cóncava hacia arriba para valores grandes de la B.
Una vez se obtuvo el modelo de Jc apropiado, tenemos que el conjunto de ecuaciones anteriores definen una ecuación diferencial parcial no lineal que está controlada por Jc(B), que fue resuelta numéricamente utilizando el solucionador de MATLAB ode15s para obtener los valores de B. Con esto se calcula la magnetización promedio para cada valor de B. Los ciclos de histéresis se calcularon con una amplitud máxima de 9 T.
CONCLUSIONES
Durante la estancia de verano se logró modelar el efecto de un campo magnético DC con diferentes SR sobre los ciclos de histéresis de un superconductor tipo II que contiene Fe en las capas superconductoras. El primer objetivo se logró mediante el ajuste de la Kim generalizada mas una Lorentziana, cuya expresión es:
Jc(B)/Jc0 =1/(1 +B/Bc2)n + a1/((B/Bc2−a2)2+a32) + (−a1/((1−a2)2+a32)−1/2n)•(B/Bc2)
con n = 90, a1 = 0.017, a2 = 0.07, a3 = 0.205 y Bc2 = 8 T. Para el segundo objetivo se notó que la densidad de corriente crítica obtenida en el primer objetivo no resultó ser la función más optima para modelar el comportamiento buscado, por lo que se intentó con varias distribuciones de las que se obtuvo que la LogNormal más la exponencial
Jc(B)/Jc0 = exp[−(B/B∗)m] + ( b3B∗/B)•exp[−(log(B/B∗) - b2)2/b12],
con b1 = 1, b2 = 4.3, b3 = 10, m = 0.15 y B∗ = 0.1 T, fue la más apropiada para replicar el comportamiento de doble pico y de concavidad de las curvas de histéresis, donde la presencia de la exponencial fue fundamental para replicar el comportamiento asintótico de los datos cerca del cero y a valores grandes del campo. De los ciclos de histéresis se obtuvo μ0∆M que es la diferencia entre los peaks y onsets (el mínimo antes del segundo pico y el valor del segundo pico, respectivamente) correspondientes al incremento y al decremento de los campos magnéticos para cada SR. Se hizo una gráfica semi-logaritmica de los puntos ((μ0∆M)SR,SR), y se pudo observar un comportamiento lineal que concuerda con el sugerido al de su análoga obtenida de los datos experimentales.
Por cuestiones de tiempo, quedó pendiente modelar el corrimiento de los peaks y los onsets, en función de SR, en los ciclos de magnetización para lograr una mejor comprensión de la dinámica de los vórtices en el material.
Rodríguez Rolón Miriam Lizbeth, Universidad de Guadalajara
Asesor:Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
UN ESTUDIO DE LA NEGACIóN EN LóGICA PARACONSISTENTES
UN ESTUDIO DE LA NEGACIóN EN LóGICA PARACONSISTENTES
Rodríguez Rolón Miriam Lizbeth, Universidad de Guadalajara. Asesor: Dr. Iván Martínez Ruiz, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
En lógica clásica la negación se suele entender, semánticamente, como una función que invierte el valor de verdad de una fórmula, haciendo falsa una fórmula verdadera y viceversa. Por otro lado, en lógica intuicionista, la negación de una fórmula corresponde a una fórmula cuyas pruebas formales son refutaciones de pruebas de la fórmula original. Incluso existen lógicas donde la negación no corresponde al complemento de lo negado, lo cual muestra que la negación de una fórmula puede tener distintos significados dependiendo de la lógica que se estudia.
Las lógicas paraconsistentes son sistemas lógicos que nos permiten trabajar con teorías inconsistentes que no son triviales. Una de las formas de hacerlo es restringiendo el principio de no contradicción, el cual es válido en lógica clásica (y en otras teorías formales), el cual establece que una proposición y su negación no pueden ser verdaderas al mismo tiempo. Lo anterior nos hace suponer que el significado de la negación y sus propiedades en lógicas paraconsistentes deben presentar alguna variante con respecto a la negación en lógica clásica.
En este trabajo presentamos algunos aspectos importantes que se deben considerar al estudiar el significado de la negación en lógicas paraconsistentes.
METODOLOGÍA
Se realizó un trabajo de investigación inicial para estudiar las propiedades básicas de las lógicas formales. En particular se estudiaron la sintaxis y la semántica del cálculo proposicional clásico. Se presentaron algunos de los resultados del cálculo proposicional clásico que justifican los métodos de demostración que hemos empleado a lo largo de nuestra formación académica. Entre estos resultados, se estudiaron propiedades importantes que involucran a la negación, identificando, por ejemplo, la equivalencia lógica de una fórmula y la doble negación de ésta.
Posteriormente, se investigaron otros ejemplos de lógicas no clásicas y algunas características de la negación lógica en cada una de ellas. Un aspecto importante fue estudiar el significado semántico de la negación en modelos algebraicos y modelos de Kripke.
Finalmente, se revisaron artículos de investigación publicados recientemente, los cuales presentan ejemplos de lógicas paraconsistentes que admiten una o más negaciones lógicas.
CONCLUSIONES
Durante la estancia se abordó la investigación de lógicas no clásicas, partiendo del uso de la lógica clásica, por ejemplo, en el caso de la negación es bien sabido que ésta vuelve falsa una fórmula verdadera y verdadera una fórmula falsa, sin embargo, en el caso de lógicas no clásicas una negación no nos puede afirmar un resultado en concreto ya que éste varia dependiendo de la lógica en la que se desarrolla el estudio de las secuencias lógicas.
Así mismo, partiendo de axiomas y premisas de la lógica clásica se llegó al estudio de lógicas no clásicas y, empleando el uso de los axiomas y premisas de estas lógicas fue posible realizar la prueba de los axiomas, resultados y métodos que usamos comúnmente en el desarrollo de resultados en la lógica clásica.
Además, en el transcurso de la estancia se probó que si tenemos fórmulas que son válidas bajo lógica intuicionista estas fórmulas también son válidas bajo modelos de Kripke y viceversa, llegando a que hay cierta equivalencia entre las premisas de la lógica de Kripke y la intuicionista.
Romero de la Peña Luis Eduardo, Instituto Politécnico Nacional
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
CONDICIONES DE SAKHAROV EN LEPTOGéNESIS
CONDICIONES DE SAKHAROV EN LEPTOGéNESIS
Romero de la Peña Luis Eduardo, Instituto Politécnico Nacional. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
¿Cómo puede la leptogénesis explicar el fenómeno de que la materia predomine la antimateria? ¿Y bajo qué condiciones?
METODOLOGÍA
A través de investigación en artículos científicos, diferentes tesis, algunos libros relacionados al tema y asesoramiento por parte del Dr. que elegí, logré adentrarme al tema para poder realizar la obtención de datos.
CONCLUSIONES
En conclusión, la leptogénesis puede darnos información necesaria para responder la incógnita de ¿por qué predomina la materia sobre la antimateria?
Los leptones pueden ser la respuesta, si se calcula la temperatura de estos, podemos observar algún cambio en el campo de Higgs involucrando las transiciones de fase, si la temperatura es muy alta, entonces el campo de Higgs valdría cero, por lo que sería imposible que alguna partícula de masa pudiera existir, así también un punto clave dentro de la leptogénesis es el proceso Sphaleron, que convierte leptones de antimateria en bariones de materia.
Para que la leptogénesis ocurra de forma válida, se deben cumplir las condiciones de Sakharov. La primer regla menciona de que se debe de violar el número bariónico, pero esta variación debe ser mínima con la intención de evitar que el protón sufra una desintegración; La segunda condición estipula que debe de haber una interacción que viole C y CP, en donde C es la conjugación de la carga, P es la paridad, por último se necesita una última simetría discreta T, llamada inversión temporal, sin embargo en este último se conservaría CPT, entonces se cambia al modelo CP ya que se puede ver que la violación CP conlleva una violación a la inversión temporal; Por último, debe de existir una interacción fuera del equilibrio térmico, ya que si las partículas dentro del Universo estuviesen en equilibrio térmico, no habría una dirección temporal, llevándonos a que si fuese así, no habría una violación CPT de la segunda condición, lo cual impediría el exceso de bariones.
Por lo cual también fue necesario conocer sobre lo que conlleva la bariogénesis.
Bariogénesis es el proceso ocurrido tras la creación del Universo que implementaron una asimetría en la producción de bariones y antibariones. De esta manera podemos determinar la asimetría bariónica realizando la resta de la densidad de bariones menos la densidad de antibariones y al resultado dividirlo entre la densidad de fotones.
Es importante resaltar que la bariogénesis tambien responde a la incógnita de ¿cómo lograr que en el universo primitivo, exista un exceso tan mínimo de los bariones sobre los antibariones?
Hay una solución aceptable por los físicos,la cual estipula que es posible que el exceso de bariones se hubiera generado dinámicamente únicamente por leyes físicas.
Ahora una vez entendido esa parte, surge un nuevo problema y es que hasta el momento solamente se ha podido estudiar la parte de la materia luminosa, sin embargo aún queda por estudiar la materia oscura, que físicamente no se ha logrado hasta el momento, únicamente se conoce de su existencia pero no hay una forma de trabajar con ella, por lo que en el Modelo Estandar hasta la fecha, no es posible avanzar en el estudio de la materia oscura, puesto que aún se siguen realizando trabajos de investigación con la esperanza de que en unos años, se pueda encontrar el experimento perfecto que apoye las teorías.
Romero Resendiz Diana Geraldine, Instituto Politécnico Nacional
Asesor:Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
REPARACIÓN DE FISURAS DE CONCRETO A PARTIR DE BIOPRECIPITACIÓN DE CARBONATO DE CALCIO POR MEDIO DE BACTERIAS
REPARACIÓN DE FISURAS DE CONCRETO A PARTIR DE BIOPRECIPITACIÓN DE CARBONATO DE CALCIO POR MEDIO DE BACTERIAS
Romero Resendiz Diana Geraldine, Instituto Politécnico Nacional. Asesor: Dr. Tezozomoc Pérez López, Universidad Autónoma de Campeche
PLANTEAMIENTO DEL PROBLEMA
El mantenimiento de las estructuras es primordial para evitar que las grietas se propaguen, o cedan el paso a humedades o agentes oxidantes. Los elementos de concreto reforzado pueden estar expuestos a lluvia, el agua podría fácilmente permear el concreto y llegar al acero, provocando posible corrosión de estos y por lo tanto pérdida de las propiedades mecánicas del acero. Una vez el acero pierda sus propiedades mecánicas a la tracción, se podría presentar una eventualidad de fallas de estos elementos. Ante este problema, se tienen que realizar reparaciones manuales a estas grietas. No obstante, estos mantenimientos son costosos. Entonces, surge la necesidad de un concreto especializado, que requiera menor acero de refuerzo y servicios de mantenimiento para disminuir sus costos directos de elaboración, así como indirectos de su vida utilizable. Ajustándose a esta necesidad se trabaja con un nuevo concreto, el bioconcreto. Este tipo de concreto funciona incorporando algunos tipos de bacterias que tienen la resistencia suficiente para sobrevivir aún en las duras condiciones del material. Estas bacterias se mantienen inactivas en cápsulas de plástico biodegradable cuando el concreto se encuentra seco y se activan cuando el material se agrieta y el agua se filtra a través de este, permitiendo que las bacterias se multipliquen y se alimenten, para finalmente segregar carbonato de calcio que reparará, las grietas existentes.
METODOLOGÍA
Diseño de mezcla
El proporcionamiento de mezclas de concreto, más comúnmente llamado diseño de mezclas es un proceso que consiste de pasos dependientes entre sí:
Selección de los ingredientes convenientes (cemento, agregados, agua y aditivos).
Determinación de sus cantidades relativas proporcionamiento para producir un, tan económico como sea posible, un concreto de trabajabilidad, resistencia a compresión y durabilidad apropiada.
¿Cómo se elabora el concreto auto reparable?
El bio concreto también conocido como concreto auto reparable, se elabora con una mezcla de concreto (cemento, agua y arena), incluyendo un grupo de cepas de bacterias previamente seleccionadas cuyo nombre Bacillus Pseudo y se le agrega un nutriente a base de calcio conocido como Lactato de Calcio que es el alimento de estos microorganismos. Estos agentes pueden permanecer dormidos dentro del hormigón hasta 200 años. (Cando constructora, 2017), (Fayerwayer, 2015)
Auto- reparación del concreto con bacterias
Este mecanismo de auto-reparación se basa en la utilización de una bacteria que mediante su proceso metabólico es capaz de inducir la precipitación de carbonato de calcio (CaCO3) para sellar micro-grietas. Para que se genere la producción de minerales tienen que cumplirse ciertas condiciones:
Debe haber una fase sobresaturada de iones disueltos en el medio.
Un sitio de nucleación desde el cual el mineral pueda crecer.
Se debe aplicar la energía necesaria para iniciar el proceso, el cual por lo general ocurre de manera espontánea (Konhauser, 2007).
Biomineralización del carbonato de calcio
Cuando precipita el carbonato de calcio durante la auto-recuperación por bacterias, uno de los productos que genera es el dióxido de carbono, el cual al reaccionar con el hidróxido de calcio producirá mayor cantidad de carbonato de calcio. Es por esto que la cantidad de hidróxido de calcio que tenga el tipo de cemento utilizado puede afectar el rendimiento del sellado de fisuras en el concreto.
Estudio del método de aplicación
A continuación se presenta una descripción del estudio de la Universidad de los Andes Facultad de Ingeniería- Departamento de Ingeniería Civil y Ambiental de Bogotá (Daza Sanchez, 2020)
En principio, se decidió que se haría la aplicación de la bacteria cuando el concreto obtuviera una resistencia mayor a 21 MPa. Se hizo dos grupos de dos cilindros, al primer grupo se le aplicaron bacterias por medio de rociado y al segundo grupo se les aplicó por medio de la jeringa. Todos los cilindros se dejaron en un cuarto a temperatura ambiente. Luego se encontró que había compuestos blancos en los cilindros a los que se les aplicó bacterias por medio de la jeringa. En contraste, a los cilindros con bacterias aplicadas por medio de rociado no se les noto muy pocos compuestos blancos. A partir de dichos resultados, se decidió aplicar las bacterias a las vigas por medio de jeringas. Asimismo, las vigas fueron curadas en ciclos de secado en húmedo. Una vez las vigas obtuvieron una resistencia a compresión se procedió a fisurarlas. Acto seguido, se buscó obtener fisuras. Luego, las vigas fueron puestas en un cuarto a temperatura ambiente. Allí se procedió a aplicar las bacterias mediante jeringas y cada 12 horas se aplicaba el respectivo alimento. Este proceso se repitió durante dos semanas.
Estudio de eficiencia de auto curado para una grieta dada
Paralelamente, previo a la aplicación del alimento se hacía un análisis visual en las grietas en busca de precipitación de carbonato de calcio. De esta manera, se logró tener un control sobre el crecimiento de las bacterias.
NOTA: Debido a la pandemia ejercida por el virus Covid-19 que se está presentando actualmente no es posible obtener resultados prácticos por lo cual nos basamos en resultados teóricos y ensayos que se obtuvieron en artículos científicos en relación con los concretos auto-reparables y concretos convencionales.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la calidad de las estructuras que se construyen en ingeniería civil depende de la mano de obra empleada en la construcción, el diseño del proyecto y la selección de los materiales. En el caso de los concretos estos materiales no cuentan con las especificaciones requeridas por la norma o criterios para ser evaluados, por esta razón se creó un nuevo material llamado Bio-Concreto o concreto Auto-Reparable el cuál es capaz de sellar sus propias fisuras para que las estructuras tengan un comportamiento adecuado.
REFERENCIAS
DAZA SANCHEZ (2020). ESTUDIO SOBRE EL RENDIMIENTO DE
BACTERIAS COMO AGENTE DE AUTO-REPARACIÓN EN EL CONCRETO (TÍTULO DE INGENIERO CIVIL). UNIVERSIDAD DE LOS ANDES FACULTAD DE INGENIERÍA DEPARTAMENTO DE INGENIERÍA CIVIL Y AMBIENTAL BOGOTÁ D.
Romero Zamora Isain, Instituto Tecnológico de Tláhuac
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE LADRILLO ECOLÓGICO TERMO-AISLANTE TIPO LEGO DE RESIDUOS SÓLIDOS DE CONSTRUCCIÓN Y DEMOLICIÓN
PROTOTIPO DE LADRILLO ECOLÓGICO TERMO-AISLANTE TIPO LEGO DE RESIDUOS SÓLIDOS DE CONSTRUCCIÓN Y DEMOLICIÓN
Romero Zamora Isain, Instituto Tecnológico de Tláhuac. Vigil Tapia Juan Jose, Instituto Tecnológico de Tláhuac. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En los últimos años ha crecido significativamente la construcción en la alcaldía de Xochimilco lo cual ha generado que los Residuos de Construcción y Demolición (RCD) se hayan convertido en un problema ambiental local, puesto que, debido a su cantidad y disposición inadecuada, se han configurado en focos de contaminación de suelos y aguas superficiales. Por lo que se ha tomado las medidas para una adecuada gestión integral de los residuos generados en obra con reincorporación de RCD en procesos constructivos, reúso o aprovechamiento de RCD como materias primas, procesamiento de RCD para ser convertidos en agregados minerales para concretos y asfaltos o aprovechamiento de RCD como llenantes minerales.
Y el aumento desmedido de la población año con año ocasiona que se reduzcan más los espacios para la construcción de viviendas y se elevan más lo precios de estas. Por lo que se busca generar un eco ladrillo resistente, económico, versátil y amigable con el medio ambiente. Al ser fabricado con sólidos de construcción y demolición se le dará una nueva función o utilidad a esta parte que comúnmente es desechada.
Por eso se tomó la decisión de proponer un prototipo de ladrillo ecológico termo-aislantes tipo lego, de residuos sólidos de construcción y demolición
Esperándose que este ladrillo cumpla con las NMX-C-037-ONNCCE-2013 y NMX-C-441-ONNCCE-2011.A la vez con
las demandas de la arquitectura actual de nuestro país que consiste en utilizar las nuevas
tecnologías y las adaptarlas a las necesidades, espacio y la cultura.
METODOLOGÍA
El cambio climático, los fenómenos meteorológicos adversos, el agotamiento de los recursos naturales o la preocupación por el futuro del planeta y el medio ambiente son solo algunos de los motivos por los cuales la construcción sustentable ha ganado protagonismo en los últimos años en nuestras sociedades.
En México, durante las últimas décadas y especialmente en los últimos años, la arquitectura sustentable se ha hecho un hueco en el sector de la construcción. Y es que, cada vez más, los ciudadanos son conscientes de los beneficios de este tipo de arquitectura.
Este tipo de construcción, también conocida como arquitectura sostenible tiene en cuenta el medio ambiente, el proceso constructivo, los materiales usados y el impacto de las edificaciones en la naturaleza, el paisaje y la sociedad. Asimismo, la arquitectura sustentable quiere fomentar la eficiencia energética, es decir, reducir el uso de energía de las edificaciones a través de diversos métodos.
Por lo que la industria de la construcción es una de las mayores generadoras de residuos en la actualidad, sin embargo, históricamente ha sido un pilar necesario para el desarrollo de nuestras comunidades. Por lo general, la contaminación se presenta en la mayoría de sus procesos: desde la extracción, la fabricación de los materiales, hasta las diferentes actividades desarrolladas en la construcción de las obras civiles. Lo anterior provoca el agotamiento de varios recursos no renovables, así como la contaminación del agua y del aire, además del excesivo consumo de energía. Grandes cantidades de residuos o escombros producto de la industria de la construcción son dispuestos en lugares inadecuados o son mal utilizados, como relleno en sitios que a futuro servirán como zonas de construcción de nuevas edificaciones, un ejemplo de ello son los tiraderos de escombros en las zonas no urbanizadas del municipio de Chalco Covarrubias los cuales son los más cercanos a la alcaldía de Xochimilco y que con el tiempo se van transformando estos espacios en terrenos inestables y muy difíciles de ser aprovechados. La industria de la construcción va en progresivo crecimiento convirtiéndose así en el sector con mayor producción de RCD.
Los ladrillos tipo lego son elaborados mediante una mezcla de suelo, materiales puzolánicos y otras materias primas que no son obtenidas por minería extractiva, que, después de ser mezclados, pasan por un proceso de moldeo a alta presión con lo que se obtiene un producto de alta resistencia a la compresión y absorción de agua, dimensionalmente estable, entre otros, cumpliendo con la norma técnica, excelente estética y amplia gama de colores
En la actualidad, debido a los avances tecnológicos en la industria de la construcción, el ladrillo tradicional está siendo reemplazado por materiales elaborados a base de concreto que cuentan con mejores propiedades, como resistencia y durabilidad. Frente a este problema se han realizado investigaciones de nuevos e innovadores materiales que mejoren sus propiedades mecánicas, protejan al medio ambiente y generen un desarrollo sostenible, de esta manera se obtendrá un material a la altura de otros que se encuentran en el mercado.
CONCLUSIONES
Mediante la teoría se analizó la utilización de residuos sólidos de construcción y demolición, para ser aprovechas en la creación de un prototipo de ladrillo sustentable y que sea fácil de colocar.
Por lo tal el aprovechamiento de los residuos de construcción y demolición (RCD) para la generación de nuevos materiales, su implementación y la necesidad de un cambio cultural progresivo de la industria de la construcción local es de suma importancia ya que el panorama para el manejo adecuado de los RCD de una de las ciudades más importantes de México, CDMX no es favorable a mediano plazo y elabora un modelo de gestión ajustado a sus condiciones y características que requiera una ciudad con alta demanda RCD es de suma importancia para no transformar espacios en terrenos inestables y muy difíciles de ser aprovechados.
Ruiz Bravo Luis Angel, Instituto Politécnico Nacional
Asesor:Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
CIENCIA DE DATOS APLICADO A FINANZAS
CIENCIA DE DATOS APLICADO A FINANZAS
Ruiz Bravo Luis Angel, Instituto Politécnico Nacional. Asesor: Dr. Juan José Tapia Armenta, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
Planteamiento: después de una extensiva búsqueda sobre la ciencia de datos y su relación con la finanzas, las cuales son muy necesarias para el mundo en que vivimos, se busco un uso necesario de aplicación, las cuales resultaron ser las acciones en la bolsa de valores mexicana, conforme a las empresas las cuales cotizan en esta, no es siempre seguro invertir en cualquier empresa sin antes investigarlas, así que se pensó ¿Cuándo los reportes financieros anuales salen, tiene que ver con el precio de sus acciones?, Es decir, ¿Cuándo el reporte financiero sale positivo y mejorando año tras años, sus acciones también aumentan ese momento? O viceversa. Ya que aunque podría ser mejor los trimestres a primera, cuando uno no tiene mucha idea, pueden ser confusos, pero los reportes anuales son mas precisos y llenos de información.
METODOLOGÍA
Metodología: Aplicando el lenguaje de programación Python, se procesaron los reportes anuales del 2016 al 2020 de 6 empresas que cotizan en la BMV y que pertenecen al IPC (índice de precios al consumo) los cuales se prefirió así por que se están mas reguladas y tienen un gran peso en la bolsa.
Con ayuda del sitio web yahoo finance y los sitios web de las empresas que son Bimbo, Cemex, Elektra, GCC, Megacable y televisa; se obtuvieron los siguientes conceptos de los reportes financieros:
Activo circulante
Pasivo circulante
Inventarios
Cuentas por cobrar
Costos de ventas
Cuentas por pagar
Utilidad neta
Capital social
Capital contable
Pasivo total
Activo total
Pasivo a largo plazo
Activos netos
De los cuales se hicieron las siguientes razones:
Razón circulante
Razón de liquidez
Razón de pago inmediato
Rotación de cartera
Plazo promedio de pagos
Plazo promedio de cartera
Rotación de Inventarios
Plazo promedio de los inventarios
Margen de utilidad sobre ventas
Rendimiento sobre capital social
Rendimiento sobre el patrimonio
Rendimiento sobre inversión
Razón de endeudamiento
Apalancamiento
Deuda a largo plazo
Rotación de activos totales
Rotación del capital contable
Los cuales se obtienen de hacer ciertas operaciones con los conceptos anteriormente mencionado, para luego poder hacer el análisis financiero de la salud de las empresas y asi observar el cambio que tuvieron las acciones en el momento en el que sale el reporte anual (el cual es aproximadamente 30 de abril de cada año)
CONCLUSIONES
Conclusiones:
Como se mencionó en la metodología, se analizaron 6 empresas, las cuales son bimbo, Cemex, Elektra, GCC, Megacable y Televisa. Luego de analizar los resultados de manera gráfica mediante programación en Python, podemos decir que en general, si se puede ver una conducta alcista o bajista después del reporte anual, sin embargo, no se nota un cambio severo a partir de este que era el objetivo del estudio, el más drástico podría ser Elektra, que siempre tuvo una conducta alcista (al largo plazo) casi independientemente de la salud de la empresa, sin embargo en las razones financieras favorecieron un poco a las acciones porque al observar cuando era el día aproximado del reporte anual, había un repunte en las acciones.
Ahora, por empresa:
Bimbo: Los estados financieros no fueron muy cambiantes, entonces aparentemente, se puede ver que en las acciones de cuando los estados cambiaban unos cuantos millones, realmente no afectaban drásticamente a las acciones, es decir, si salían solo un poco mejor o peor al siguiente año, se quedaba estático el precio de la acción, sin embargo para el trading no sería una opción atrayente ya que aunque es aparentemente poco el riesgo que representaría invertir en Bimbo, la falta de volatilidad no lo hace atractivo
Cemex: al parecido con la anterior tampoco las razones fueron tan cambiantes, excepto lo que es el margen de utilidad y los apalancamientos, lo cual le daba más volatilidad, después de cada reporte se aumentaba la volatilidad de Cemex, pero es inconcluyente ya que a pesar de estos cambios no tiene mucha relación con el reporte anual ya que no había una denotación, podría darse por un factor externo no estudiado aquí, aunque es atractivo para los inversionistas por su alta volatilidad.
Elektra: como se mencionó previamente, Elektra siempre tuvo una conducta alcista exceptuando en el reporte del 2016 ya que se observa una caída pequeña antes de que saliera este, pero se ven puntas siempre que salen los reportes normalmente o se reafirma estos y esto se visibiliza con las razones, ya que al menos en margen de utilidad siempre es positiva y de una gran avance excepto en el del 2020 que aparece negativo solo deteniendo un poco la conducta que se a estado siguiendo, obviamente es atractivo aun incluso estando en un máximo prácticamente siempre.
GCC: Al igual que Elektra, GCC siempre ha tenido una conducta alcista, sin embargo, a los momentos un poco después de salir sus reportes anuales, logrando lo pensado para este estudio, su salud financiera es muy sólida y podría decirse que es una buena inversión, aunque sus acciones no sean tan volátiles.
Megacable: La salud de Megacable es firme, aunque parce que funciona un poco al revés interesantemente, al observar del 2018 al 2019. En los reportes de 2017 al 2018 hubo un aumento en las utilidades y la rotación de activos, sin embargo esto parecido negativo en las acciones que tuvieron una caída precisamente en esos cambios, aunque todos los demás años funciona como el resto de empresas en los momentos de mejoras, se deberá suponer que algún factor externo hizo ese cambio, aunque en lo general se cumple con el objetivo, es algo atractivo para los accionistas.
Televisa: Esta empresa nos da indicios nuevamente del objetivo del estudio, sobre todo en el 2017 y 2018 ya que en estos años sus utilidades subieron, poco pero subieron, y también se nota que del reporte del 2018 al 2019 hay una baja en las utilidades y hubo una baja en las acciones, así que podríamos decir que si afecta un poco o mucho los reportes a televisa
Ruiz Cisneros Sara Jaqueline, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Alfredo Aranda Fernández, Universidad de Colima
OSCILACIóN DE NEUTRINOS
OSCILACIóN DE NEUTRINOS
Ruiz Cisneros Sara Jaqueline, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Alfredo Aranda Fernández, Universidad de Colima
PLANTEAMIENTO DEL PROBLEMA
En física de partículas, el neutrino se identifica como una partícula elemental de tipo fermiónico, sin carga y con espín ½. Se conocen tres tipos de neutrinos definidos con un sabor específico, electrónico, muónico y tauónico. Estudios experimentales han dado a conocer que, debido al fenómeno de oscilación de neutrinos, estos pueden tener transformaciones entre los tres tipos de neutrinos existentes y encontrarse con un sabor diferente en el detector después de que viajan lejos de una fuente que pueden ser producidos en procesos con interacciones de corriente
cargada débil.
En el lenguaje de la física cuántica, los estados que representan los tres tipos de sabor se definen como una combinación lineal de los estados propios de la masa 𝛎1, 𝛎2, 𝛎3 de los neutrinos. Esto se debe a que, físicamente, los neutrinos en estos estados propios de masa se propagan a distintas velocidades dando lugar a que los neutrinos tienen masa, pero además es distinta para cada tipo de ellos. Esto lleva al estudio de probabilidades de encontrar a un neutrino con otro sabor al llegar al detector luego de sus oscilaciones. Así, durante el verano de investigación se presenta el análisis de oscilaciones de tres neutrinos en función de la relación L ⁄ E, donde L es la distancia recorrida y E es la energía del neutrino empleando algunos datos experimentales extraídos del Particle Data Group de Daya Bay, RENO y Double Chooz.
METODOLOGÍA
Se tiene la oscilación de neutrinos considerando los tres eigenestados de sabor. El sistema debe ser tratado como un estado de sabor de un neutrino de la combinación lineal de los eigenestados de masa 𝛎1, 𝛎2, 𝛎3 correspondiente al estado 𝛎e. La base de los sabores puede ser relacionados a la base de masa por medio de la matriz de mezcla unitaria U (Pontecorvo, Maki, Nakagawa, Sakata).
Con esto, se obtuvo la amplitud de probabilidad de que el neutrino α, al tiempo t se encuentre en el estado β.
Para ello, primero se ha hecho la implicación de que los eigenestados de masa de una partícula libre son soluciones de la ecuación de onda, considerando que estas evolucionan en el tiempo y se propagan como una onda plana. Entonces, inicialmente se tiene que la función de onda en t = 0 representa el estado de sabor de un neutrino con un sabor definido y esta se va transformando de acuerdo con la evolución temporal del eigenestado de masa.
Otra implicación realizada es que debido a que los neutrinos tienen una masa muy pequeña, pero momento de gran magnitud (debido a las grandes velocidades que alcanzan), entonces se consideran como partículas ultra relativistas, esto es:
v= L/t
Donde se tiene que la velocidad de los neutrinos se aproxima como v ≈ c; por lo que se emplea una buena aproximación t ≈ L
Debido a esa implicación, es que en los experimentos de oscilación de neutrinos el tiempo de propagación no se considera, lo que se emplea es la distancia L entre la fuente y el detector.
Otra consideración en la oscilación de tres neutrinos es la no violación de la simetría CP, de esta manera para la probabilidad de cambio de sabor de un neutrino se emplea solo la parte real obtenida.
Así, el fenómeno de oscilación depende de los parámetros de mezcla en la matriz U del sistema. Uno de los parámetros son las diferencias de masa al cuadrado, la fase que es responsable de la oscilación. Además, se tienen tres parámetros de ángulo que hacen referencia a rotaciones.
Una vez obtenido el cálculo de la probabilidad de cambio de sabor para tres neutrinos, se trazaron gráficas, para el caso en específico de neutrinos solares, esto en función del cociente L/E, considerando distancias muy grandes. Los valores empleados son consistentes con las mediciones realizadas de estos parámetros en experimentos ya conocidos, sin embargo, algunos de estos valores todavía tienen incerteza y hasta son desconocidos, por lo que las gráficas tienen una aproximación con los valores que han podido medirse a la actualidad.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos sobre la oscilación de los neutrinos. Tal es el caso de la comprobación de la masa no nula de los neutrinos.
Además, una observación de estas graficas es que dada las diferencias de masa entre los sabores de neutrinos muy pequeñas en comparación con las longitudes de coherencias largas para las oscilaciones de neutrinos, este efecto cuántico microscópico se vuelve observable a distancias macroscópicas y vuelve a comprobar que los neutrinos tienen masa. Además, esto muestra la existencia de tres tipos de neutrinos, de no serlo, se observaría un solo tipo de neutrino con cierta masa y propagándose a una sola velocidad todo el tiempo y no habría cambio en el número de neutrinos detectados a los que inicialmente se dispersaron.
Sin embargo, la oscilación de neutrinos es un tema amplio de estudio, incluso hay valores de parámetros todavía no conocidos por lo que es muy interesante poder seguir estudiándolos y profundizar estos conocimientos en la física de los neutrinos pues no cabe duda de que estas partículas tienen mucha información que puede venir a desarrollar un modelo teórico más sólido de partículas elementales más allá del actualmente conocido modelo estándar.
Ruiz Lopez Gerardo, Instituto Tecnológico de Tláhuac
Asesor:Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
APLICACIóN DEL BAMBú COMO MATERIAL ALTERNATIVO EN LA CONSTRUCCIóN DE CABAñAS TURíSTICAS EN EL ESTADO DE VERACRUZ ,MéXICO.
APLICACIóN DEL BAMBú COMO MATERIAL ALTERNATIVO EN LA CONSTRUCCIóN DE CABAñAS TURíSTICAS EN EL ESTADO DE VERACRUZ ,MéXICO.
Ruiz Lopez Gerardo, Instituto Tecnológico de Tláhuac. Asesor: Mtro. Cesar Monroy Mondragón, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
Bambú: el acero vegetal, un material sostenible cuya utilización sigue siendo muy poco frecuente en nuestro país. Existen muchas variedades de bambú, pero desde luego que las piezas bien seleccionadas y tratadas convenientemente pueden utilizarse para todas las partes de una estructura en general como: columnas, vigas, cerchas compuestas, cimentación, bajo cubierta, etc.
En México, actualmente, desde el punto de vista comercial la producción de bambú puede considerarse inexistente y en consecuencia la presencia del país en el mercado mundial de este recurso y sus derivados es prácticamente nula. Varias especies de bambú son nativas en el territorio nacional, pero su presencia ha sido reducida al mínimo; solo quedan algunos manchones silvestres de vegetación en zonas muy aisladas y su utilización es mínima; se carece de los conocimientos acerca de los procedimientos mas elementales para asegurar su propagación, conservación y el empleo eficaz de los materiales.
Cabe resaltar que a nivel mundial se utilizan 1,789 millones de toneladas de acero, en México 16.8 millones de toneladas, Veracruz ocupando el cuarto lugar con 1.54millones de toneladas.
Es de total relevancia implementar el bambú en la construcción de casa habitación o elementos estructurales básicos en la construcción al sur de Veracruz por su cercanía con esta materia prima y sus propiedades naturales, económicas de la región, ya que es un elemento muy nativo y de fácil propagación e implementación de este mismo.
Es un material abundante en México, accesible, económico e increíblemente práctico y funcional, así que es normal que sea usado en cabañas, casas humildes y construcciones temporales en los países de origen. Hoy en día hay cada vez un mayor número de ejemplos e iniciativas que nos permiten verlo en aplicaciones técnicas y estructuras complejas, de modo que va ocupando su lugar en la tecnología actual y dejando atrás ese aire tropical o precario.
Elegimos al bambú como material principal por tratarse de un material natural de origen biológico, podrían presentarse problemas de durabilidad, pero las cañas pueden tratarse con eficaces tratamientos de preservación ya en origen. Y, cuando se instalan, debe considerarse una apropiada protección por diseño, que básicamente pasa por evitar el contacto directo con fuentes constantes de humedad y la exposición directa de la radiación solar.
METODOLOGÍA
La investigación aplicada es no experimental, ya que se desarrolla por información, datos y caracteres previos, que fueron investigados y analizados en diferentes fuentes de información consultadas.
El bambú ha sido utilizado por diferentes culturas desde hace miles de años, es una de las plantas que crecen más rápido, actualmente hay aproximadamente 18 millones de hectáreas de bambú en el mundo. Gracias a su vida útil puede sustituir materiales altamente contaminantes como el acero y el cemento, cuya producción es uno de los procesos mas contaminantes dentro de la industria, siendo una desventaja en zonas cálidas cuya temperatura puede sobrepasar los 40 ° grados centígrados. En cambio, el bambú es un material bioclimático que ayuda a reducir la temperatura dentro de las estructuras en las que es empleado, cabe destacar que también es un excelente captador de carbono, ayudando a mitigar los efectos del calentamiento global y el cambio climático.
Si comparamos los valores máximos de resistencia de la Guanda (variedad que se da en el estado de Veracruz muy usada en la construcción) con una madera C24 vemos que sus valores no tienen nada que envidiarle a maderables comunes y las posibilidades estructurales son muy interesantes.
NSR-10: Reglamento Colombiano de construcción sismo resistente.
Actualmente se cuenta con normas como la: ISO 22157:2019 Bamboo structures — Determination of physical and mechanical properties of bamboo culms o la ISO 22156:2004 Bamboo - Structural design.
Afortunadamente en México en el estado de Veracruz se ubica el género de bambú Guadua el cual llega a medir 25m de alto y tener un diámetro de 25 cm el cual ha sido utilizado tradicionalmente en la construcción de viviendas rurales.
Debido a la problemática económica que vive la población del estado de Veracruz se busca ser una alternativa viable, para el desarrollo de cabañas ecoturísticas de los pueblos que tienen poco recurso económico para su población turística.
CONCLUSIONES
El bambú, por sus múltiples usos, su rápido crecimiento, su adaptación a diferentes condiciones ecológicas y el grado de protección que ofrece al suelo se ha tomado como una alternativa importante para los proyectos de construcción, así retomando materiales ecológicos y ancestrales hacia un mundo eco sustentable y dando presencia de nuestro país al mercado turístico, así dando a conocer a la población el uso de un gran material como lo es el bambú: acero vegetal.
Ruiz Mondragón José Pablo, Instituto Politécnico Nacional
Asesor:Dr. David Israel Bravo Barcenas, Universidad de Guadalajara
DISEñO Y FABRICACIóN DE SISTEMAS DE ALEACIONES CON PROPIEDADES BIOMéDICAS
DISEñO Y FABRICACIóN DE SISTEMAS DE ALEACIONES CON PROPIEDADES BIOMéDICAS
Ramírez Peralta María Fernanda, Instituto Politécnico Nacional. Ruiz Mondragón José Pablo, Instituto Politécnico Nacional. Asesor: Dr. David Israel Bravo Barcenas, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Las patologías traumáticas actualmente, son una de las cinco principales causas de muerte en la población mundial. La Organización Mundial de la Salud estima que las patologías traumáticas corresponden a un 12% de años de vida perdidos por discapacidad, además, el envejecimiento, ha obligado al ser humano a mejores protesis.
La evolución de las prótesis ha sido larga, comenzando desde las primeras extremidades artificiales de madera, hasta la actualidad. A estos metales actualmente se les da el nombre de biomateriales, su propósito es el de interactuar con el medio biológico, un ejemplo es el titanio, el cual con sus aleaciones posee características favorables de osteointegración, biocompatibilidad, etc., para la fabricación de prótesis.
Es así como la aleación Ti-6Al-4V ha sido usada para solucionar problemas traumáticos, pero se ha demostrado que después de un lapso, en el tejido cercano a la zona del biomaterial existen altas concentraciones de partículas de vanadio, las cuales son toxicas y tienen efectos carcinogénicos. Por lo tanto, se ha buscado el diseño de aleaciones tipo β con elementos de aleación como Nb, Ta y Zr, objetivo en común con este proyecto, ya que se ha demostrado en estudios in vitro que estas aleaciones no causan efectos tóxicos en el tejido.
METODOLOGÍA
El presente trabajo está basado en el analisis de dos series de aleaciones. La primera es el sistema Ti-30ZrxTa con adiciones de 1 a 5% at. de Ta. El segundo sistema TIZrNbxTa con adiciones de 2.6, 4, 6 y 8% at. de Ta. Estas muestras se procesaron mediante fundición por arco eléctrico, empleando un horno TA-200 el cual cuenta con tres electrodos de Tugnsteno (W) en un crisol de Cobre (Cu).
Para los análisis FE-SEM y XRD se utilizaron los equipos MIRA 3MLU TESCAN y un difractómetro PANalytical modelo Empyrean, respecitvamente para el ensayo de microdureza se aplicó una carga constante de 300 gf con un intervalo de 15 s haciendo uso de un micro-durómetro Future Tech FM-800.
Patrones XRD
Para el análisis de los patrones de difracción XRD se utilizó el software MDI JADE 5.0, en el cual se introducen los patrones resultantes de las muestras, en formato digital rd, para realizar su respectivo análisis
Posteriormente, en la pestaña correspondiente a la base de datos PDF se abre la opción Chemistry, en el apartado de metal alloys , donde se colocaron los elementos correspondientes a cada muestra. Dichos elementos son Ti, Zr y Ta teniendo aleaciones TiZrxTa, y Ti, Zr, Nb y Ta para la aleaciones TNTZ.
Identificación de las fases presentes
Posteriormente, se localizaron los picos que coincidían con la carta cristalográfica de intensidad y dirección de cada fase para determinar si las fases de la aleación son de tipo α o β de Ti, o pertenecientes a Zr.
Primero, se identificaron los picos del patrón de la muestra, luego, se selecciona la carta cristalográfica que se va a comparar con el patrón.
Este procedimiento se realizó para cada una de las muestras, logrando realizar la indexación de las fases presentes de cada una de las muestras. Al considerar todas las muestras, se identifican los cambios presentes en las aleaciones provocados por las adiciones de Ta.
La fase de óxido de Titanio al inicio del patrón, alrededor de 20°, se identificó de acuerdo con el trabajo de Zhou et al. donde identifican este compuesto al adicionar Ta a las aleaciones de Ti .
También se calculan las constantes de reticulación de la estructura cristalina, en general, hay una tendencia de decrecimiento de las constantes debido al aumento de átomos de Ta conforme aumenta su porcentaje de adición en la aleación Ti-30Zr.
En el caso de la aleación de TNTZ con las adiciones de Ta, posee una estructura cubica céntrica, debido a esto se puede observar la presencia predominante de la fase β.
IMÁGENES SEM
Para el análisis SEM se utilizó el programa Imagine Pro Plus V 6.0, en el cual, se realizó una calibración utilizando plantillas de regletas y la escala de las imágenes SEM para cada acercamiento de microscopía electrónica de barrido ( de 200X a 3000X). Posteriormente, se colocó la escala en cada imagen y se editaron de manera que se tenga un tamaño adecuado.
Para la calibración se utiliza una imagen con una escala predefinida para asignarla cantidad de μm a los que equivale cada división de la escala.
Esta calibración se realiza por cada magnificación, la cual es indicada en cada pie de imagen.
Colocación del marcador de escala
Una vez teniendo la regleta calibrada, se coloca el marcador de la escala en un extremo de la imagen y se guarda como una nueva imagen.
PRESENTACIÓN DE RESULTADOS
Aleaciones Ti-30Zr-xTa y TiNbZr-xTa
Cada imagen es posteriormente editada en Power Point, y se guarda en formato de archivo de imagen de etiqueta con extensión .TIFF o .TIF para conservar su resolución.
En las imágenes SEM se pudo apreciar que es la misma muestra tanto de lado derecho como izquierdo esto debido a que una es obtenida mediante la señal de electrones secundarios (SE) y la otra por la señal de electrones retrodispersados (BSE). Dentro de la imagen se pudo determinar qué tipo de estructura estamos observando, además de las distintas fases que podemos encontrar en la aleación debido a la diferencia de tonalidades en la estructura. Asimismo, se comprueban las fases establecidas por el analisis de los patrones de difracción de rayos X de cada una de las muestras
CONCLUSIONES
Se analizaron biomateriales con aplicación en el área de la biomédica mediante la identificación de las fases de aleaciones basadas en el titanio, niobio, tantalio y zirconio, a través del procesamiento de los patrones XRD según su dirección cristalográfica, y el análisis de las muestras SEM.
La adición de Ta en aleaciones Ti-30Zr estabiliza la composición en fases de Ti y Zr, las cuales se presentan de acuerdo con el porcentaje de Ta. En cantidades de 1,2 y 3% se presentan mayormente la fase beta de Ti y fases de Zr, y en los porcentajes de 4 y 5 se presentan las fases alfa y Zr. Este incremento de Ta también favorece la microdureza en escala Vickers
En la aleación TNTZ, la adición de Ta, estabilizó toda la muestra, en una fase beta, teniendo así una estructura cubica centrada, donde a mayor concentración de Ta, mayor estabilidad.
Saiz Gómez Germaine Peony Pierrett, Instituto Tecnológico de Matamoros
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
BLOQUE ECOLóGICO CONSTITUIDO CON FIBRAS DE PROSOPIS GLANDULOSA
BLOQUE ECOLóGICO CONSTITUIDO CON FIBRAS DE PROSOPIS GLANDULOSA
Saiz Gómez Germaine Peony Pierrett, Instituto Tecnológico de Matamoros. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El cambio climático es la variación de clima en la Tierra, esta variación es por causas naturales y la acción del hombre, los parámetros son temperatura, precipitaciones, nubosidad, por mencionar algunas.
El cambio acelerado del clima afecta a los ecosistemas, y con ello, a los seres vivos. Debido a varios factores con influencia de la humanidad, la abrupta modificación del lapso del cambio climático se redujo.
El ser humano debe de cambiar el estilo de vida actual y buscar alternativas más sostenibles en todos los ámbitos, desde la manera de comer y vestir, hasta la construcción de las viviendas.
Es necesario buscar medidas sustentables para lograr este cambio, para ello construir viviendas con bloques ecológicos, ayudaría a reducir el calentamiento global.
En México según estudios, se ha vuelto más cálido desde la década de los años sesenta del siglo pasado, las temperaturas promedio a nivel nacional aumentaron en 0.85 ºC y las temperaturas invernales en 1.3 ºC, se ha reducido la cantidad de días más frescos desde los años 60 del siglo pasado y hay más noches cálidas.
Hasta hoy se han construido en México casi 596,268 viviendas sustentables, cada una de ellas ha logrado mitigar 1 - 1.5 ton de CO2e.
Por lo tanto, seguir construyendo viviendas sustentables con materiales sustentables, como lo es la Prosopis Glandulosa, ayudará a contribuir en la reducción de CO2 en el planeta, reduciendo la huella ecológica del ser humano.
METODOLOGÍA
Teniendo en cuenta los 17 objetivos de desarrollo sostenible se buscó la alternativa de agregar un material para la consolidación y beneficio del bloque de concreto que conocemos y que se utiliza en el 98% de las edificaciones en México.
El agregado al bloque de cemento son las fibras del Prosopis Glandulosa, que es un árbol que prolífera abundantemente en la región de Tamaulipas.
La investigación conduce a evaluar las posibilidades de ampliación en el panorama de bloques sustentables, da margen a empezar la evaluación de la calidad del tipo de bloque propuesto para la construcción con los equipos adecuados como lo es la máquina universal de compresión axial, realizando las pruebas adecuadas para verificar la calidad de las fibras del Prosopis Glandulosa y principia el uso conveniente y positivo en la construcción de bloques ecológicos con materiales sustentables.
Se evaluará la manera de obtener este material en la región, ya sea de manera manual o con herramientas para extraer los pedazos de corteza, optando la opción más rápida y segura para ser agregado en el proceso.
Se procede a evaluar la calidad de las fibras del Prosopis Glandulosa para agregarlo como aditivo en el proceso de elaboración de un bloque de concreto ordinario, esperando la mejor conclusión en el proyecto.
Analizando la resistencia del material, su conveniencia en la aplicación en base a sus propiedades como madera.
CONCLUSIONES
Durante la estancia de verano se logró adquirir conocimientos teóricos de la investigación de materiales de construcción enfocados en la sustentabilidad, debido a que se realizó el verano de investigación de manera virtual por la pandemia mundial que se vive por el SARS-CoV-2.
Se investigó para tener las bases para poder continuar la investigación de manera presencial en el regreso a clases presenciales, realizando las pruebas necesarias para su correcta ejecución y valoración del bloque ecológico con fibras de Prosopis Glandulosa, y así, teniendo grandes expectativas para el beneficio que tendrá en el medio ambiente, la sociedad y la economía.
Salado Trinidad Diego Abel, Universidad Autónoma de Zacatecas
Asesor:Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla
PROSPECTOS EN EL USO DE COMPUTACIóN CUáNTICA PARA FíSICA DE ALTAS ENERGíAS
PROSPECTOS EN EL USO DE COMPUTACIóN CUáNTICA PARA FíSICA DE ALTAS ENERGíAS
Salado Trinidad Diego Abel, Universidad Autónoma de Zacatecas. Asesor: Dra. María Isabel Pedraza Morales, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Las aplicaciones de computación cuántica en el mundo de la física de altas energías se ha empezado a explorar y se están desarrollando más algoritmos cuánticos con el objetivo de explotar la capacidad del harwere para aplicaciones de aprendizaje automático. Para comprender mejor el diseño de vanguardia e inspirar una nueva metodología, este documento presenta los elementos de un algoritmo cuántico como posible solución para la demanda extrema de recursos y tiempo en la reconstrucción de eventos partónicos, uno de los mayores retos para el nuevo High Luminosity Large Hadron Collider que espera incrementar el número de colisiones simultaneas.
METODOLOGÍA
Este trabajo fue en su mayoría una investigación bibliográfica, para conocer el desarrollo de la computación cuántica y sus aplicaciones en la física de altas energías, mediante del estudio de un algoritmo de reconstrucción de eventos partónicos. Sin embargo también se realizó la implementación practica de los primeros pasos para introducirse en la computación cuántica.
CONCLUSIONES
En este trabajo se identificó y estudio el funcionamiento de los elementos de un algoritmo de inteligencia artificial cuántico, identificando como resultado las ventajas y desventajas de la implementación de esta nueva forma de computar para la recontrucción de eventos partónicos.
Salgado Tobar Daniel, Universidad La Gran Colombia
Asesor:Dr. René Vázquez Jiménez, Universidad Autónoma de Guerrero
ANáLISIS DE CAMBIOS APLICANDO TéCNICAS DE TELEDETECCIóN EN EL MUNICIPIO DE PUERTO ASíS, PUTUMAYO EN EL PERIODO 1986-2017.
ANáLISIS DE CAMBIOS APLICANDO TéCNICAS DE TELEDETECCIóN EN EL MUNICIPIO DE PUERTO ASíS, PUTUMAYO EN EL PERIODO 1986-2017.
Salgado Tobar Daniel, Universidad La Gran Colombia. Asesor: Dr. René Vázquez Jiménez, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Constantemente todos los países analizan las inminentes problemáticas ambientales que amenazan a sus territorios con efectos negativos como pérdidas humanas, económicas y generación de conflictos por tenencia de la tierra. El cambio climático es un tema imprescindible para la seguridad y el desarrollo del planeta, las concentraciones atmosféricas de gases de efecto invernadero han aumentado desde tiempos preindustriales debido a actividades humanas, sobre todo la utilización de combustibles fósiles y los cambios en el uso y en la cubierta de los suelos (IPCC, 2014). A partir de esto, la pérdida de cubierta boscosa aumenta el grado de vulnerabilidad ante los efectos del cambio climático debido a que se pierden los sumideros de carbono, deterioran el estado de las fuentes hídricas y arremete contra la biodiversidad.
El departamento del Putumayo es uno de los principales núcleos de deforestación en Colombia, según (IDEAM, 2020) la expansión y consolidación de la infraestructura vial informal continúa siendo el principal dinamizador de la pérdida de bosque, al facilitar la conversión en cultivos de uso ilícito y pastizales utilizados en prácticas ganaderas no sostenibles. Por esta razón, es fundamental conocer y monitorear los cambios en el espacio de forma periódica; la teledetección es una gran herramienta el uso de los sensores remotos, que generan imágenes satelitales, representan un método de bajo costo y permiten evaluar grandes extensiones de terrenos o zonas remotas e inaccesibles. León Mata, G. D., Álvarez, A. P., & Guerrero, J. H. M. (2014).
METODOLOGÍA
La fase inicial abarcó la descarga de las imágenes satelitales pertinentes de la zona de estudio donde se obtuvieron 3 imágenes provenientes de los satélites Landsat 5 y Landsat 8, la primera fecha de imagen fue 1986, la segunda 1999 y la tercera fecha 2017.
En la siguiente fase se recortaron las bandas espectrales de acuerdo al polígono del municipio de Puerto Asís en el software ArcGIS 10.5, para esto, se utilizó la herramienta Extract by mask ubicada en la opción Spatial Analyst Tools.
En la tercera fase se realizó el cálculo del Índice de Vegetación de Diferencia Normalizado (NDVI) por medio del software Dinamica EGO 5, este permite llevar a cabo modelamientos ambientales y una serie de algoritmos espaciales complejos para el análisis y simulación de fenómenos espacio-temporales.
CONCLUSIONES
Debido al conflicto armado y el difícil acceso a las diversas zonas boscosas del municipio de Puerto Asís, Putumayo, las herramientas de teledetección permitieron obtener datos de alta calidad sobre el cambio de cobertura a partir del análisis de pixel por pixel de cada imagen satelital.
El NDVI es una metodología que permitió profundizar en las dinámicas espaciales del área bajo estudio a partir de modelos matemáticos y el uso de bandas espectrales.
Sanabria Vázquez José Antonio, Universidad de Sonora
Asesor:Dr. Manuel Alfonso Camargo Chaparro, Universidad Antonio Nariño
PROGRAMACIóN Y ENTENDIMIENTO DE DINáMICA MOLECULAR CON PYTHON Y LAMMPS
PROGRAMACIóN Y ENTENDIMIENTO DE DINáMICA MOLECULAR CON PYTHON Y LAMMPS
Sanabria Vázquez José Antonio, Universidad de Sonora. Asesor: Dr. Manuel Alfonso Camargo Chaparro, Universidad Antonio Nariño
PLANTEAMIENTO DEL PROBLEMA
Durante el periodo de la pasantía, se presentó por mi tutor una introducción tutorial práctica a las técnicas de simulación de dinámica molecular (DM), con la cual se pudo completar y generar una capacidad de entender y discutir el propósito y alcance de esta técnica, así como su relación con otros métodos de simulación. A través del análisis de algunos ejemplos característicos de aplicación en el área de líquidos simples, se implementaron los algoritmos básicos de DM con los cuales tuve la oportunidad de reflexionar acerca de los conceptos físicos y computacionales involucrados, así como de la información que es posible obtener de este tipo de simulaciones.
La DM es una técnica de simulación por computadora en la que se permite que átomos y moléculas interactúen por un período, permitiendo una visualización del movimiento de las partículas. Las simulaciones de dinámica molecular se han convertido en una herramienta importante y fiable para revelar los mecanismos que se llevan a cabo en el bajo nivel de las estructuras, por lo que es interesante aprender para poder estudiar una gran variedad de fenómenos físicos, tales aplicaciones contienen sistemas tales como agua, hidrocarburos, proteínas en solución, electrolitos y surfactantes, entre muchos otros, por lo que no solo es una herramienta de visualizacion si no de aprendizaje de lo sistemas, ya que podemos sacar de ellos la temperatura, energia etc.
Estuvimos trabajando en secciones de 2 semanas cada una, en la primera parte fue el hecho de poder entender como es que se comportaban partículas en una sola dimensión y así poder recrear el articulo 1 de nuestra biblioteca del curso. En el caso de nuestro primero código sera el de 3 partículas unidas en una sola dimensión donde tomaremos con un potencial de Ley de Hook ( HL ) donde estas 3 partículas estarán unidas con como una colección de masas y resortes. ( Este método nos da la posibilidad de tener un modelo natural para enlaces químicos ). Entonces del articulo (1) nos proporciona el potencial a utilizar para el modelo de 3 partículas.
En la segunda sección fue el hecho de poder entender como es que se comportaban partículas pero ahora en 2 dimensiones y así poder recrear los ejemplos que me estuvo enviando de los PPT del curso. Donde nos dimos a la tarea de encontrar ecuaciones generales para poder generalizar el trabajo mas adelante para 2 y 3 dimensiones. En el caso de nuestro primero código sera el de 10-partículas unidas en una sola dimensión donde tomaremos con un potencial de Ley de Hook ( HL ) donde estas 10 partículas estarán unidas con como una colección de masas y resortes. Y el segundo codigo de esta segunda sección fue el mismo que el primero, pero generalizandolo a 2 y 3 dimensiones.
Y por ultimo la ultimas 2 semanas fue el uso del programa espacializado de LAMMPS donde tuvimos que aprender desde cero el lenguaje que utiliza este programa, y tambien el hecho de tener que aprender la escritura de los scripts de entrada, pero esto nos dio la posibilidad poder modelar 2D o sistemas 3D con sólo unas pocas partículas de hasta millones o miles de millones, está diseñado para ser fácil de modificar o ampliar con nuevas capacidades, como nuevos campos de fuerza, tipos de átomos, condiciones de contorno o diagnósticos.
METODOLOGÍA
Para nuestra primera sección ya que teniamos definido nuestro potencial que gobernaba las particulas donde tenian la misma masa e interactuaban con una cosntante de fuerza k. Consecuentemente con un cambio de variable y derivando del potencial conseguimos sacar las fuerzas que gobernaban nuestro sistema. Lo que solo ocupabamos era seguir los pasos para una simulacion de DM, pero en este caso como estabamos recreando las graficas y aprendiendo como es que funcionaba , como igualemente sacando tiempos de corrida fue entonces que usamos varios metodos numericos diferentes ( Cuales no conocia y aprendí ) para así terminar con la primeras 2 semanas.
La siguiente seccion fue de la misma manera muy parecida a la primera, pero con la complejidad de tener que recrear ya sistemas mas complejos en 2D y 3D, por lo que en este caso es lo que nos llevo mas tiempo, tener que recrear de los PPT del curso los sistemas complejos donde podrian llevar potenciales externos, o hasta tener condiciones de frontera periodicas. Y en esta semana el maestro me explico como utilizar en programa OVITO donde porfin, despues de 3 semanas aproximadamente pude visualizar los resultados de mi arduo trabajo.
Y en este caso la tecera sección, ya lo que hicimos fue completamente diferente. Mi tutor me proporcionó un archivo de Script donde previamente me explico completamente cada una de las funciones, donde simplemente era en unas cuantas lineas donde LAMMPS entendiera completamente todos los parámetros de la simulación de DM. Este Script estaba hecho para poder recrear las simulaciones 3D que ya habíamos escrito pero en Python, por lo que se iba a hacer lo mismo para poder comparar los resultados y los tiempos de ejecución. Dando como resultado que se mejoraba muchísimo los tiempos de ejecución con LAMMPS ( Por eso es un programa especializado para DM ).
CONCLUSIONES
Durante la estancia de verano se logró adquirir el conocimiento completo de todo lo planeado en el curso, así como el conocimiento teórico de la dinámica molecular y poder poner en práctica estas simulaciones, fue simplemente complaciente poder ver los vídeos que luego hicimos con el programa OVITO, donde después de largas estancias de creación de código y luego largas horas de corrida , poder ver estos videos que eran el fruto del trabajo, era simplemente complaciente. En conclusión, aprendí bastante con mi tutor, y estaría encantado de volver a poder trabajar con DM con él.
Sánchez González Fernando, Instituto Politécnico Nacional
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE ECOBLOCK CON MATERIALES RECICLADOS DE PET.
PROTOTIPO DE ECOBLOCK CON MATERIALES RECICLADOS DE PET.
Quintero Espinosa Luis Fernando, Instituto Politécnico Nacional. Sánchez González Fernando, Instituto Politécnico Nacional. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En las últimas décadas, el medio ambiente se ha visto bombardeado y afectado
negativamente por la industria de la construcción, la cual afecta directamente al medio
ambiente por generar grandes cantidades de residuos de la construcción.
Según el censo del INEGI en el 2020 126,014,024 millones de personas. Actualmente el país
tiene 126 millones de habitantes en 1.973.000 Km2, por lo que se estima que hay 64
personas por cada kilómetro cuadrado. Su capital, Ciudad de México es la más poblada de
Latinoamérica y la sexta del mundo. El aumento desmedido de la población año con año ha
traído graves problemas a México, tales como un fuerte deterioro ambiental,
especialmente por contaminación del agua y generación de residuos especialmente en el
ámbito de la construcción. Además, en las grandes ciudades como es el caso de la Ciudad
de México el déficit de viviendas es alto y se produce hacinamiento.
Por medio de esta investigación se dará a conocer el aprovechamiento de residuos
industriales con la finalidad de poder informar acerca de la fabricación de materiales de
construcción; el caucho y el aserrín serán los elementos esenciales para la elaboración de
bloques ecológicos (eco-bloques), así logrando generar, en base, del reciclaje del caucho y
el aserrín un eco ladrillo resistente, económico, versátil para generar diferentes estilos de
diseño y amigable con el medio ambiente. Que al ser fabricado el uso de un residuo
industrial como una materia prima podría constituir una fuente de ahorro en costos y
recursos.
METODOLOGÍA
Dentro de la metodología de la investigación, encontramos que nuestra investigación
tiene como fin, plantear una alternativa en la construcción de vivienda de bajo costo con
material de desecho como lo es el plástico reciclado, para el desarrollo del proceso
encontramos que este trabajo obedece a cuatro fases, las cuales son de carácter
investigativo y experimental.
En primer lugar, durante el desarrollo de esta etapa se realizó una evaluación de criterios
en cuanto al planteamiento de una posible solución que diera respuesta a problemáticas
en cuanto a vivienda, medio ambiente y economía se refieren, aspectos que se analizaron
desde un punto de vista sostenible y tecnológico, lo cual nos llevó a formular nuestro
proyecto de investigación enfocado en la fabricación de un bloque prefabricado de pet.
Realizada esta etapa de lluvia de ideas y planteamientos, se continuo con un proceso de
investigación, dando lugar al desarrollo del proyecto, el cual consistió en realizar una
recolección de información referente a nuestro tema de investigación, enfocada en los
estudios que se tienen con respecto al contenido de nuestro proyecto; el desarrollo de un
block de pet.
La obtención de la materia prima en este caso (pet), será buscando en las calles, botes de
basura y los que nosotros mismos obtendremos de nuestro día a día.
CONCLUSIONES
Dentro de este proyecto, encontramos a través del seguimiento de los procesos de
investigación y de orden experimental resultados concretos que involucran
alternativas de innovación y tecnología, desarrollando un nuevo material con el uso
de material de desecho en la fabricación de un elemento constructivo.
La forma, textura, medidas y peso de los ladrillos presentan excelentes condiciones,
debido a que su aspecto, presentación y forma.
En cuanto a su peso, se encuentra una característica muy importante la cual destacar
ya que el mismo es considerablemente mucho más liviano que su par constructivo
(bloque de mortero con cemento y arena), se reduce considerablemente el peso de
las muestras, porque el mismo tiene un peso promedio de 0.784 gr y su par el ladrillo
convencional, tiene 1.075 gr en promedio.
ARQUITECTO MILLER ERNESTO PIÑEROS MORENO, NOVIEMBRE 2018, PROYECTO DE
FACTIBILIDAD ECONÓMICA PARA LA FABRICACIÓN DE BLOQUES CON AGREGADOS DE
PLÁSTICO RECICLADO (PET), APLICADOS EN LA CONSTRUCCIÓN DE VIVIENDA, MÉXICO,
UNIVERSIDAD DEL VALLE DE MÉXICO.
Sánchez Jiménez José Carlos, Universidad Autónoma de Guerrero
Asesor:Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
CONSTRUCCIóN DE UN SENSOR óPTICO PARA EVALUAR LA VULNERABILIDAD DEL XILEMA EN PLANTAS
CONSTRUCCIóN DE UN SENSOR óPTICO PARA EVALUAR LA VULNERABILIDAD DEL XILEMA EN PLANTAS
Sánchez Jiménez José Carlos, Universidad Autónoma de Guerrero. Asesor: Dr. Carlos Alberto Aguirre Gutierrez, Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias
PLANTEAMIENTO DEL PROBLEMA
Una consecuencia importante del estrés hídrico es la formación de burbujas de aire dentro del xilema, reduciendo la capacidad para transportar agua y repercutiendo en su productividad, ocasionando incluso la muerte de las plantas, la relación entre el embolismo y el grado de estrés hídrico se conoce como vulnerabilidad del xilema y permite identificar la tolerancia a la sequía que tienen las plantas (Venturas et al., 2019).
En la actualidad, existen una gran cantidad de métodos utilizados para evaluar la vulnerabilidad del xilema, sin embargo, suelen consistir en procedimientos invasivos y destructivos, además de costosos, por lo que, investigadores de la universidad de Tasmania han desarrollado un nuevo método óptico relativamente barato y sencillo que no necesita cortar o desprender las hojas de la planta y permite medir la vulnerabilidad del xilema de la misma (Lucani & Brodribb, 2017).
El objetivo de este trabajo, fue realizar la construcción de un sensor óptico que permita evaluar la vulnerabilidad del xilema de manera más accesible y eficiente, además de que el modelo cuenta con una licencia OpenSource que aprueba a cualquiera clonar y modificar el contenido, con el fin de contribuir con más información científica.
METODOLOGÍA
Para la construcción del sensor se realizó una revisión bibliográfica en artículos científicos, páginas web y los materiales a utilizar, como es el caso de los medios electrónicos e impresión 3D. Las piezas que se utilizaron fueron seleccionadas de acuerdo con la base de datos del OpenSourceOV (2017), además, se adquirieron los elementos indispensables a utilizar para la construcción del sensor, tal es el caso de los microcontroladores y ordenadores programables como el Arduino y la Raspberry Pi, a los que se le puede conectar la pequeña cámara de alta resolución. Además de ello, se consiguieron piezas para soporte del sensor que incluyen aspectos de tornillería, ferretería y cableado. Se navegó hasta el repositorio correspondiente de la organización Github (2017) para descargar los archivos de las piezas requeridas para la construcción y posteriormente se imprimieron en 3D.
La construcción del sensor se basó en el modelo 2 contenido en OpenSourceOV, tratándose de un rediseño completo que integra una lente de mano (lupa) para el aumento en 20x y la recomendada para realizar. Teniendo los materiales listos, se comenzó con el ensamblaje de las piezas para construir el sensor, incluyendo los cortes de los cables, soldando las tiras led a las piezas 3D, ajustando la lupa de mano, la cámara Raspberry Pi y ajustando los tornillos con sus respectivas tuercas. Se requirió de un circuito cerrado para proporcionar energía e interconectar la Raspberry Pi con los LEDs, conectándose en línea sin una placa de circuito impreso (PCB, por sus siglas en ingles), todo ello conectado a una batería de 12 v, para ser utilizada en zonas donde el suministro de energía no es continuo.
CONCLUSIONES
Gracias a la plataforma de OpenSourceOV, fue posible tener a la disposición una serie de guías, instrucciones, modelos imprimibles en 3D y listas de recursos que facilitaron la construcción del nuevo método; Pudiendo generar 13 piezas 3D de distintos tamaños, siendo:
1 Soporte - utilizada para montar la cámara y atornillar el sensor a la base.
4 Espaciadores de la lente - usados para aumentar el espacio entre la montura de la cámara.
4 Monturas de LED - espacio para montar un juego de monturas con tiras LED.
2 Bloqueos de lente - utilizada para mantener la lente de mano en su sitio.
1 Espaciador - para mantener la muestra en su sitio y establecer la distancia entre la lente manual y la muestra.
1 Base iluminada - para proporcionar la fuente de luz transmitida y la base para atornillar todo el sensor.
Una vez reunidas todas las piezas, se pudo ensamblar las piezas en conjunto con los tornillos y medios electrónicos al sensor de manera satisfactoria. Se realizaron las conexiones del cableado correspondientes al sensor para iluminar los Leds y conectar la cámara. Una vez que se tenga el sensor listo, permitirá procesar imágenes para visualizar el efecto del estrés hídrico en las plantas y poder evaluar la vulnerabilidad del xilema, todo de forma práctica, accesible y a un bajo costo.
Los conocimientos que se tienen sobre la tolerancia a la sequía de las especies son muy limitados, por lo que, la construcción y utilización de este tipo de sensores, genera nuevas técnicas para realizar investigación y poder predecir como responderán las plantas a un clima que cambia rápidamente.
Esta nueva técnica óptica, sienta las bases de una nueva generación de herramientas de fácil acceso al público para evaluar la tolerancia de las plantas frente al estrés hídrico. El sensor óptico tiene la habilidad de mapear la cavitación en tallos ante el estrés hídrico, al mismo tiempo arroja una medida precisa de la vulnerabilidad xilemática.
Sanchez Limon Jose de Jesus, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
MODELO PREDICTIVO DE SALINIDAD PARA MUESTRAS DE AGUA DE POZOS EN TORREóN, COAHUILA, USANDO
REDES NEURONALES ARTIFICIALES (NRA): BACKPROPAGATION.
MODELO PREDICTIVO DE SALINIDAD PARA MUESTRAS DE AGUA DE POZOS EN TORREóN, COAHUILA, USANDO
REDES NEURONALES ARTIFICIALES (NRA): BACKPROPAGATION.
Sanchez Limon Jose de Jesus, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
Medir todos los indicadores de calidad de agua en un acuífero y obtener una muestra representativa de la zona de estudio para consumo humano o para uso agrícola puede ser un proceso prolongado e incluso costoso cuando el presupuesto es limitado. Por esta razón es conveniente generar modelos que puedan predecir ciertos indicadores de calidad de agua sin la necesidad de realizar todos lo análisis químicos del agua, siempre y cuando, se tenga la certeza que los valores predichos sean altamente precisos respecto con los reales.
En el municipio de Torreón, Coahuila, se tienen problemas por falta de agua y mala calidad, que han generado problemas de salud en sus pobladores y en las actividades agropecuarias de la zona. Por esta razón, se generará un modelo que permita estimar la salinidad del agua en una región semidesértica a través de Redes Neuronales Artificiales (RNA) como es el caso del proceso Backpropagation o propagación hacia atrás de errores.
METODOLOGÍA
Se realizó un modelo predictivo de la salinidad del agua a través del análisis de 32 muestras tomadas en las cercanías del municipio de Torreón, Coahuila en el software libre RStudio®; datos proporcionados por el asesor.
Se generaron cinco combinaciones de entrada entre las variables para generar cinco modelos predictivos de la salinidad (variable de salida); estas combinaciones fueron realizadas con base en el coeficiente de correlación de Pearson que presentaron con la salinidad, quedando de la siguiente manera:
TDS
TDS+EC
TDS+EC+SO4
TDS+EC+SO4+Na
TDS+EC+SO4+Na+Ca
La matriz de correlación de Pearson se puede observar en la figura 2 y los coeficientes de correlación más altos para la salinidad en la tabla 2.
Para el modelo de backpropagation, primero se normalizaron los datos para evitar posibles errores, además, se dividieron los datos aleatoriamente en dos subconjuntos: para el entrenamiento del modelo y para la evaluación del modelo, en un porcentaje 70 - 30% de los datos, respectivamente. Finalmente se utilizaron dos capas ocultas en el modelo con 9 y 7 unidades.
Además, se generó un diagrama de Piper para determinar las facies hidrogeoquímicas de la zona de estudio y dar una posible interpretación.
CONCLUSIONES
La elección correcta de las variables de entrada es de suma importancia para generar un modelo predictivo correcto y preciso. Lo anterior se puede comprobar con los modelos obtenidos (figura 3), a través de los indicadores estadísticos como es el coeficiente de correlación. El mejor modelo generado fue el No. 1, donde sólo existe una variable de entrada, en este caso los TDS; y en segundo lugar el modelo No. 2, con coeficientes de correlación de 0.999 y 0.987, respectivamente.
Los cinco modelos generados presentaron una buena correlación, sin excepción, pero si se realiza un análisis más detallado, se puede observar que, entre más variables de entrada, en general, la correlación entre la salinidad medida y la predicha, disminuye ligeramente.
Los modelos tendrían una mayor relevancia si hubiera una correlación significativa entre los iones mayores y contaminantes como el As, pero en este caso, no hubo dicha correlación. Con lo anterior, se podrían generar modelos predictivos para uno de los principales causantes de enfermedades cancerígenas en aguas contaminadas (Instituto Nacional del Cáncer, 2015).
El diagrama de Piper generado, indica que la facie predominante es sulfatada clorurada y magnésica cálcica, y esto es debido a que la zona está conformada por una secuencia vulcano - sedimentaria (Formación Nazas), en donde se encuentran desde rocas calcáreas hasta areniscas y conglomerados (CONAGUA, 2020).
Sanchez Lorenzo Mario Alfredo, Instituto Politécnico Nacional
Asesor:Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
POLARIZACIóN DEL PSEUDO ESPíN GENERADO POR DEFORMACIONES EN GRAFENO.
POLARIZACIóN DEL PSEUDO ESPíN GENERADO POR DEFORMACIONES EN GRAFENO.
Avila Torreblanca Julio César, Instituto Politécnico Nacional. Sanchez Lorenzo Mario Alfredo, Instituto Politécnico Nacional. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
El grafeno ha atraído mucho la atención de la comunidad científica debido a las propiedades electrónicas y el comportamiento relativista que toman los pi-electrones cuando se deforma una capa de grafeno. Debido al arreglo hexagonal de los carbonos en el grafeno, la relación de dispersión de energía que se obtiene alrededor de dos esquinas opuestas equivalentes para la primer zona de Brillouin en el k-espacio es lineal. A estas esquinas se les denota con los puntos K y K’.
Cuando uno plantea el Hamiltoniano de masa efectiva para los pi-electrones alrededor de los puntos K y K’, se obtiene la ecuación de masa efectiva. Esta ecuación es muy similar a la ecuación sin masa de Dirac (también llamada ecuación de Weyl). La diferencia surge en un signo y la velocidad de Fermi que aparece en lugar de la velocidad de la luz. La ecuación de Weyl explica la naturaleza del grado de libertad del espín. Y debido a la similitud con la ecuación de masa efectiva para los pi-electrones, a este grado de libertad se le denomina pseudo espín.
Se sabe que un campo electromagnético genera polarización de espín. En el presente trabajo observamos como un campo de deformaciones puede formar una polarización de pseudo espín debido a que se genera un campo pseudo magnético.
METODOLOGÍA
Para estudiar el comportamiento de dichos electrones vamos a estudiar el Hamiltoniano efectivo a bajas energías, es decir, hacer una aproximación del Hamiltoniano del sistema alrededor de las dos esquinas recíprocas (K, K’), ubicados en la primera zona de Brillouin.
Para obtener dicho Hamiltoniano se comenzó planteando un problema visto en la carrera conocido como el problema de potencial de pozo finito en la mecánica cuántica. Se comenzó con un solo pozo de potencial finito. Posteriormente se realizó para dos pozos simétricos, hasta generalizar el problema para una red lineal de n pozos simétricos de potencial finito. Luego de ello, se extrapoló el problema a una red bipartita, una red triangular y finalmente una red cuadrada. Ya con esta teoría se introdujo el arreglo hexagonal del grafeno, cuya celda unitaria está compuesta de dos partículas A y B. El formalismo utilizado para estos problemas se conoce como Tight-Binding o Amarre fuerte, en conjunto con el teorema de Bloch.
En cada uno de estos casos previamente mencionados se analizó su relación de dispersión lineal, específicamente en el grafeno nos centramos en los puntos K y K’ mencionados en el planteamiento del problema, que son los ‘ceros’ de la primer zona de Brillouin, los cuales vistos de manera gráfica tienen apariencia de conos, conocidos como conos de Dirac,
Una vez planteada la teoría para el grafeno sin deformar, procedimos a aplicar una deformación en la red de grafeno, la cual desplazó nuestros ceros ubicados en la primer zona de Brillouin (Sin deformar), haciendo que tengamos una nueva posición de estos ceros de la forma KD = K0 + A, donde A es el vector que desplaza los ceros. De modo que cuando aproximamos nuestro Hamiltoniano a bajas energías alrededor de dicho cero (KD) obtenemos un corrimiento en el punto q como se esperaba.
CONCLUSIONES
A lo largo de la estancia de verano se adquirieron conocimientos teóricos sobre algunos métodos en la mecánica cuántica, como lo fueron Tight Binding y aproximación por amarre fuerte. Después de usar estos métodos para analizar el Hamiltoniano del grafeno sometido a una deformación homogénea, se obtuvo con éxito la aproximación a bajas energías y una vez propuesto el pseudo campo magnético, se logró demostrar como un campo de deformaciones genera una polarización de pseudo espin.
Sánchez Martínez Juan Pablo, Instituto Politécnico Nacional
Asesor:Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
MONITOREO SíSMICO DE ACTIVIDAD URBANA EN LA CIUDAD DE QUERéTARO, MéXICO DURANTE EL COVID-19.
MONITOREO SíSMICO DE ACTIVIDAD URBANA EN LA CIUDAD DE QUERéTARO, MéXICO DURANTE EL COVID-19.
Lara Omaña Axel Xavier, Instituto Politécnico Nacional. Sánchez Martínez Juan Pablo, Instituto Politécnico Nacional. Asesor: Dr. Victor Hugo Márquez Ramírez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
Los ruidos antropogénicos desarrollados en entornos urbanos generan perturbaciones que pueden ser con ciertas reservas, un indicador valido para observar y monitorear la actividad humana en las urbes. Estos datos sísmicos proporcionan detalles similares a los que otorgan otros indicadores de movilidad más habituales, como los que provienen de la telefonía móvil o servicios de internet.
En cierta medida, nuestro país carece de redes de monitoreo sísmico urbano. Para obtener información de esta índole resulta necesario recurrir a empresas de telefonía o internet privadas lo cual es poco práctico debido a que su disponibilidad, coste y alcance son determinados por el proveedor de los mismos.
Por tanto, la principal ventaja que ofrece este tipo de monitoreo es el mayor alcance que se le puede dar al obtener registros que se asocien al tráfico, actividad industrial o actividades deportivas y la instalación de los equipos así como su mantenimiento resultan económicamente bajos.
METODOLOGÍA
El monitoreo es realizado por estaciones sismológicas de bajo costo, siendo estas compuestas por Raspberry Shake 4D, estas estaciones incorporan un geófono en la componente vertical y tres acelerómetros de sistemas microelectromecánicos (MEMS) colocados ortogonalmente, estos instrumentos tienen una versatilidad en la medición de los datos, debido a que es capaz de medir tanto movimientos fuertes en el subsuelo, así como la actividad microsísmica.
Las herramientas computacionales desarrollan un papel fundamental en las redes sísmicas y procesamiento de datos. Por temas de compatibilidad y facilidad de uso, se utilizó el sistema operativo GNU/Linux, donde el principal lenguaje de programación es Python, dado que es de carácter de cómputo científico se hace uso de la distribución libre de Anaconda, así como de Jupyter Notebook, esta herramienta permite tanto documentar el código empleado como asegurar que el código compilara en otros equipos.
También es necesario un entorno de desarrollo específico para el procesamiento de datos sísmicos, para ello se hace uso del proyecto de código abierto ObsPy. Esta herramienta proporciona analizadores para formatos de archivos comunes, acceso a centros de datos y rutinas de procesamiento de las señales sísmicas que permiten la manipulación de series de tiempo sísmicas. Con base en esto, el primer paso es poder leer los datos con las fechas en UTC, para posteriormente seleccionar el tiempo que transcurre del partido, para poder realizar una comparativa en los juegos antes y después del confinamiento. También está comparativa se puede realizar mediante los espectrogramas de frecuencias. Para posteriormente realizar análisis de ruido sísmico ambiental, el cual requiere procesos más robustos en la paquetería de ObsPy.
CONCLUSIONES
Durante la estancia de verano se logró adquirir una vasta gama de conocimientos, desde principios básicos de programación, visualización del registro sísmico, así como obtención de espectros de frecuencias, todo lo anterior haciendo uso de elementos de programación. Sin embargo, al ser un extenso trabajo aún hacen falta realizar más procesos para dar un análisis más concreto sobre los eventos que se presentan en los datos antes y después del confinamiento por COVID-19.
Sanchez Maya David Armando, Instituto Tecnológico de Iztapalapa III
Asesor:Dr. Armando Aguilar Meléndez, Universidad Veracruzana
SISMICIDAD Y SEGURIDAD ESTRUCTURAL DE LOS EDIFICIOS EN LA CIUDAD DE MéXICO
SISMICIDAD Y SEGURIDAD ESTRUCTURAL DE LOS EDIFICIOS EN LA CIUDAD DE MéXICO
Sanchez Maya David Armando, Instituto Tecnológico de Iztapalapa III. Asesor: Dr. Armando Aguilar Meléndez, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
El estudio que realizamos fue sobre los sismos y el comportamiento que tuvieron en sus acelero gramas, los daños que se pueden presentar a causa de estos movimientos telúricos, para esto iniciamos primeramente a entender los conceptos básicos relacionados con todo lo que tiene que ver en el área de investigación para así poder tener una mejor comprensión de lo que estábamos por ver más adelante.
Así mismo el investigador nos llevo de la mano explicando los fenómenos que se presentan durante un sismo, el comportamiento de estos mismos, sus acelero gramas y los fundamentos principales para poder llevar a cabio nuestros estudios.
METODOLOGÍA
Durante mi estancia estuve desarrollando mi investigación la cual se centró en el área de investigación que yo elegí, en este caso fue la Ciudad de México por que es el lugar donde resido y en donde e vivido toda mi vida en la cual se han suscitado sismos los cuales han tenido graves consecuencias para la infraestructura de la ciudad, llegando a dañar considerablemente edificios y todo tipo de construcciones y algunas de ellas llegando a colapsar.
Para mi investigación se realizó una búsqueda de los sismos que se han presentado en la Ciudad de México en un lapso de 50 años hasta la fecha, se utilizo principalmente la base de datos de la UNAM del SSN en la cual se obtuvieron estos datos y estos datos que obtuve se analizaron el software Seismograms Analyzer-e que nos ayuda al procesado de los acelero gramas y poder entender el comportamiento de estos.
CONCLUSIONES
Finalmente, con los datos que pude obtener entiendo que en la Ciudad de México se observan tipos de falla cuyas causas son bien conocidas: mala cimentación, planta baja débil, edificios en esquina, estructuras modificadas indebidamente, cambios del uso que se le iba a dar inicialmente, entre otros. En la Ciudad de México se observan fallas por la mala estructuración de las edificaciones, la edad de las construcciones y la posible acumulación de daños que ha recibido dicha estructura por sismos anteriores.
Sánchez Villalobos Jairo Adrian, Universidad Autónoma de Chiapas
Asesor:Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
CáLCULO DE PROPIEDADES ÓPTICAS DE LA MATERIA
CáLCULO DE PROPIEDADES ÓPTICAS DE LA MATERIA
Paniagua Pinto Marco Dalí, Universidad Autónoma de Chiapas. Sánchez Villalobos Jairo Adrian, Universidad Autónoma de Chiapas. Asesor: Dr. Bernardo Mendoza Santoyo, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
El proyecto trata de el uso de software libre especializado para obtener propiedades ópticas no lineales específicas de materiales. La Óptica no lineal es el estudio de los fenómenos que ocurren como consecuencia de la modificación de las propiedades ópticas de un sistema material por presencia de luz. Estas modificaciones se presentan únicamente tras la presencia de luz intensa como lo es la de los láseres.
Se les consideran fenómenos "no lineales" ya que ellos ocurren cuando la respuesta del material hacia un campo óptico aplicado no depende de forma lineal de la fuerza del campo óptico.
Por ejemplo, la generación del segundo armónico ocurre como resultado de la respuesta atómica que escala cuadráticamente con la fuerza del campo óptico aplicado. En consecuencia, la intensidad de la luz generada en la frecuencia del segundo armónico tiende a aumentar como el cuadrado de la intensidad de la luz láser aplicada.
La obtención de estos fenómenos no lineales son de suma importancia ya que muestran la forma en la que los arreglos de sistemas materiales pueden cambiar propiedades fundamentales como lo son la refracción, la absorción o la absorción de dos fotones de forma distinta tras la variación de potenciales aplicados, por lo que nuestro trabajo trata sobre el cálculo de estas propiedades para arreglos de cristales como sulfuro de galio, diamantes, germanio, silicio, sulfuro de zinc, telururo de cadmio, antinonurio de indio, entre otros.
METODOLOGÍA
Se hizo uso de la herramienta de software ABINIT, el cual es un paquete de software en LINUX que calcula las propiedades ópticas y demás observables de los materiales. Estas las calcula a partir de ecuaciones cuánticas de la teoría funcional de densidad. También se hizo uso de la herramienta de software libre TINIBA, el cual fue creado por el Dr. Bernardo Mendoza y colaboradores para tener la función inversa de ABINIT, con el cuál a partir de propiedades físicas y ciertas acomodaciones de átomos podemos obtener respuestas ópticas lineales y no lineales así como la refracción, absorción, etc. por medio de primeros principios.
CONCLUSIONES
Bajo el método empleado en TINIBA obtuvimos soluciones de la refracción de los distintos cristales, así como la absorción del cristal, la absorción de dos fotones(comportamiento no lineal) y el segundo armónico, todos en relación con la energía suministrada. obteniendo resultados similares a los proporcionados por experimentos.
Santana Ruiz Ricardo Abdiel, Universidad de Guadalajara
Asesor:Dr. Everardo Santiago Ramirez, Universidad Autónoma de Ciudad Juárez
EVALUACIóN DE LSTM EN EL RECONOCIMIENTO DE PERSONAS POR SU MANERA DE CAMINAR EN AMBIENTES INTERIORES Y EXTERIORES
EVALUACIóN DE LSTM EN EL RECONOCIMIENTO DE PERSONAS POR SU MANERA DE CAMINAR EN AMBIENTES INTERIORES Y EXTERIORES
Corona Mindiola Omar Esteban, Universidad de Guadalajara. Santana Ruiz Ricardo Abdiel, Universidad de Guadalajara. Asesor: Dr. Everardo Santiago Ramirez, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
El uso de inteligencia artificial para el reconocimiento de personas ha aumentado su uso en los últimos años, siendo utilizada desde motivos de seguridad, como lo es para dar acceso a lugares especiales o para la identificación de personas en las fronteras.
Así, se ha encontrado que la manera de caminar también se puede utilizar como rasgo biométrico, ya que hay hasta 24 características distintas que distinguen la forma de andar de cada persona.
Existen hasta la fecha varios algoritmos que utilizan una vectorización de las características de cada individuo, sin embargo, en este caso se evaluó el desempeño de una red neuronal con una de sus capas de tipo LSTM, con el objetivo de que esta aprendiera a partir de una secuencia de imágenes el patrón de caminata de ciertas personas.
METODOLOGÍA
Se grabaron en distintas locaciones varios vídeos que ejemplifican en su totalidad, la manera de caminar del individuo en varios entornos. Primero, las imágenes a color en los vídeos fueron transformados a escala de grises. Luego, mediante el método de valor umbral para binarizar la imagen y segmentar la imagen de la persona. Esto con el objetivo de eliminar el fondo y quedarnos solamente con la silueta de la persona. Se debe mencionar que trabajar en una escala de grises funciona también para hacer más sencillo el entrenamiento de la red neuronal, pues se realiza solo en una dimensión, y no en 3 como sería en imágenes en el modelo de color RGB. Para obtener las siluetas, se comenzó por utilizar un método de substracción de fondo tradicional, es decir, utilizando un frame donde solo apareciera el fondo, este se iba restando a las demás imágenes, quedando teóricamente solo la silueta del sujeto. Sin embargo, nos encontramos con varios problemas al realizar este procedimiento, el primero es que en ciertos entornos existen varios distractores como la sombra, el reflejo, el movimiento de las plantas, entre otras cosas que causan ruido en la segmentación de la imagen. Se encontró también que la vestimenta de la persona crea problemas en ciertas ocasiones, ya que al convertir la imagen a una escala de grises, algunas de las prendas de color negro o algún tono oscuro, desaparecen de la imagen.
Nos enfrentamos entonces al problema de no poder obtener siluetas bien definidas para su evaluación, por lo que pasamos a utilizar otro método más sofisticado. Esto es, usar un modelo de segmentación que utiliza redes neuronales convolucionales para detectar distintos objetos en una imagen. Entre los objetos capaces de detectar por este modelo, llamado YOLACT++, se encuentran las personas, por lo que solucionamos dos problemas al utilizar el modelo, uno es que la segmentación se realiza de forma completa, es decir, sin huecos dentro de la silueta. Y el otro es que, dada la segmentación en la imagen, el modelo crea un rectángulo que atrapa solo la silueta de la persona.
Se agregó solo un filtro más a las imágenes segmentadas por el modelo, y es que la segmentación que agrega dicho modelo se trata de una máscara encima de la imagen color rojiza, pero si recordamos lo mencionado en un inicio, buscamos imágenes en una escala de grises, por lo que fue necesario eliminar los colores que no se presentaran en la segmentación realizada. Dicho proceso se llevo a cabo con el paquete OpenCV, que nos permite seleccionar un rango de colores en escala HSV y eliminar el resto de colores de la imagen. Se crearon por separado, dos modelos, uno para evaluar ambientes interiores y otro en el caso de ambientes exteriores. Se utilizaron 23 conjuntos de 60 imágenes para el caso de ambientes interiores y 24 conjuntos igualmente de 60 imágenes para ambientes exteriores, 20 proporcionados por el conjunto de datos de CASIA, y los otros obtenidos por nosotros con el método antes descrito. El modelo utilizado para nuestra red, consta de una capa con filtro de convolución, un filtro "max pooling", la capa de LSTM, una capa totalmente conectada y un optimizador de modelo de tipo adam, que en conjunto evalúa un total de 414,834 parámetros.
Tomando otros 23 conjuntos para la fase de prueba con 60 imágenes cada uno, para el caso de ambientes interiores se encontró una precisión del 82.6 % con una pérdida del 0.05, correspondiente a la identificación de 19 sujetos de 23. Cabe recalcar que entre los aciertos encontrados se encuentran las imágenes generadas por nosotros y que independientemente del conjunto de prueba, se realizó una evaluación del modelo en otros tres vídeos que fueron clasificados correctamente por el modelo. Dando así un 100 % de precisión en las imágenes generadas por nuestro método.
Para el caso de los 24 conjuntos en ambientes exteriores se obtuvo una precisión del 75 % con una pérdida de 0.08 que equivale a identificar 18 de los 24 sujetos utilizados. Si embargo, para este caso el modelo tuvo problemas para identificar nuestras siluetas para cuando se tenía el perfil trasero y que identificó el perfil izquierdo como el derecho, aunque acertando en la persona que se trataba.
CONCLUSIONES
Se encontraron resultados aceptables con el uso de LSTM para este problema, encontrando un mejor rendimiento para el caso de ambientes interiores que de exteriores, pudiéndose deber a varios factores externos que conlleva estar en el exterior. Esta red fue capaz de reconocer satisfactoriamente nuestras siluetas en comparación con las dadas por el conjunto de imágenes que se utilizaron para el entrenamiento y la evaluación. Además, fue capaz de hacer una distinción de cuando se le daban imágenes con perfiles laterales a cuando se trataba de los perfiles frontales o traseros.
Se propone para trabajos a futuro el entrenar esta red con más perfiles para cada sujeto para que sea capaz de hacer una detección de personas que vayan desde diferentes ángulos y en situaciones más cotidianas. También, se espera automatizar de mejor manera el algoritmo de segmentación de imágenes.
Sierra Gualdrón Camilo Andrés, Universidad de Pamplona
Asesor:Dra. Katrin Sieron, Universidad Veracruzana
ANÁLISIS DE SUSCEPTIBILIDAD E INESTABILIDAD DE LADERAS EN LA ZONA DE LA SIERRA NEVADA DE GÚICÁN, COLOMBIA
ANÁLISIS DE SUSCEPTIBILIDAD E INESTABILIDAD DE LADERAS EN LA ZONA DE LA SIERRA NEVADA DE GÚICÁN, COLOMBIA
Sierra Gualdrón Camilo Andrés, Universidad de Pamplona. Asesor: Dra. Katrin Sieron, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Se puede considerar que los riesgos geológicos están presentes en una gran parte del Planeta Tierra. Entre los fenómenos naturales que implican un potencial peligro para la sociedad, los deslizamientos de tierra o movimientos en masas son uno de los más frecuentes en ocurrir.
En el municipio de Güicán (departamento de Boyacá) se tiene la fortuna de contar con masas glaciares bajo la influencia Intertropical, una verdadera rareza a nivel mundial, motivos por el cual, es una de las zonas de mayor concurrencia de visitantes de nuestro país, convirtiendo el turismo como principal fuente de ingresos de la zona.
Pese a esta situación, es muy poco inusual contar con insumos que develen los peligros geológicos de esta zona, es especial aquellos asociados a la inestabilidad de laderas de la Sierra Nevada de Güicán.
METODOLOGÍA
METODOLOGÍA
Se llevó a cabo el desarrollo de este proyecto de investigación de la siguiente manera:
Recopilación bibliográfica: Compilación de información de diversas fuentes y temáticas, entre ellas: geológica, edafológica, de uso de suelos, datos de inclinación de las pendientes, registros climatológicos, litológicos, información de la evolución multitemporal del área glaciar, así como de uso y tipo de suelos de la zona de interés.
Adquisición de datos: consulta de diversas plataformas para la obtención y descargas de información del área de estudio disponible para integrarse a un proyecto SIG con el fin de visualizar puntos, áreas, características o rasgos específicos que permitieran evaluar si representan algún tipo de susceptibilidad asociado a la inestabilidad de las laderas de nuestra zona de interés.
Elaboración de mapas temáticos: Mediante el programa Qgis 3.18 Zúrich y la información previamente adquirida, se desarrollaron los siguientes mapas:
Pendientes: el mapa de pendientes se realizó a partir de la interpolación de información en formato Ráster y Shapefile, generando así un nuevo modelo de elevación que posteriormente fue reclasificado según la clasificación de Leyva et al. (2012)
Tipo y uso de suelos: se usó un Shapefile descargado con información de tipo y uso de suelos de todo el departamento de Boyacá; posteriormente se creó un nuevo polígono que abarcara solamente el área de estudio de interés, la parte glaciar de la Sierra Nevada de Güicán; se hizo un corte tipo máscara en el cual queda registrada la información de tipo y uso de suelos del área de estudio. Una vez obtenida las capas (3 para tipos de suelos y 1 para usos) se asignaron colores y simbologías.
Litología: Con el polígono área de estudio 1 y la información litológica de todo el departamento de Boyacá se realizó el mismo procedimiento anterior, un corte tipo máscara obteniendo esta vez 3 capas correspondientes a 3 Formaciones rocosas
Clima: el procedimiento para obtener este mapa es similar al anterior, , mediante las propiedades y la opción reclasificar se seleccionó el recuadro de climas, generando tres áreas: NP (Nival), MBE (Extremadamente frío y muy húmedo) y MBE (Subnival alpino)
Evolución multitemporal del área glaciar: se rastreó diversa información en la pagina IDEAM de procesos de degradación de masa glaciar en el área de estudio, generando 6 cortes de información por años (1850; 1955, 1994, 2010, 2012, 2014 y 2016) con nuestro polígono de área de estudio 1.
Resultados: Interpretación a partir de un análisis multifactorial.
CONCLUSIONES
CONCLUSIONES
En el área de estudio se ha podido determinar que existe un gran porcentaje de laderas con inclinaciones muy pronunciadas (entre los 30 y 45 grados), lo que representa una zona de alta susceptibilidad a movimientos en masa.
Los climas nivales se presentan en alturas mayores a los 4.700 M.S.N.M. donde la temperatura está por debajo de los cero grados y su humedad es mayor a 160 (P/ T). La litología presente en el área de estudio incluye rocas sedimentarias clásticas arenosas, intercaladas con lutitas y calizas biodetríticas. El relieve es fuertemente escarpado y el tipo de suelos de esta zona corresponde a Nieves Permanentes. En estas zonas del área de estudio predominan procesos de erosión física que debilitan las rocas sedimentarias mencionadas.
La tendencia general de las masas glaciares en la Sierra Nevada de Güicán desde el año inicial usado en este estudio (1850) se ajustan a retrocesos muy pronunciados, si se tiene en cuenta para 1850 el área de nieve era 126,6 Kilómetros cuadrados y para el ultimo año de estudio de este análisis 2016, solo 13.5 Kilómetros cuadros, siendo el intervalo de 1850 a 1955 el periodo donde se registra la mayor pérdida de área glaciar.
Silva Vargas Myrna Mariana, Universidad de Guadalajara
Asesor:Dr. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
ANáLISIS DE LOS ANTECEDENTES DE LAS SEQUíAS EN MéXICO.
ANáLISIS DE LOS ANTECEDENTES DE LAS SEQUíAS EN MéXICO.
Silva Vargas Myrna Mariana, Universidad de Guadalajara. Asesor: Dr. Juan Antonio Torres Martínez, Instituto Tecnológico y de Estudios Superiores de Monterrey
PLANTEAMIENTO DEL PROBLEMA
En la historia de México y el mundo, las sequías son distinguidas por ser un fenómeno natural, sin embargo, es una realidad que a través del paso del tiempo se han presentado modificaciones debido a factores económicos, sociales, políticos y ambientales, los cuales han dado como resultado una alteración en las precipitaciones pluviales y modificaciones en el abasto del recurso hídrico para el uso humano, aunado a que prácticamente desde la revolución industrial las ciudades han tenido un crecimiento exponencial y se han abastecido de las mismas fuentes de agua para una ciudadanía que año tras año va en incremento.
Si a los aspectos anteriores sumamos que aproximadamente cada 20 años se genera un desbalance hídrico en el ciclo del agua y las cada vez más significativas alteraciones al medio ambiente provocadas por la crisis climática, como resultado se obtienen estimaciones cada vez más imprecisas y menos confiables para la comunidad científica.
Es por ello que se buscó incidir con la recopilación de información, síntesis y análisis de la misma para la creación de una base de datos, que fuera el punto de partida para la elaboración de un trabajo de investigación de una manera integral respecto a los objetivos que se quisieran presentar en un futuro, a través de la búsqueda de soluciones que permitan comprender los ciclos naturales propios del recurso hídrico y su acceso al mismo, mientras se logra el acercamiento al cumplimiento de los Objetivos de Desarrollo Sostenible 2030.
METODOLOGÍA
El análisis se llevó a cabo con el conocimiento de que la República Mexicana no presenta uniformidad en el territorio debido a que la propia hidrografía del país es determinada por la ubicación geográfica, el tipo de clima y el relieve, esto condiciona y da pauta para un mayor análisis dependiendo de la zona de estudio que se desee analizar, debido a que según Esparza (2013) el 52% del país es considerado árido o semiárido, lo que significa que en temas de sequías se presentan dificultades para el abasto de agua y acceso a diferentes recursos naturales para todo tipo de actividad que se desee desarrollar.
Se realizó una revisión literaria en medios digitales y físicos con un enfoque general sobre las sequías en México para la elaboración de una base de datos, posteriormente se obtuvo información más específica respecto a los diferentes tipos de sequías (meteorológica, agrícola e hidrológica) así como sus niveles de intensidad: Anormalmente seco (D0), Sequía moderada (D1), sequía severa(D2), sequía extrema (D3) y sequía excepcional (D4).
Para establecer la fundamentación del trabajo, se procedió con el estudio de diversos mega proyectos como lo son presas, represas, lagos artificiales, entre otros, que se han llevado a cabo a lo largo de la historia de México en temas relacionados con la captación, el almacenamiento y el abastecimiento de agua. Así como la exploración de elementos que pudieran considerarse erróneos durante la organización, planeación y ejecución de los mismos, como lo son los desplazamientos forzados de la población, la falta de socialización de las obras con las comunidades en donde se lleva a cabo el proyecto o la ejecución con material de mala calidad, por mencionar algunos. Esto con la finalidad de poder encontrar los puntos clave a mejorar y poder plantearlos como sugerencias para futuros proyectos de esta índole y evitar retrocesos en el desarrollo de proyectos para la óptima ejecución.
Se consideraron elementos relacionados con la incidencia y gobernanza ambiental, así como el papel fundamental que juegan diversos actores políticos, tomadores de decisiones, Organizaciones No Gubernamentales, entre otros, en relación a la gestión y abastecimiento del recurso, así como los factores sociales de reconocimiento y apropiación de los proyectos con base en la propia dinámica de democratización y temas de usos y costumbres en estados como lo son del sureste del país, en donde se encuentra el recurso hídrico en mayor cantidad.
De igual forma, se contemplaron los diferentes avances tecnológicos que se han desarrollado a través del tiempo, tomando en cuenta que su evolución ha sido con base en diferentes objetivos para su uso, por lo que es necesario considerarlos como aliados fundamentales para el desarrollo de proyectos para optimizar el uso y manejo del recurso hídrico a través de una función más eficaz.
CONCLUSIONES
Durante el verano de investigación se logró establecer la fundamentación teórica para la realización de un trabajo de mayor profundidad, se presentó información sobre los tipos de sequías, sus causas, los impactos y los diferentes tipos de resiliencia a ella. También, el cómo influye los elementos gubernamentales y la capacidad de gobernanza de los diferentes estados, municipios o ejidos, a través de medidas preventivas o medidas reactivas dependiendo del lugar en donde se analice.
Sin embargo, al aún no tener definido con exactitud el enfoque de la investigación, se presenta un panorama extenso pero ambiguo, el cual, brinda una pauta para direccionarlo en el sentido que se considere más pertinente ya que, el tema de las sequías en México es una problemática real que va incrementando los efectos secundarios pero que, difícilmente se reconoce en las agendas gubernamentales. Es por ello que el estudio y elaboración de diversos trabajos de investigación, permitirá generar un hincapié para aperturar espacios de diálogo y toma de decisiones.
Sossa Valencia Kevin Andrés, Universidad Tecnológica De Bolívar
Asesor:Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
PROGRAMA EN PYTHON PARA CALCULO DE DISCOS DE GRESHGORIN
PROGRAMA EN PYTHON PARA CALCULO DE DISCOS DE GRESHGORIN
Sossa Valencia Kevin Andrés, Universidad Tecnológica De Bolívar. Asesor: Dr. Luis Loeza Chin, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Dado el conocido Teorema de Discos de Greshgorin, se planteo la creación de un programa el cual permite obtener tanto los radios como los centros de los discos de Greshgorin de una matriz.
METODOLOGÍA
Primero, se estudiaron y comprendieron los conceptos claves, como lo eran los autovalores de una matriz. Despues, se analizó el resusltado del Teorema de Greshgorin y se realizaron algunas ejemplos de aplicación. Por ultimo, se desarrollo una herramienta tecnologica que permite aplicar los principios de Teorema de Greshgorin, como son los discos de Greshgorin de las filas de una matriz, primero se realizo un borrador del codigo y luego se mejoro iterativamente.
CONCLUSIONES
Durante esta estancia de Investigación se trabajó sobre el área del Algebra lineal, específicamente se manejo un importante Teorema el cual permite localizar los autovalores de una matriz sobre el plano complejo. Ese Teorema es el Teorema de Discos de Greshgorin. A partir de este teorema se creo un programa el cual permite obtener tanto los radios como los centros de los discos de Greshgorin de una matriz.
PROGRAMA EN PYTHON
Para desarrollar la herramienta que permite usar los principios del Teorema de Greshgorin se usó el lenguaje de programación Python, por su facilidad y la creciente aplicación que esta teniendo este en las matemáticas. El código de la aplicación se divide en dos partes, una donde se encuentra la interfaz del usuario, y otro donde se encuentran las funciones que permiten realizar los cálculos necesarios.
Las librerías que se usaron en esta aplicación fueron las siguientes:
Dash: Para la interfaz gráfica, una librería que permite crear aplicaciones que se ejecutan en el navegador.
Numpy: La librería que permite el cálculo con matrices.
Bokeh: Esta es una librería especializada en la creación de graficas dinámicas, en estas se representan los discos de Greshgorin.
Sotelo Roman Grecia Valeria, Universidad Autónoma de Guerrero
Asesor:Dr. Salvador Adame Martinez, Universidad Autónoma del Estado de México
ANáLISIS DE LA SISMICIDAD EN LOS ESTADOS DE GUERRERO Y OAXACA DE 2000 A 2021.
ANáLISIS DE LA SISMICIDAD EN LOS ESTADOS DE GUERRERO Y OAXACA DE 2000 A 2021.
Sotelo Roman Grecia Valeria, Universidad Autónoma de Guerrero. Asesor: Dr. Salvador Adame Martinez, Universidad Autónoma del Estado de México
PLANTEAMIENTO DEL PROBLEMA
México está ubicado en una de las regiones de alta actividad sísmica que existe en la tierra, la cual es llamada Cinturón Circumpacífico, Cinturón de Fuego del Pacifico o también conocido Anillo de Fuego del Pacífico, dicha actividad sísmica ha provocado en nuestro país, en numerosas ocasiones, grandes desastres que vienen acompañados de pérdidas humanas y económicas.
Guerrero y Oaxaca son dos estados de mayor sismicidad en México y presentan aproximadamente el 60% de los sismos que se registran en el país y ocurren a lo largo de las costas de estos estados del sureste mexicano, incluso en el estado de Guerrero se encuentra una brecha sísmica, la cual es considera una de las zonas más peligrosas debido a la acumulación de energía que contiene y a que en cualquier momento podría liberarse.
Actualmente los riesgos por desastres naturales (incluidos los sismos) se han considerado entre las prioridades de los países a nivel mundial y justamente dentro de los 17 Objetivos de Desarrollo Sostenible que se plantearon en la Agenda 2030, se encuentra el objetivo 11 que entre sus metas está el aumentar considerablemente el número de ciudades y asentamientos humanos que adopten e implementen políticas y planes integrados para promover la resiliencia ante los desastres, además de desarrollar y poner en práctica, en consonancia con el Marco de Sendai para la Reducción del Riesgo de Desastres 2015-2030, la gestión integral de los riesgos de desastre a todos los niveles.
Por lo mencionado anteriormente es de suma importancia estar preparados, requiriendo estudios e investigaciones referentes a los sismos, a su frecuencia e intensidad y en qué zonas están ocurriendo, entre otros aspectos con la finalidad de coadyuvar en estrategias de resiliencia de las ciudades de México y del mundo.
METODOLOGÍA
La investigación se desarrolló con un enfoque metodológico cuantitativo, para lo cual fue necesario revisar los registros sísmicos reportados por el Servicio Sismológico Nacional (México) y por el Servicio Geológico de Estados Unidos con el fin de realizar
una comparación entre las bases de datos de ambas instituciones. En cuanto a México, el análisis correspondió a la sismicidad en los estados de Guerrero y Oaxaca (se seleccionaron estos estados debido a que son los estados con mayor número de sismos), tomando el periodo del 1 de enero de 2000 al 1 de enero de 2021.
Cabe señalar que se consideraron aquellos sismos que se suscitaron de magnitud 5 en adelante, debido a que a menudo son los que más suele percibir la población en general, además de considerar que la alerta sísmica pública se activa con sismos de magnitudes mayores a los 5 grados en escala Reichter, pero de igual manera se contemplaron de manera general los de menor magnitud (1 grado a 4.9 grados), para poder tener un panorama general de toda la sismicidad en ambos estados.
Para el análisis de los datos se procedió a revisar la información de los sismos obtenidos de los dos catálogos en ambos estados mexicanos y se realizó una base de datos propia con los sismos de manera general y también separando los oceánicos y continentales, respectivamente.
Posteriormente se realizó el procesamiento de datos con el fin de elaborar mapas para representar los epicentros generales y separados en continentales y oceánicos. Igualmente se llevó a cabo un análisis estadístico con la base de datos, obteniendo principalmente la frecuencia con la que ocurría cada sismo tomando en cuenta los rangos de magnitud: 5-5.9, 6-6.9 y 7+.
También se hicieron gráficas con objetivo de mostrar de manera concisa en qué años y en qué meses se presenta mayor sismicidad en el programa Excel. La elaboración de mapas fue en el programa ArcGIS, el cual es un Sistema de Información Geográfica (SIG), permite recopilar, organizar, administrar, analizar, compartir y distribuir información geográfica.
Tanto previamente como después de la elaboración de lo anterior se realizó una revisión exhaustiva de literatura sobre sismos y conceptos relacionados. Finalmente se realizó la redacción del documento de la investigación considerando los resultados y la revisión de literatura.
CONCLUSIONES
De acuerdo a lo analizado se puede decir que el estado de Oaxaca presenta un mayor número de sismos en comparación de Guerrero, en promedio en Oaxaca ocurrieron 137 sismos de magnitud mayor o igual a 5 durante el periodo tiempo estudiado, contrario a Guerrero que fueron en promedio 80 sismos, teniendo una diferencia de más de 50 sismos.
De igual manera se pueden observar variación entre los registros de Servicio Sismológico Nacional y del Servicio Geológico de Estados Unidos (USGS), en el primero se registra mayor número de sismos, además de que también se observa que se presentan mayor número de sismos en el Océano, a diferencia del USGS que son menos los que registra, y se concentran más en el continente, además de diferir
también en las magnitudes, en lo que sí coinciden es en el año y en el mes más sísmico de ambos estados.
Teniendo en cuenta que Guerrero y Oaxaca son dos de los estados de México donde más sismos ocurren anualmente se hace importante el reconocer y entender el riesgo de un sismo en esa región sobretodo para poder tomar las medidas adecuadas con el fin de tratar de mitigar lo más posible el impacto de estos en la población, y considerando que hasta la fecha no se cuenta con técnicas científicas, en ninguna
parte del mundo, que puedan determinar en qué momento o dónde ocurrirá un sismo, tampoco se puede saber qué tan grande será o qué efectos tendrá en la población.
Soto Alcaraz Miguel Angel, Universidad de Colima
Asesor:Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
COLAPSO ATóMICO
COLAPSO ATóMICO
Soto Alcaraz Miguel Angel, Universidad de Colima. Asesor: Dr. Ramon Carrillo Bastos, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
Los materiales de Dirac tienen muchas propiedades que se siguen estudiando, el grafeno es uno de estos materiales. En este proyecto se trabajó con el grafeno y se estudiaron los conos de Dirac que surgen del grafeno. Partiendo del Hamiltoniano para cuando no hay perturbaciones, se buscan las soluciones para bajas energias alrededor de estos conos. Despues en este regimén se estudia el problema de un centro puntual cargado y las correspondientes soluciones estacionarias.
METODOLOGÍA
Para resolver el problema de los conos de Dirac, primero se propuso un hamiltoniano utilizando la aproximación de amarre fuerte que funcionara para una base de dos puntos latiz tal que esta base al moverse a ciertas direcciones nos reprodujera toda la red del grafeno, a continuación se utilizó e lteorema de Bloch, este funciona para que podemos encontrar los eigenestados y los valores de energia de dicha red de grafeno. Una vez encontrados los valores de las energias, se hix¿zo una aproximación de bajas energias, es decir, de las energias que estan en terminos de varias variables, se buscaron los valores donde las energias son cero y se hizo una expansión alrededor de dichos puntos, así pudiendo hacer un hamiltoniano relativista de bajas energias con el que se sigió trabajando, a dicho hamltoniano una vez encontrado, se le aplico una transformacion de coordenadas cartesianas a coordenadas polaresy se encontraron las soluciones para cargas puntuales. Prosigiendo, se utilizó el momento angular en la dirección perpendicular a x y y, del momento total angular que los eigenvalores son conocidos, se buscaron las eigenfunciones y se utilizaron sabiendo que este junto con el Hamiltoniano comutan, las eigenfunciones se dejaron en terminos de una función radial, en el cual está en terminos generales ya que estas se encuentran para diferentes hamiltonianos, podemos llegar a las soluciones de las cargas puntuales de la misma manera que podemos llegar a las soluciones del hamiltoniano sumandole un potencial radial, la cual será encontrada con terminos numéricos.
CONCLUSIONES
Se encontraron funciones radiales para el hamiltoniano utilizando las eigenfunciones del momento angular, y lo que sigue calcular son dichas funciones radiales. Se aplicaran métodos numéricos para encontar estas del hamiltoniano al cual se le suma un potencial radial.
Soubran Cauich Alan Ricardo, Instituto Politécnico Nacional
Asesor:Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
VEHíCULOS AUTóNOMOS
VEHíCULOS AUTóNOMOS
Soubran Cauich Alan Ricardo, Instituto Politécnico Nacional. Asesor: Dr. Joaquín Gutiérrez Jagüey, Centro de Investigaciones Biológicas del Noroeste (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Los vehículos autónomos son utilizados cada vez más para desempeñar tareas más complicadas y elaboradas, en esta ocasión vehículos bioinspirados capaces de detectar información del medio ambiente y comportarse como lo haría un ser vivo en un entorno determinado. En esta investigación también se pretende comparar las conductas de estos vehículos con conductas de los seres vivos simulando y programando la reacción de estos vehículos, para que se asemejen a la reacción que un ser vivo tendría en condiciones semejantes ,este tipo de vehículos puede ser entendido desde el mundo de la psicología con características y comportamientos que los seres vivos poseen, de esta manera es posible predecir patrones y vincular nuevas formas de conducta que los vehículos pueden utilizar; y así poder asignarles tareas más elaboradas que solo con estas características podrían elaborarse.
METODOLOGÍA
Para poder llevar a cabo los experimentos, se realizaron modelos simulados en los entornos de MATLAB y Coppelia Sim.
Vehículo 1 Getting Around: Un vehículo que se acercará a una fuente cálida y se alejará de una con baja temperatura.
Vehículo 2 Fear and Agression: Dos variantes de este vehículo, uno con los sensores conectados directamente a los actuadores y el otro conectados de manera cruzada, mientras que el primero tratará de evitar la fuente el segundo se aproxima cada vez con mayor fuerza.
Vehículo 3 Love: Este vehículo tiene 3 variantes, la primera se acerca hacia la fuente de excitación de los sensores, acercándose y siguiendo la fuente, sin embargo, se mantiene distante, la velocidad disminuye conforme se acerca, la segunda se acerca pero es susceptible a la influencia de otras fuentes; finalmente la tercer variante es un vehículo multisensorial que representa la combinación de diferentes vehículos, tiende a colisionar con fuentes que excitan demasiado los sensores y permanecer donde se mantiene estable.
Vehiculo 4 Values and special tastes: Este es un vehículo que funciona en cierto rango de valores, si se excede de ese rango el actuador no funcionará.
Vehículo 5 Logic: Este vehículo actúa de manera lógica de acuerdo con el estado de los sensores, tiene un rango en el que los actuadores permanecen inmóviles, se acerca o aleja de la fuente hasta que los sensores se encuentran en icho rango establecido.
CONCLUSIONES
Con los resultados de las simulaciones se pudieron comprobar algunas predicciones de los experimentos, asignando comportamientos y programando patrones de conducta, estos patrones pueden ser estudiados, simulados y generados concluyendo así con la utilidad de generar modelos simulados y la importancia que tiene asignarle características multisensoriales a este tipo de vehículos. Los vehículos autónomos también pueden ser entendidos desde un análisis psicológico, de esta manera podemos identificarlos con características que los seres vivos poseen acercándonos cada vez más a desarrollar vehículos mucho más inteligentes y capaces de tomar decisiones en su entorno. Este tipo de prácticas además de permitirnos entender a los vehículos autónomos desde otra perspectiva; nos permite romper la barrera que delimita a las máquinas a un sentido lógico y racional, que no expresa ninguna clase de sentimientos y emociones básicas. Asignarles estas características a estos vehículos a través de programación y simulaciones cambia por completo dicho paradigma.
Finalmente conocer el comportamiento de los vehículos en un entorno natural nos acerca a poder diseñar modelos físicos que cumplan ciertas funciones en nuestra vida cotidiana, ya sea exploración, ayuda, asistencia médica, etc. Poniendo la ciencia y tecnología al servicio de la sociedad.
Sulvarán Alpuche Gibrán Jalil Gibrán, Consejo Quintanarroense de Ciencia y Tecnología
Asesor:Dra. Vanesa Magar Brunner, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
ESTIMACIóN DE LA ALTURA DE DOSEL CON APRENDIZAJE DE MáQUINA PARA LA GENERACIóN DE MAPAS DE RUGOSIDAD
ESTIMACIóN DE LA ALTURA DE DOSEL CON APRENDIZAJE DE MáQUINA PARA LA GENERACIóN DE MAPAS DE RUGOSIDAD
Sulvarán Alpuche Gibrán Jalil Gibrán, Consejo Quintanarroense de Ciencia y Tecnología. Asesor: Dra. Vanesa Magar Brunner, Centro de Investigación Científica y de Educación Superior de Ensenada (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
Las zonas con mayor factibilidad para el aprovechamiento de la energía eólica son las que cuentan con los promedios velocidades de viento más altos. Dichas velocidades se encuentran, por lo general, a lo largo de las costas, en crestas de montañas, y en las grandes planicies (NREL, 2007), por lo que suelen ser los lugares predilectos para la instalación de aerogeneradores. Sin embargo, en ocasiones es posible encontrar aerogeneradores en zonas boscosas; ya sea por la reforestación del área donde fueron instalados, o porque dicha área ha sido determinada con alto potencial eólico. Estos árboles modifican el campo de viento, al modificar el índice de área foliar (LAI), la distancia de desplazamiento, o la turbulencia ambiental, entre otros (DWIA, 2003). Existe poco conocimiento sobre las características de la turbulencia ambiental en zonas boscosas, y se teme que el campo de viento y sus fluctuaciones puedan ocasionar grandes cargas sobre los aerogeneradores, así como afectar su rendimiento (Mohr et al., 2018).
Puesto que la rugosidad influye en la turbulencia, debe ser estudiada en las zonas de interés eólico. Para esto se suele recurrir a los mapas de rugosidad los cuales permiten calcular la longitud de rugosidad (z0) y la altura de desplazamiento (d). Existen distintos modelos empleados para obtener dichos mapas, entre los que destacan: el aproximamiento objetivo de rugosidad (ORA), el método Raupach y la distribución escalar SCADIS (Floors et al., 2021). Es de señalar que estos modelos comparten la altura de dosel (h). Desafortunadamente, las campañas de muestreo de la misma con técnicas de percepción remota con LiDAR o con drones aéreos, por ejemplo, resultan por lo general costosas o limitadas a una reducida área de estudio. Por esta razón, se usan también productos de percepción remota por misiones satelitales. Además de imágenes satelitales de libre acceso, la altura de dosel puede inferirse usando técnicas de aprendizaje de máquina (AM) (Floors et al., 2021).
METODOLOGÍA
Existen distintas técnicas de AM, para este proyecto se eligió la de bosque aleatorio (RF) para trabajar en Yucatán. En otro proyecto se eligió la de redes neuronales convolucionales (CNN) para trabajar en Puebla, con el fin de realizar una comparación entre ambas técnicas en ambas regiones en etapas más avanzadas del proyecto.
Se utilizaron distintas imágenes satelitales para elaborar un algoritmo de RF para inferir la altura de dosel en un área de 40 km x 40 km, centrada en la torre meteorológica de Mérida, M02, del Proyecto de Atlas Eólico Mexicano. Las variables independientes del RF se determinaron a partir de imágenes de Sentinel 1 y 2, descargadas del sitio Copernicus de la Agencia Espacial Europea (ESA, por sus siglas en inglés); y de Landsat-8 y SRTM del sitio EarthExplorer del Servicio Geológico de los Estados Unidos (USGS, por sus siglas en inglés).
A las imágenes de Sentinel-1 se les realizó un pretratamiento y retrodispersión para visualizar sus 2 bandas radares. Para Sentinel-2 y Landsat-8, se seleccionaron imágenes con poca nubosidad para evitar su pretratamiento y seleccionar directamente las 10 y 6 bandas ópticas de interés con las que se calcularon los 8 y 6 índices de vegetación respectivamente. En el caso de SRTM, se calculó la elevación, inclinación y aspecto a partir de su única banda.
Por otro lado, se descargaron datos de IceSat-2 del sitio OpenTopography, y se graficaron en un mapa para ser ingresados como la variable a predecir. Además, se descargó un mapa de uso de suelo del sitio CEC del Sistema de Monitoreo de Cambio de Suelo de Norteamérica (NALCMS, por sus siglas en inglés) para relacionar las rugosidades a los usos de suelo. Todas las imágenes seleccionadas cubrían el mes de abril 2020 y fueron escaladas a una resolución de 20 m.
En el proceso de creación del algoritmo se realizaron varias combinaciones de los distintos productos satelitales para encontrar la que permitiera estimar la altura de dosel con la mayor precisión y el menor error posible.
CONCLUSIONES
Durante la estancia se logró adquirir conocimientos teóricos y prácticos de análisis de datos, tanto con sistemas de información geográfica (SIG) como con algoritmos de AM, para aplicaciones de energía eólica. Además de aprender o reforzar mis habilidades de programación y de SIG, experimenté el hecho de formar parte de un equipo de investigación integrado por dos investigadores y dos estudiantes de intercambio, en un estudio que se integra a un proyecto interinstitucional más grande.
Pese al corto tiempo de la estancia fue posible generar unos primeros resultados. Logramos concluir, por ejemplo, que las combinaciones de bandas radares, ópticas e índices de vegetación generan las mejores estimaciones de la altura de dosel. También concluimos que Sentinel-2 cuenta con una ventaja sobre Landsat-8, al poseer 4 bandas ópticas adicionales en el borde rojo (red-edge) que le permite generar más índices de vegetación. Pero, pese a sus buenos resultados, se obtuvo una precisión (R2) de 0.5 y un error (RMSE) de 1.90 m.
Por medio del algoritmo de RF se logró estimar la altura de dosel en el área de estudio; lo que permitió generar mapas de rugosidad con el método ORA (Floors et al., 2018), así como clasificar dichas rugosidades en los 9 usos de suelo existentes en el área. En trabajos futuros sería interesante contrastar con predicciones de alturas de dosel realizadas por otros investigadores; así como comparar con resultados de diferentes técnicas de AM para Yucatán, como la de CNN.
Además, se proponen distintos enfoques para futuras investigaciones, por ejemplo: obtener parámetros biofísicos, como el LAI, con ayuda de Sentinel-2, para la estimación de la altura de dosel y la generación de mapas de rugosidad por medio de los métodos Raupach y SCADIS; evaluar el desempeño del algoritmo de RF entrenado en Yucatán, para otras regiones con similar o diferente vegetación; calibrar las mediciones de IceSat-2 con las de drones LiDAR; o entrenar el modelo para distintos periodos de tiempo.
Tadeo Espinoza Jesus Erubiel, Universidad de Sonora
Asesor:Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
EPILEPSIA Y DESINHIBICIóN
EPILEPSIA Y DESINHIBICIóN
Tadeo Espinoza Jesus Erubiel, Universidad de Sonora. Asesor: Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El modelo de Wilson-Cowan dado por el sistema de ecuaciones diferenciales ordinarias no lineales
𝜏1u1'=-u1+F(w11u1-w12u2+I1)
𝜏2u2'=-u2+F(w21u1-w22u2+I2)
describe la evolución de la actividad excitatoria e inhibitoria en una red neuronal acoplada sinápticamente. Los parámetros clave en el modelo son la fuerza de la conectividad entre cada subtipo de población (excitatoria (u1) e inhibitoria (u2)) y la fuerza de la entrada a cada subpoblación. La variación de estos genera una diversidad de comportamientos dinámicos que son representativos de la actividad observada en el cerebro, como multiestabilidad, oscilaciones, entre otros.
Los parámetros involucrados son:
𝜏1,2: representan las escalas de tiempo en las que las poblaciones obedecen a cinéticas de primer orden.
F: representa la activación entre las neuronas.
wj,k: describe la fuerza de conexión entre la población j y la población k.
Ij: representan la suma de las corrientes que llegan a la población j desde fuentes externas.
Un modelo de epilepsia surge cuando la inhibición está parcialmente bloqueada, por lo que suponemos que se aplica un fármaco como la bicuculina, el cual tiene el efecto de reducir la fuerza inhibitoria
METODOLOGÍA
Dado el modelo de Wilson-Cowan:
u1'=-u1+F(12u1-12u2-3)
3u2'=-u2+F(18u1-4u2-5),
con F(x)=1/(1+exp(-x)), se introdujo un parámetro en el modelo multiplicando a la fuerza de inhibición, de tal manera que, para el valor p=0 la inhibición está en toda su fuerza y para el valor de p=1 la inhibición está completamente bloqueada, así, nuestro modelo queda de la forma:
u1'=-u1+F(12u1-12p•u2-3)
3u2'=-u2+F(18u1-4p•u2-5).
Una vez se introdujo el parámetro p se procedió a encontrar los puntos de equilibrio de nuestro sistema, es decir, los puntos tales que u1',u2'=0, esto para una secuencia de valores de p entre 0 y 1 con un incremento de 0.1 mediante el método de Newton-Raphson debido al sistema de ecuaciones no lineales que se forma al igualar las derivadas a 0.
Encontrados los puntos de equilibrio para esos valores de p, se observó que conforme disminuimos su valor pasamos de tener un único punto de equilibrio a tres y de tres pasamos a uno, de nuevo; debido a estas observaciones se procedió a tomar una secuencia de valores con incrementos cada vez más pequeños y con esto analizar más a detalle el comportamiento de los puntos de equilibrio.
Una vez analizado el comportamiento de los puntos de equilibrio, estos se graficaron mediante la ayuda de pplane junto con el campo vectorial generado por el sistema de ecuaciones diferenciales, teniendo esto se comenzó a analizar la estabilidad de los puntos de equilibrio mediante una linealización del sistema de ecuaciones diferenciales. Dada la estabilidad de los puntos de equilibrio se procedió a realizar un diagrama de bifurcación.
Realizado el diagrama de bifurcación se pudo observar que hay un cambio en la estabilidad en un punto de equilibrio de tipo espiral estable a un punto de tipo espiral inestable y con esto se observa que ocurre una bifurcación de Hopf, lo cual nos representa posibles soluciones periódicas para valores cercanos al punto de equilibrio donde ocurre el cambio en la estabilidad.
CONCLUSIONES
Mediante la solución numérica de nuestro modelo, se observo la existencia de ciclos limites, esto para ciertos valores del parámetro p. Y en conclusión, conforme disminuimos el valor del parámetro, es decir, sobreexcitamos nuestras poblaciones llegamos a un único punto de equilibrio estable, lo cual nos representa estabilidad entre nuestras poblaciones neuronales.
Tamayo de León Dulce, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
MONITOREO DE LA SALUD ESTRUCTURAL DEL PUENTE JUÁREZ IMPLEMENTANDO DIFERENTES ESTRATEGIAS DE PROCESAMIENTO GNSS
MONITOREO DE LA SALUD ESTRUCTURAL DEL PUENTE JUÁREZ IMPLEMENTANDO DIFERENTES ESTRATEGIAS DE PROCESAMIENTO GNSS
Tamayo de León Dulce, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Guadalupe Esteban Vazquez Becerra, Universidad Autónoma de Sinaloa
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, llama mucho la atención la tecnología satelital para la resolución de problemas, uno de ellos es el monitoreo de obras civiles, ya que el derrumbe de una estructura de tal magnitud conlleva grandes pérdidas económicas, humanas etc. El principal objetivo de este tipo de estudio es determinar si una estructura está dañada o está en óptimas condiciones para su uso. El puente Benito Juárez ubicado en Culiacán Sinaloa, es un claro ejemplo; este fue construido aproximadamente hace 45 años y con el paso del tiempo ha tenido ampliaciones en ambos sentidos, así como también la construcción de una ciclo-vía. Generalmente este tipo de obras tienden a una vida útil de 50 años, por esta razón, crea interés sumado a que el puente ya presenta grietas visibles además de sensación de vibración al paso de cargas en movimiento (automóviles), en él se han realizado varios estudios aplicado técnicas clásicas de GNSS las cuales arrojan resultados sorprendentes que apunta a un posible colapso, sin embargo diferentes autores señalan que estos tipos de estudios pueden tener ciertas alteraciones por ruidos causando errores sistemáticos (efemérides y reloj de satélite, influencia de la atmosfera, efecto multipath o multi-trayectoria). El propósito de esta investigación es comparar dos técnicas, siendo una de ellas (DD-GNSS) referencia para determinar el comportamiento de los datos y a su vez utilizar dos constelaciones (GPS + GLONASS) para la obtención de una mejor precisión en la deflexión vertical, con esto se pretende obtener un pronóstico puntual de la estructura para contribuir en la toma de decisión que defina el futuro del puente.
METODOLOGÍA
En el puente Benito Juárez se han realizado estudios con una de las técnicas mencionadas anteriormente (DD-GNSS), de acuerdo con la investigación realizada por Guzmán Acevedo (2017) en febrero 2016 y 2017, demostró que el peor desempeño se encuentra en la parte central del puente (ver Figura 1) , ya que los receptores de orden geodésico colocados en esa parte, registraron mayor probabilidad de falla hasta del 80% en las diferentes sesiones de medición, en particular la estación ZEN2 registró un desplazamiento estático máximo de 0.26 metros.
Los resultados anteriores son tomados como referencia del comportamiento del puente, por lo tanto, se tomó la decisión de estudiar la estación ZEN2 con las técnicas GNSS, colocando un receptor (Geomax Zenith 25) y en la estación de referencia se posiciono un Leica, ambos midiendo a 1 segundo de muestreo para la detección de desplazamientos, en especial los dinámicos. Se tomaron mediciones de lunes a domingo, cada día fueron tres sesiones de recopilación de datos, los cuales fueron determinados conforme a la afluencia del tráfico. Los datos geo-espaciales que se procesaran son resultado de tres sesiones del día miércoles (13/01/2016), siendo este el día que registro mayor incidencia.
Para la traducción, edición y control de calidad en los datos GNSS en formato RINEX (Receiver Independent Exchange) se utilizó el software Teqc en la terminal de Ubuntu 18.04, donde se cortó el RINEX en una hora exacta con la finalidad de depurar información, este archivo tiene una extensión .o, el cual se requiere para la ejecución de la técnica PPP-GNSS, además este archivo se utilizó para generar el análisis de calidad (qc), es un informe muy completo donde se puede observar en porcentaje de la relación entre observaciones completas y posibles (Estey & Wier, 2014), el archivo de salida es con extensión .s.
Su principal desventaja del PPP-GNSS es el error causado por el reloj de satélite y los parámetros orbitales, para mitigar estas limitantes es necesario descargar e introducir los productos precisos (. sp3, .clk, etc.) (Gao & Kongzhe 2004; Hofmann-Wellenhof et al. 2008; Pengfei et al. 2011, como se citó en Yigit, 2016). Los archivos precisos son proporcionados por el Servicio Internacional de Sistemas de Navegación por Satélite Global (IGS), actualmente se encuentran en el portal de NASA Earth Data (https://cddis.nasa.gov/archive/gnss/). El software que se empleó para el tratamiento de esta técnica, así como también de sus productos precisos fue el RTKLIB v.demo5, este realiza las correcciones necesarias en el método absoluto estático y cinemático respectivamente.
En el caso del método relativo (DD-GNSS), el post-proceso y el proceso se realizó en el software Topcon Tools v.7.5.1. donde se ingresa los datos de dos recetores, en este caso de la estación ZEN2 y de estación de referencia.
Por último, se procede a realizar el análisis de las series de tiempo en una hoja de cálculo de la paquetería de Microsoft Excel, que nos ayuda a visualizar la información gráficamente.
CONCLUSIONES
Este trabajo se centró en estudiar el comportamiento de las series de tiempo, procesadas con dos técnicas diferente, DD-GNSS siendo los datos de referencia y PPP-GNSS. En los desplazamientos aparentes a corto plazo, las soluciones están dadas en centímetros y los desplazamientos a largo plazo su comportamiento es de decenas de centímetros, en este caso se combinaron las constelaciones GPS + GLONASS, debido a esto se observó una mejor solución que al utilizar solo una constelación, sin embargo, a lo largo del procesamiento y al graficar las coordenadas de desplazamientos aparentes, se encontraron varios ruidos en los archivos RINEX de referencia, por lo cual se obtuvieron valores groseros en algunas series de tiempo. A pesar de este inconveniente se puede concluir que el Posicionamiento de Punto Preciso (PPP-GNSS) es un método alternativo para utilizar en el monitoreo de la salud estructural, ya que las series de tiempo procesadas tuvieron un buen comportamiento.
Los resultados obtenidos no son suficientes para determinar el estado o el futuro colapso del puente Benito Juárez, pero es de vital importancia que se sigan realizan monitoreos al puente para hacer una comparativa de su desempeño a lo largo de los años, con la finalidad de evitar un evento catastrófico.
Tapia Ramírez Adriana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Gerardo Romo Cárdenas, Universidad Autónoma de Baja California
ESTUDIO POR MODELACIóN MONTE CARLO DE LA PROPAGACIóN DE LUZ EN MEDIOS TURBIOS PARA APLICACIONES BIOMéDICAS
ESTUDIO POR MODELACIóN MONTE CARLO DE LA PROPAGACIóN DE LUZ EN MEDIOS TURBIOS PARA APLICACIONES BIOMéDICAS
Tapia Ramírez Adriana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Gerardo Romo Cárdenas, Universidad Autónoma de Baja California
PLANTEAMIENTO DEL PROBLEMA
La óptica biomédica considera el uso de la luz y la interacción luz -tejido para el desarrollo de técnicas de diagnóstico y tratamiento médico. Esto implica conocer cómo es que la luz se puede propagar a través de los tejidos, considerando estos como medios turbios, a fin de considerar especificaciones de irradiación para la aplicación. Ya sea que la aplicación se base en espectroscopia, ablación o se active algún fármaco como en la terapia fotodinámica.
El problema con este tipo de terapia es que se necesita encontrar un fotosensibilizador que sea congruente con la longitud de onda de luz a utilizar y que al mismo tiempo no dañe al paciente, además, en terapia fotodinámica, hay casos que se requiere estar haciendo tratamiento invasivo al paciente ya sea para el suministro de fotosensibilizador a la zona afectada o bien mismo, para irradiar con la longitud de onda activadora para un fotosensibilizador que ya se encuentra en el sistema.
Para esto, la simulación por Monte Carlo permite hacer un estudio probabilístico para definir la interacción de la luz con medios turbios para poder encontrar los parámetros con lo que se puedan determinar las aplicaciones biomédicas.
El método de Montecarlo es un método no determinista o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Montecarlo por ser la capital del juego de azar, al ser la ruleta un generador simple de números aleatorios.
El método de Montecarlo proporciona soluciones aproximadas a una gran variedad de problemas matemáticos posibilitando la realización de experimentos con muestreos de números pseudoaleatorios en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A diferencia de los métodos numéricos que se basan en evaluaciones en N puntos en un espacio M-dimensional para producir una solución aproximada, el método de Montecarlo tiene un error absoluto de la estimación
En este proyecto se estudiará por simulaciones Monte Carlo, la propagación de la luz en medios turbios como modelos de tejido para explorar aplicaciones biomédicas.
METODOLOGÍA
Técnicas emergentes para el tratamiento de enfermedades por infección antimicrobiana son las basadas en mecanismos de terapia fotodinámica, la cual es utilizada más comúnmente para aplicaciones de tratamiento contra tumores cancerígenos, pero se ha reportado su uso para la eliminación de bacterias. En esta terapia antimicrobiana, se utilizan fotosensibilizadores que son moléculas que generan especies tóxicas de oxígeno ante estímulo óptico, para que al absorber una longitud de onda especifica al fotosensibilizador, se libere un tipo de oxígeno denominado oxígeno reactivo, el cual oxida biomoléculas y destruye células. Es utilizado generalmente para tratar infecciones locales y tiene la ventaja qué debido a su rápida acción, es muy pequeña la posibilidad de que se genere un desarrollo para una resistencia al tratamiento.
Dentro del contexto de la ingeniería y las matemáticas, el modelado se define como la representación matemática de algún sistema físico. Por otra parte, un modelo de simulación computacional está definido como un algoritmo o programa computacional el cual simula cambios de un sistema modelado en respuesta a un estímulo o cambio de una o más variables.
El modelado y simulación de sistemas es una etapa fundamental en la planeación de proyectos, ya que predice el desempeño de un sistema físico previo a pruebas experimentales. Esto permite ahorrar tiempo y recursos, debido a que se abre la posibilidad de realizar modificaciones con la simple modificación de parámetros o una sección de código en un script computacional.
Los modelos para describir un sistema pueden ser categorizados como lineales o no lineales, estáticos o dinámicos, determinista o estocástico.
Monte Carlo Extreme (MCX) es un software basado en el método de Monte Carlo para la simulación de migración fotónica en medios turbios de multiples capas basado en computación paralela por medio de tarjetas gráficas. Las simulaciones MCML por lo general son para investigar la propagación de fotones a través de medios turbios y para predecir el flujo de energía o la densidad de energía en capas de distintos medios.
Para este trabajo se utilizó la plataforma MCX y se tomaron los ejemplos pre-cargados en la paquetería de dicha plataforma. De las simulaciones que se lograron realizar se pudieron medir diversos parámetros como: lanzamiento, desplazamiento, absorción y esparcimiento de los fotones.
De manera predeterminada, la salida de una simulación MCX describe la distribución de fluencia de una fuente unitaria en una ventana de tiempo establecida, pero es posible modificar la salida para que sea tasa de fluencia y densidad de energía.
CONCLUSIONES
Se realizó una revisión bibliográfica para recopilar parámetros que serán necesarios para los diseños de las simulaciones. Haciendo énfasis en cuenta que se planea simular la propagación de luz en piel, tejido adiposo subcutáneo y muscular, entre la información a investigar se encuentra: grosores de piel, tejido adiposo y músculo, fotosensibilizadores candidatos para este tipo de sistema que tengan una banda de absorción en distintas longitudes de onda, parámetros ópticos de los tejidos biológicos en las longitudes de onda correspondientes. Sin embargo, al ser un extenso trabajo aún se encuentra en la fase de determinación de los parámetros de simulación. En la simulación se explorarán distintos escenarios de grosor de piel y tejido adiposo con cada una de los fotosensibilizadores seleccionados y se sumará un escenario en el cual se incluya el músculo para observar el efecto que se tiene.
Tejeda del Ángel Dirse Danahí, Universidad Autónoma de Tamaulipas
Asesor:Mg. José Gregorio Solorzano Movilla, Corporación Universitaria Americana
MODELAMIENTO DE LA CAPACIDAD DEGRADADORA DE UN CONSORCIO MICROBIANO NATIVO SOBRE SUELOS CONTAMINADOS CON BIFENILOS POLICLORADOS A TRAVéS DE MICROCOSMOS
MODELAMIENTO DE LA CAPACIDAD DEGRADADORA DE UN CONSORCIO MICROBIANO NATIVO SOBRE SUELOS CONTAMINADOS CON BIFENILOS POLICLORADOS A TRAVéS DE MICROCOSMOS
Tejeda del Ángel Dirse Danahí, Universidad Autónoma de Tamaulipas. Asesor: Mg. José Gregorio Solorzano Movilla, Corporación Universitaria Americana
PLANTEAMIENTO DEL PROBLEMA
La contaminación de la tierra representa un serio problema ambiental, pues esta es un recurso importantísimo no renovable. Hoy en día grandes áreas de tierra se han vuelto infructíferas debido a que están contaminadas. Esto nos debe llevar a tomar acciones para prevenir estos desastres, pero hacer solo esto es insuficiente, necesitamos además remediar el daño que ya se ha hecho. Por esta razón el objetivo de desarrollo sostenible que se busca con la modelación es el de: Vida de ecosistemas terrestres; específicamente enfocado a la restauración de la tierra, lo que también contribuye a la preservación de la biodiversidad biológica.
Existen diferentes técnicas de remediación de suelos, la que se analizó fue la biorremediación, técnica implementada en el estudio de Mario Peña Freyle, Aracely García Cuan, Ana Mercedes Medina y David Rosado Porto: Evaluación de la capacidad degradadora de un consorcio microbiano nativo sobre suelos contaminados con bifenilos policlorados a través de microcosmos, estudio en el que se basó la presente modelación.
La biorremediación consiste en agregar al suelo ciertos microorganismos que degradan los compuestos contaminantes pertinentes, en este caso, bifenilos policlorados. Durante el verano se trabajó con la modelación del aumento de la absorbancia de la cepa 7 de los microorganismos, con el objetivo de poder predecir su crecimiento a diferentes tiempos debido a la relación que el crecimiento tiene con la absorbancia medida.
METODOLOGÍA
Se revisó la documentación y las estadísticas del trabajo de investigación: Análisis sobre la concentración de PCB porcentaje de degradación en microcosmos de suelo de la planta y aceite dieléctrico frente a diferentes consorcios. Asimismo se investigó sobre las características de cinco modelos de crecimiento distintos: crecimiento logístico, crecimiento maltusiano exponencial, crecimiento logístico modificado, crecimiento logístico modificado oscilatorio y método de las componentes.
Se analizaron los modelos y se decidió trabajar con el crecimiento logístico modificado en su forma diferencial. Los resultados obtenidos por medio de este modelo difieren en forma significativa de los datos experimentales y se procedió a trabajar con los datos usando filtro de Kalman. El filtro de Kalman no proporcionó resultados satisfactorios, por lo que se optó por dejar el modelo de crecimiento logístico modificado de lado y utilizar el modelo de crecimiento maltusiano exponencial.
Para el modelo de crecimiento maltusiano exponencial se calculó un valor de k diferente para cada intervalo de tiempo, método que propocionó resultados exactos de predicción dentro de los datos con los que se contaba. Para poder extender el modelo a un mayor rango de tiempo se intentó predecir los valores de k consiguientes con el filtro de Kalman. También se intentó relacionar la absorbancia con la cantidad de bacterias, pero debido a falta de datos y de tiempo la investigación concluyó en este punto.
CONCLUSIONES
Se encontró que el modelo de crecimiento maltusiano exponencial describe de forma precisa el comportamiento del incremento de la absorbancia (proporcional al crecimiento de los microorganismos), mientras se conozcan los diferentes valores de k para los intervalos de tiempo. Se espera que en futuras investigaciones se encuentre un método que prediga estos valores de k para terminar la modelación del crecimiento de los microorganismos y poder optimizarla.
Tejeda Narvaez Alejandro, Instituto Politécnico Nacional
Asesor:Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PROSPECCIóN GEOTéRMICA DE LA CIéNEGA DE CHAPALA, MICHOACáN.
PROSPECCIóN GEOTéRMICA DE LA CIéNEGA DE CHAPALA, MICHOACáN.
Tejeda Narvaez Alejandro, Instituto Politécnico Nacional. Asesor: Dr. José Martínez Reyes, Universidad de La Ciénega del Estado de Michoacán de Ocampo
PLANTEAMIENTO DEL PROBLEMA
A nivel global, las distintas naciones se encuentran en busca de llevar a cabo una transición energética a fuentes renovables de generación de electricidad, siguiendo los estatutos del objetivo número 7 de la Organización de las Naciones Unidas (ONU), el cual busca asegurar el acceso a energías asequibles, fiables, sostenibles y modernas para todos; estipulado en la agenda 2030 de Objetivos de Desarrollo Sostenible (ODS).
México no es la excepción, pues tiene como meta que para el año 2050 el 50% de su energía sea producida por fuentes limpias, por lo que la geotermia (y muchas otras alternativas) será el enfoque de muchas investigaciones y desarrollo de proyectos.
METODOLOGÍA
Para el desarrollo del trabajo de investigación en primera instancia hay que hacer un reconocimiento general y local de la zona de estudio. La ciénega de Chapala se encuentra alrededor del Lago de Chapala, comprendiendo siete municipios en Jalisco y seis en Michoacán; se encuentra al este del rift de Cítala, dentro de la provincia fisiográfica de la Faja Volcánica Transmexicana (FVTM).
La FVTM es una provincia volcánica muy particular en cuanto a su orientación geométrica (no es paralela a la trinchera de subducción), composición (desde lavas básicas hasta ácidas, incluyendo una región con lavas de tipo OIB) y génesis (que sigue en constante estudio), única en el mundo; su evolución tectónica es incluso una fuente de discusión, ya que hay evidencias de sistemas transformantes y extensivos, pero no puede detallarse con exactitud la edad de los procesos.
La configuración actual de la FVTM data del Mioceno a la actualidad; aunque la actividad volcánica en tiempos recientes es mucho menor a la registrada en épocas pasadas, aun hay algunas fuentes de calor importantes con potencial geotérmico.
Posteriormente se debe realizar una prospección preliminar, para hallar una zona de interés geotérmico, donde disciplinas como la geología, geofísica, geoquímica, hidrología y ambiental deben conjuntar todo conocimiento y datos previos de la zona para establecer el modelo inicial de un yacimiento geotérmico, que se conjunta con estudios en campo y laboratorio muy generales. Es muy importante conocer el tipo de agua y su fuente en esta etapa, ya que, dependiendo de ello, su potencial geotérmico cambiara.
Para el caso de la zona de estudio, se considera al acuífero 1607 - Ciénega de Chapala como el principal aportador de agua subterránea, aunque se ha registrado que en los últimos años el aporte de recarga ha disminuido con respecto a la demanda de agua. El agua es de tipo clorurada sódica y con la cantidad necesaria de boro y 18O para considerarse proveniente de una fuente geotérmica.
Se demostró que existen dos fuentes geotérmicas importantes. La primera son los volcanes de lodo en la localidad de Los Negritos, Michoacán, cuya temperatura es de aproximadamente 83°C. La segunda se encuentra comprendida por las fallas Ixtlán y Pajacuaran, donde hay pozos y manantiales de agua caliente que rondan entre los 48°C y los 94°C.
A través de estudios detallados para corregir y mejorar el modelo geotérmico, por ejemplo: cartografía local, composición del sustrato del suelo y subsuelo, análisis de las estructuras geológicas como posibles entrampamientos, permeabilidad de las fracturas y fallas, composición de las emanaciones gaseosas, magnetometría, etc.; puede establecerse entonces un programa de explotación y aprovechamiento, llamado estudio de prefactibilidad, el cual culmina con la elaboración de un documento que detalla el lugar de las perforaciones, posibles estudios futuros, inversiones económicas, equipo necesario, recursos humanos, la duración y el lugar donde se llevaran a cabo proyectos factibles; documento que es elaborado en conjunto por los diferentes especialistas en cada rama que ha participado en el proceso hasta ahora.
En la Ciénega de Chapala se ha encontrado una fuente con potencial geotérmico muy prometedor, estableciéndose ya algunos proyectos para aprovecharlo y poder cumplir con la meta de desarrollo sustentable de México en energías renovables.
Quizá aún falten ideas por desarrollar debido a que el proceso sigue, para poder rellenas las lagunas de conocimiento existentes sobre el lugar y poder establecer modelos más precisos sobre él que nos ayuden a llevar a cabo una explotación de los recursos geotérmicos con responsabilidad ecológica y que sean fructíferos para la población.
CONCLUSIONES
La FVTM es un punto de estudio muy interesante y desconocido, a pesar de que se han realizado diferentes investigaciones en ella, suelen enfocarse solo en ciertos puntos, por lo que la información no es representativa de toda la provincia, por lo que se sigue y seguirá intentando comprender en su totalidad.
Algunos proyectos que han sido propuestos para la Ciénega de Chapala son la implementación de una planta de cogeneración geotérmica en Cosalá, una planta de generación de electricidad por un ciclo binario en Ixtlán de los Hervores y el aprovechamiento de la fuente geotérmica en Peribán, donde se registraron temperaturas hasta de 200°C. Posteriormente deberán ser implementados, pero sin olvidar que el impacto socioeconómico y ecológico deberá ser el menor posible, por lo que será necesario un trabajo en conjunto con la población en dichas localidades.
Tirado Félix Eduardo, Universidad Autónoma de Sinaloa
Asesor:Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca
SIMULACIóN NUMéRICA DEL EFECTO SEGUNDO PICO EN LA MAGNETIZACIóN DE UN SUPERCONDUCTOR TIPO II A BASE DE HIERRO FE(SE,TE)
SIMULACIóN NUMéRICA DEL EFECTO SEGUNDO PICO EN LA MAGNETIZACIóN DE UN SUPERCONDUCTOR TIPO II A BASE DE HIERRO FE(SE,TE)
Rodríguez Murrieta Bryan Alexis, Universidad Autónoma de Sinaloa. Tirado Félix Eduardo, Universidad Autónoma de Sinaloa. Asesor: Dra. Carolina Romero Salazar, Universidad Autónoma Benito Juárez de Oaxaca
PLANTEAMIENTO DEL PROBLEMA
El descubrimiento y desarrollo de nuevos materiales superconductores tipo II es un trabajo de investigación que ha sido de interés en estos últimos años, ya que en estos se han encontrado unas mejores propiedades termomagnéticas tales como una alta temperatura crítica y un segundo campo crítico elevado. Además se han encontrado muestras que contienen material magnético, como el hierro, que no se pensaba que podían presentar superconductividad. La dinámica del flujo magnético en un superconductor tipo II que contiene hierro en sus capas superconductoras es compleja debido al cambio de fase que presenta la red de vórtices, muy por debajo del segundo campo crítico, y a la pregunta abierta de cómo afectan su estructura y morfología particular a las propiedades del estado mixto. A su vez, estos materiales están regidos por el arrastre de flujo activado térmicamente (flux creep). Este tipo de materiales superconductores tipo II no convencionales presentan las mejoras en las propiedades termomagnéticas mencionadas con anterioridad y también una baja anisotropía comparada con la de los cupratos, lo que los hace unos buenos candidatos para el progreso de diagnósticos médicos, la computación cuántica y el transporte de energía. Por lo anterior, durante el verano de investigación se modela numéricamente el efecto de un campo magnético externo DC con diferentes tasas de incremento sobre los ciclos de magnetización de un superconductor tipo II. Específicamente estamos interesados en realizar experimentos numéricos de ciclos de magnetización que presentan un segundo pico, tales como los reportados en el estudio de la relajación magnética dinámica de un monocristal de FeSe0.5Te0.5 (Tc = 14.5 K) realizado por Galluzzi et al. doi.org/10.1063/5.0010324
METODOLOGÍA
El primer objetivo fue modelar el comportamiento de doble pico en la gráfica de densidad de corriente contra el campo magnético a una temperatura de 10 K y una tasa de incremento SR del campo magnético externo de 5×10-4 T. En trabajos teóricos previos se ha logrado reproducir el segundo pico en la densidad de corriente crítica Jc(B) agregando al modelo de Kim-Anderson una función Lorentziana o una función Sigmoide, por esto es que se utilizó como base la función Lorentziana. Para realizar el modelado nos apoyamos en el software científico MATLAB, pues permite un fácil manejo de los datos y la creación de gráficas es más sencilla.
El segundo objetivo fue simular numéricamente los ciclos de histéresis del mismo material a una temperatura de 6 K para 5 SR distintos, para esto fue necesario realizar otro modelo de Jc(B) pues las curvas de magnetización son diferentes al cambiar la temperatura. Se consideró una placa infinita superconductora tipo II isotrópica que ocupa la región |x| ≤ d/2, −∞< y,z <∞ y es sometida a un campo magnético externo Ha(t) = Ha(t)z con diferentes SR. Se emplean las ecuaciones de Ampere y Faraday con las condiciones de frontera μ0Ha = B(x = 0,d) y la ley material B = μ0H, dicha ley es válida cuando el anclaje de los vórtices en el bulto del material domina el proceso irreversible de la respuesta magnética, de tal forma que excluye la influencia de los efectos superficiales o barreras geométricas. Para tomar en cuenta la naturaleza superconductora del material, se requiere un modelo fenomenológico para el campo eléctrico inducido E y para Jc(B). Se emplea una relación constitutiva no lineal Ey = ρ(J,B)Jy.
Para este caso, los modelos para Jc utilizados en el primer objetivo resultaron no ser los más adecuados. Por lo anterior, se realizó una busqueda de funciones que presentaran el comportamiento deseado. Las propiedades en las que nos basamos son: Presentar un comportamiento asintótico cuando B es cero y cuando los valores de la misma sean grandes, obtener un efecto de segundo pico asimétrico suave y ser decreciente y cóncava hacia arriba para valores grandes de la B.
Una vez se obtuvo el modelo de Jc apropiado, tenemos que el conjunto de ecuaciones anteriores definen una ecuación diferencial parcial no lineal que está controlada por Jc(B), que fue resuelta numéricamente utilizando el solucionador de MATLAB ode15s para obtener los valores de B. Con esto se calcula la magnetización promedio para cada valor de B. Los ciclos de histéresis se calcularon con una amplitud máxima de 9 T.
CONCLUSIONES
Durante la estancia de verano se logró modelar el efecto de un campo magnético DC con diferentes SR sobre los ciclos de histéresis de un superconductor tipo II que contiene Fe en las capas superconductoras. El primer objetivo se logró mediante el ajuste de la Kim generalizada mas una Lorentziana, cuya expresión es:
Jc(B)/Jc0 =1/(1 +B/Bc2)n + a1/((B/Bc2−a2)2+a32) + (−a1/((1−a2)2+a32)−1/2n)•(B/Bc2)
con n = 90, a1 = 0.017, a2 = 0.07, a3 = 0.205 y Bc2 = 8 T. Para el segundo objetivo se notó que la densidad de corriente crítica obtenida en el primer objetivo no resultó ser la función más optima para modelar el comportamiento buscado, por lo que se intentó con varias distribuciones de las que se obtuvo que la LogNormal más la exponencial
Jc(B)/Jc0 = exp[−(B/B∗)m] + ( b3B∗/B)•exp[−(log(B/B∗) - b2)2/b12],
con b1 = 1, b2 = 4.3, b3 = 10, m = 0.15 y B∗ = 0.1 T, fue la más apropiada para replicar el comportamiento de doble pico y de concavidad de las curvas de histéresis, donde la presencia de la exponencial fue fundamental para replicar el comportamiento asintótico de los datos cerca del cero y a valores grandes del campo. De los ciclos de histéresis se obtuvo μ0∆M que es la diferencia entre los peaks y onsets (el mínimo antes del segundo pico y el valor del segundo pico, respectivamente) correspondientes al incremento y al decremento de los campos magnéticos para cada SR. Se hizo una gráfica semi-logaritmica de los puntos ((μ0∆M)SR,SR), y se pudo observar un comportamiento lineal que concuerda con el sugerido al de su análoga obtenida de los datos experimentales.
Por cuestiones de tiempo, quedó pendiente modelar el corrimiento de los peaks y los onsets, en función de SR, en los ciclos de magnetización para lograr una mejor comprensión de la dinámica de los vórtices en el material.
Tolentino Parra Karen Leidy, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Katrin Sieron, Universidad Veracruzana
ESTUDIO DE LA ESTRUCTURA INTERNA DE UN VOLCáN TIPO MAAR UBICADO EN LA REGIóN DE LOS TUXTLAS A TRAVéS DEL ANáLISIS DE ANOMALíAS MAGNéTICAS
ESTUDIO DE LA ESTRUCTURA INTERNA DE UN VOLCáN TIPO MAAR UBICADO EN LA REGIóN DE LOS TUXTLAS A TRAVéS DEL ANáLISIS DE ANOMALíAS MAGNéTICAS
Tolentino Parra Karen Leidy, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Katrin Sieron, Universidad Veracruzana
PLANTEAMIENTO DEL PROBLEMA
Al sureste del país, perteneciente al estado de Veracruz, se encuentra el campo volcánico Los Tuxtlas en el cual se presenta una serie de volcanes monogenéticos que ocurren en la cercanía de grandes volcanes como el San Martín Tuxtla. Tras estudios realizados en la región se sabe que la actividad volcánica en la zona comenzó hace 7 millones de años durante el Mioceno Tardío (Terciario), mientras que los sucesos más recientes ocurrieron en tiempos históricos con dos erupciones en 1664 y 1793 (Nelson y González-Caver 1992); estos datos son obtenidos tras el análisis de cada tipo de volcán existente, entre los cuales destacan los cono de escoria y volcanes de tipo maar. Estos últimos son de gran interés, ya que las erupciones que acompañan su formación son explosivas al entrar en contacto el agua subterránea con el magma ascendente. Conocer más a fondo la estructura debajo de la superficie de estos volcanes, y las condiciones del subsuelo que llevaron a este tipo de erupciones violentas, es de gran utilidad en las estimaciones del peligro asociado.
METODOLOGÍA
Para desarrollar el trabajo de investigación se utilizaron datos tomados en el cráter El Nacimiento, uno de los volcanes tipo maar perteneciente a la región Los Tuxtlas, los cuales fueron proporcionados por el asesor. Estos datos fueron levantados con prospección magnética, en un periodo de tiempo entre el 22 y el 27 de septiembre de 2016; se realizaron 17 tendidos en total.
Se estudió en general la zona de los Tuxtlas y se elaboró el mapa de geología, para identificar los tipos de rocas presentes en la zona y de esta manera conocer a qué tipo de rocas se le podía atribuir las anomalías magnéticas presentes.
Se procedió a analizar los datos de la prospección para entender en cuestión temporal y espacial cómo habían sido tomados, lo que es importante para el pre-tratamiento de los mismos. Debido a que la obtención de los datos magnéticos se realizó con un solo magnetómetro, se hicieron mediciones de las bases cada 2 horas, esto con la finalidad de aplicar la Corrección Diurna a los datos y después de ello restarle el campo normal IGRF obtenido de Magnetic Field Calculator (NOAA) para así obtener las anomalías magnéticas.
Al hacer las correcciones adecuadas se utilizó el programa Surfer 11 para convertir los datos a un formato que pudiera leer el programa de Oasis Montaj 2017, el cual fue el utilizado para generar los mapas de anomalías.
El primer mapa generado fue el de anomalías magnéticas de campo total tras restar el campo normal IGRF a los datos de Corrección Diurna, en la cual se puede observar la presencia de anomalías magnéticas positivas y negativas.
La anomalía magnética positiva se asociaría a material mayor consolidado o a materiales con la presencia de minerales ferromagnesianos. Y las anomalías negativas estarían asociadas a material un poco menos consolidado.
Después, se calculó la Reducción de Polo del mapa de campo magnético total, donde se utilizaron los datos obtenidos de la calculadora IGRF de acuerdo al lugar y fecha de adquisición (Declinación: 1.65°, Inclinación: 47.28°, Campo Total: 40132.9 nT), con lo cual se muestra la anomalía magnética de manera monopolar, eliminando los polos E y W, generando un mapa centrado en la fuente que está generando la anomalía.
De manera complementaría y para tener una mejor interpretación de las anomalías, se generó el mapa de la Primera Derivada Vertical a partir del mapa de Reducción de Polo, el cual muestra las anomalías someras y permite muestrear y delinear bordes de los cuerpos anómalos.
Con los datos de Reducción de Polo se hizo un Análisis de Frecuencia de Señales con el fin de determinar las profundidades, de fuente, intermedia y somera; este se realiza a través del cambio del dominio de los datos de espacio a dominio de frecuencia a través de la Transformada de Fourier; se trazan líneas en el espectro de frecuencia de acuerdo al cambio de pendiente que tengan, y con el cálculo de las pendiente se divide entre cuatro multiplicado por pi, para así obtener la profundidad de la anomalía.
El resultado del cálculo reveló que la profundidad relacionada a la fuente regional es 53 m, mientras que las profundidades intermedias son de 18m y las más someras que serían atribuidas al ruido 8 m.
CONCLUSIONES
Durante la estancia del verano de investigación se logró adquirir un mayor conocimiento de los métodos potenciales, en particular de la prospección magnética y de su aplicación para el estudio de estructuras volcánicas internas.
Se buscó interpretar de manera más lógica los datos obtenidos tras aplicar los diferentes filtros mostrados y así relacionarlo de acuerdo al estudio de la geología presente.
Las líneas de anomalía positiva en el mapa de Reducción de Polo podrían estar relacionadas a un dike o sill asociado al diatrema (la parte del cráter en la superficie). Este es característico en volcanes de tipo maar; sin embargo, la anomalía observada puede no indicar que ahí se encuentre, debido a que el estudio fue realizado para zonas someras y estructuras de este tipo son de zonas profundas, sino que podría ser respuesta a lo que se encuentre a mayor profundidad.
De acuerdo a la referenciación de los puntos, las anomalías negativas, que están asociadas a material poco consolidado, en la parte NW corresponden a la presencia de un volcán tipo cono de escoria vecino y dentro del cráter al material sedimentado poco consolidado resultado de la superposición de sedimentos después de la erupción volcánica.
Se recomienda hacer más estudios en la zona, como de susceptibilidad magnética y prospección gravimétrica para tener mayor información posible, principalmente mayor información de la profundidad para poder comprobar la interpretación realizada.
Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional
Asesor:Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
MODELO BLACK-SCHOLES COMO LíMITE DEL MODELO BINOMIAL PARA OPCIONES EUROPEAS.
MODELO BLACK-SCHOLES COMO LíMITE DEL MODELO BINOMIAL PARA OPCIONES EUROPEAS.
Torres Aguilar Ishmael Benjamin, Instituto Politécnico Nacional. Asesor: Dr. Hugo Adán Cruz Suárez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Tenemos el problema de asignarle el precio a un contrato de tipo financiero, donde las dos partes involucradas, el portador y el vendedor, hace un acuerdo para la vente de un activo donde el portador tendrá el derecho pero no la obligación de comprar un activo a un precio específico a un tiempo específico, este contrato se llama call europeo, encontraremos una forma de valuarlo através del Modelo Black-Scholes visto como límite del modelo binomial.
METODOLOGÍA
Daremos por conocido el modelo binomial para una cantidad de pasos n, de ahí, trabajaremos con límites y usaremos prinicipalmente el teorema central de límite para poder llegar al resultado del modelo Black-Scholes que estima el precio adecuado para la opción del call, se puede encontrar en extenso en el siguiente link.
https://drive.google.com/drive/folders/1pm_ex6ytdjJPnhortYVY3LQFYSlPH3BE?usp=sharing
CONCLUSIONES
Se llegó al modelo Black-Scholes por medio del modelo binomial usando principalmente el teorema de límite central como principal herramienta. El modelo encontrado es de gran utilidad como un primer acercamiento a la valuación de opción de call europea, en el modelo tenemos muchos supuestos que no necesariamente se cumplen en la vida real por lo que podría ser mejorado. En el análisis del caso práctico se observo satisfactoriamente la tendencia del modelo binomial al modelo Black-Scholes corroborando así el resultado teórico.
Documento en extenso:
https://drive.google.com/drive/folders/1pm_ex6ytdjJPnhortYVY3LQFYSlPH3BE?usp=sharing
Torres Dávalos Sofía, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
SIMULACIóN DE COLISIONES ENTRE HADRONES A LAS ENERGíAS DE NICA
SIMULACIóN DE COLISIONES ENTRE HADRONES A LAS ENERGíAS DE NICA
Torres Dávalos Sofía, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Mario Rodríguez Cahuantzi, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
La física de altas energías es un campo que estudia las componentes fundamentales de la materia: sus interacciones, propiedades y elementos constitutivos. Durante el siglo XX, la física vio muchos avances tanto teóricos como experimentales, entre ellos uno que se podría considerar como la culminación de varios siglos de investigación científica y matemática: el Modelo Estándar.
El Modelo Estándar propone 4 fuerzas mediadas por partículas portadoras correspondientes: el electromagnetismo (transportada por fotones), la interacción fuerte (transportada por gluones), la interacción débl (transportada por bosones débiles), y la gravedad (mediada por gravitones, no observados).
La Cromodinámica Cuántica (QCD) es la subteoría responsible de describir la interacción fuerte. Las demás interacciones poseen sus teorías análogas, no obstante es relevante para este trabajo destacar este aspecto del Modelo Estándar. En la cromodinámica cuántica, los quarks y gluones poseen una carga especial, denominada carga de color. Esto da lugar a un fenómeno llamado confinamiento, que es la manera en que las partículas cargadas de color se juntan para formar hadrones. En condiciones atípicas de energía o densidad, los hadrones se funden en un nuevo estado de la materia llamado materia de quarks. Entender a fondo la materia de quarks ha sido de gran interés teórico y experimental. Actualmente hay laboratorios y centros de investigación dedicados al estudio de las partículas elementales por todo el mundo.
Proyecto NICA
El proyecto NICA (Nuclotron-Based Ion Collider fAcility) es un proyecto del JINR (Joint Institute for Nuclear Research) en Dubna, Rusia para la construcción y operación de un complejo de anillos superconductores en haces de colisionadores de iones pesados. Las colisiones que se planean realizar tienen como parámetros energías en el rango de 4 a 11 GeV por par de nucleones Au + Au. NICA albergará experimentos cuyo propósito expreso es explorar el diagrama de fase QCD de la materia a las energías antes mencionadas.
El momento transverso
El momento transverso (PT) es la componente del momento perpendicular al haz de partículas. Cuando ocurre una colisión, una fracción de la energía del haz escapa de la línea principal. Esto significa que mientras que las componentes del momento paralelas al haz pueden albergar partículas que no interactuaron con otras, el momento transverso siempre tiende a estar asociado con las interacciones que ocurrieron en el vértice. El momento transverso promedio (PT) de las partículas en MPD-NICA tras la colisión es menor a 500 MeV/c.
En este trabajo se buscará precisamente realizar el análisis relacionado a la propiedad del momento transverso de las partículas en un evento de colisión. El identificar partículas con un alto momento transverso es útil en la búsqueda de eventos interesantes donde ocurrieron colisiones. El evento será una simulación con los parámetros de NICA y se aislará el caso particular del momento transverso de piones y kaones.
METODOLOGÍA
El análisis de simulaciones bajo el esquema del MPD (Multi-Purpose Detector) requiere la generación de eventos Monte Carlo para reproducir las colisiones que se darían en un experimento real. Estos eventos pueden ser analizados después mediante otras herramientas.
UrQMD
Para el trabajo de simulación durante la estancia se utilizó la herramienta UrQMD (Ultra-relativistic Quantum Molecular Dynamics), un modelo basado en el lenguaje Fortran para la descripción de colisiones hadrón-hadrón, útil también a bajas energías como las de NICA. Los datos generados se exportan a un archivo de texto sin formato.
Árboles y visualización con ROOT
ROOT es un software para el procesamiento y visualización de datos creado en el CERN. Tras la generación del evento, se ejecuta una macro en la terminal-interfaz de ROOT que, a grandes rasgos, lleva a cabo las siguientes tareas:
1. Crear un archivo nuevo que contendrá al árbol empleando la clase TTree.
2. Escribir un árbol con dos ramas, una para las variables de las partículas, particle y otra que contiene los parámetros del evento, event.
3. Llenar el árbol con los datos arrojados por la simulación.
Este árbol de datos ahora nos otorga una manera más sencilla de interactuar con el evento.
Análisis
En el planteamiento se discutió la propiedad del momento transverso de una partícula. Para visualizar el comportamiento de esta propiedad durante el evento y debido a la practicidad de las estructuras tipo C al trabajar con UrQMD, se crea struct particle_t que contendrá las definiciones de variables de la partícula para nuestro programa.
Teniendo la estructura del árbol, el análisis se conduce apuntando a las ramas y hojas necesarias para extraer la información deseada. El ciclo principal es simplemente:
for (Int_t i=0;i<nevent;i++){
mychain.GetEvent(i);
g1->Fill(particle.Pt);
}
A saber, la función GetEvent(i) lee el evento completo en la memoria para llenar el histograma g1 con los datos de la hoja particle.Pt. Se realizaron dos programas similares para obtener la visualización del momento transverso: uno que analiza todas las partículas y otro que analiza únicamente un tipo de partícula, el pion, junto con su par de extrañeza -1. Esta diferencia se observa con la adición de la línea
if(particle.id==101 || particle.id==-101)
antes de comenzar a llenar el histograma.
CONCLUSIONES
Las salidas de los programas descritos son las gráficas del momento transverso. El PT promedio del evento fue 0.4527 GeV.
PT promedio sólo analizando piones = 0.3214 GeV
PT promedio sólo analizando kaones = 0.4978 GeV
Tras más de 100 ajetreados años de investigación y experimentos, el Modelo Estándar de la física de partículas ha logrado describir exitosamente muchas de las interrogantes que se tenían sobre los bloques fundamentales del universo. Aquí, la labor experimental cumple con la función de dirigir los esfuerzos teóricos y vetar aquellos que no describan apropiadamente los resultados.
Torres Moreno Dayra Berenice, Universidad Autónoma de Ciudad Juárez
Asesor:Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PROBLEMA ANISOTRóPICO DE KEPLER
PROBLEMA ANISOTRóPICO DE KEPLER
Torres Moreno Dayra Berenice, Universidad Autónoma de Ciudad Juárez. Asesor: Post-doc John Alexander Arredondo García, Fundación Universitaria Konrad Lorenz
PLANTEAMIENTO DEL PROBLEMA
El problema anisotrópico de Kepler (AKP) surge cuando se quiere estudiar la trayectoria de una partícula sometida a un potencial de Coulomb, pero que no tiene una distribución esférica de masa, por lo que su comportamiento es muy distinto a aquel que tendría con el problema de Kepler. El sistema del AKP dependerá de un parámetro µ que relaciona la distribución de masas; particularmente, cuando µ=1 se recupera el problema de Kepler, pero cuando µ>9/8 se presenta un comportamiento caótico. Lo que se quiere es encontrar las órbitas que describiría una partícula bajo el efecto de la anisotropía para algunos valores de µ.
METODOLOGÍA
Se realizó un análisis de las ecuaciones de movimiento que describen la trayectoria de una partícula en el AKP, para ello se comprobó que el sistema fuera conservativo y se obtuvo el hamiltoniano del sistema. Dado que el sistema cuenta con una singularidad r=0, se realizó un cambio a las coordenadas de McGehee para poder estudiar la superficie de colisión del sistema en esta singularidad. Una vez que se encontró dicha superficie, se obtuvieron sus puntos de equilibrio y se clasificaron como puntos silla, fuentes o sumideros, según fuera el caso; esto permitió conocer el comportamiento de las soluciones cerca de la singularidad. Para mostrar un caso más sencillo de lo anterior, se realizó el mismo análisis para el problema de Kepler, llegando así a la obtención de los resultados ya conocidos de este. Por último, para buscar las órbitas se elegirá un parámetro específico y se resolverá el sistema numéricamente ya que es no integrable.
CONCLUSIONES
Fue posible abordar el problema anisotrópico de Kepler para encontrar una superficie de colisión toroidal con bordes, mismo que permitió identificar ocho puntos de equilibrio que describen el comportamiento de las soluciones cerca de la singularidad. De la misma forma, se recuperó el problema de Kepler y se obtuvieron resultados que coinciden con las soluciones del problema ampliamente conocidas. Debido a que el AKP es no integrable, a diferencia del problema de Kepler, obtener las órbitas requiere otro tipo de métodos, lo cual queda pendiente para poder cumplir con el objetivo de encontrar la trayectoria que seguiría una partícula bajo el efecto del potencial anisotrópico.
Torres Ortiz Diego Francisco, Universidad Autónoma de Zacatecas
Asesor:Dr. José Didino García Aguilar, Instituto Politécnico Nacional
MODELOS DE QUINTA ESENCIA Y ENERGíA FANTASMA COMO ALTERNATIVAS A LA CONSTANTE COSMOLóGICA PARA EXPLICAR LA ENERGíA OSCURA.
MODELOS DE QUINTA ESENCIA Y ENERGíA FANTASMA COMO ALTERNATIVAS A LA CONSTANTE COSMOLóGICA PARA EXPLICAR LA ENERGíA OSCURA.
Torres Ortiz Diego Francisco, Universidad Autónoma de Zacatecas. Asesor: Dr. José Didino García Aguilar, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
La energía oscura es una forma de energía que produce una presión que tiende a acelerar la expansión del universo. El modelo Lambda-CDM es el modelo más sencillo para explicar el comportamiento de la energía oscura a través de una constante cosmológica. Durante este trabajo se analizan modelos alternativos llamados modelos de quinta esencia y modelo de energía fantasma que son capaces de determinar el origen de la energía oscura.
METODOLOGÍA
Se estudió la literatura tradicional de expansión del universo mediante las observaciones de Hubble. Usando esta información se obtuvieron ecuaciones del movimiento con mecánica newtoniana y relativista usando la métrica FLRW con y sin constante cosmológica, posteriormente se estudiaron las consecuencias en la evolución del universo usando estas ecuaciones.
Como alternativa a la constante cosmológica se estudiaron los siguientes modelos:
- Quinta esencia: Este modelo es un tipo de energía oscura modelada mediante un campo escalar que varía muy lentamente como función del tiempo, este se caracteriza porque la energía oscura puede ser de repulsión o atracción dependiendo de la densidad de energía en el universo.
- Energía fantasma: Este modelo es un tipo de quinta esencia con la peculiaridad de tener energía cinética negativa, un término de energía cinética está expresado como el producto de la masa y el cuadrado de la velocidad de la partícula. Este término es negativo solamente si la masa lo es implicando la existencia de partículas con masas menores que 0.
CONCLUSIONES
Los modelos alternativos a la constante cosmológica son capaces de determinar el origen de la energía oscura al ser consecuencia de la excitación del campo escalar con el que se proponen.
El modelo de quinta esencia estima que la energía oscura era atractiva hasta 3.5 mil millones de años después del Big Bang para pasar a ser repulsiva hasta nuestros días.
El modelo de energía fantasma nos lleva a evoluciones cósmicas distintas al de la constante cosmológica, pues bajo este modelo se desarrolla un universo cíclico que se expandiría hasta cierto punto para pasar a comprimirse en un proceso llamado Big Rip, concentrándose en una singularidad y expandiéndose en un nuevo Big Bang sin romper la segunda ley de la termodinámica.
Torres Ramírez Daniela, Benemérita Universidad Autónoma de Puebla
Asesor:Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PULSOS VIAJEROS CON PESOS ASIMéTRICOS
PULSOS VIAJEROS CON PESOS ASIMéTRICOS
Torres Ramírez Daniela, Benemérita Universidad Autónoma de Puebla. Asesor: Dra. Laura Rocío González Ramírez, Instituto Politécnico Nacional
PLANTEAMIENTO DEL PROBLEMA
El modelo de campo neuronal de Amari proporciona un enfoque teórico para la dinámica de la actividad neuronal en el cerebro usualmente con características homogéneas. El modelo considera que las neuronas excitatorias actúan de manera cercana a la neurona en estudio y a las neuronas inhibitorias tienen una localización más lejana a la neurona de estudio, esto permite estudiar la distribución espacial de actividades sinápticas de una neurona con las que le rodean. Además, este modelo involucra a las neuronas excitatorias e inhibitorias en conjunto a partir de ecuaciones integro-diferenciales no lineales. En este problema se plantea la posible situación de interacción sináptica espacial no homogénea, establecida mediante pesos asimétricos en el efecto de las poblaciones neuronales.
Se desea establecer una solución al sistema de ecuaciones integro-diferenciales como un bump (protuberancia) viajero. Este bump tiene una velocidad de propagación y un ancho inicial. El ancho de la onda está determinada por la región espacial por arriba de un umbral en específico.
METODOLOGÍA
En principio, a partir de ciertos parámetros que requiere el del modelo neuronal de Amari, se desea llevar la ecuación de dicho modelo a una EDO de primer orden con un cambio de variable que depende de la velocidad de la actividad y del tiempo. Además, se pretende encontrar el ancho del bump y la velocidad de la actividad neuronal. Para ello se hace un cambio de variable, para conseguir una EDO lineal de primer orden, para luego resolver y obtener una función en términos del ancho del bump y de la velocidad para encontrar dichos parámetros; tomando en cuenta, ciertas condiciones iniciales que den sentido al modelo en general.
Por otro lado, con ayuda del método de Euler, se desea obtener una solución numérica de la ecuación planteada como ecuación diferencial y comparar con los resultados analíticos que determinaron las condiciones de existencia de la protuberancia.
CONCLUSIONES
Mediante un modelo matemático y simulaciones numéricas se estableció una solución de tipo protuberancia viajera (moving bump) que establece la propagación de actividad neuronal en una población de neuronas con pesos asimétricos en la función de conectividad. Se establecieron condiciones de existencia de dicha solución con las características de ancho y velocidad de propagación. Además, mediante simulaciones numéricas se estudió la posible estabilidad de esta solución.
El desarrollo de modelos matemáticos que reflejen patrones espacio-temporales de actividad cerebral que han sido observadas en grabaciones clínicas es de gran importancia ya que permite establecer hipótesis biológicas sobre las condiciones del medio necesarias para la propagación de dichos patrones.
Torres Torrecillas Elizabeth, Universidad de Sonora
Asesor:Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
IMPACTO EN EL CRECIMIENTO TUMORAL AL IMPLEMENTAR RADIOSENSIBILIZADORES DURANTE EL TRATAMIENTO ONCOLóGICO
IMPACTO EN EL CRECIMIENTO TUMORAL AL IMPLEMENTAR RADIOSENSIBILIZADORES DURANTE EL TRATAMIENTO ONCOLóGICO
Torres Torrecillas Elizabeth, Universidad de Sonora. Asesor: Dr. Christian Chapa González, Universidad Autónoma de Ciudad Juárez
PLANTEAMIENTO DEL PROBLEMA
Existe una gran problemática en el actual tratamiento del cáncer, comúnmente se encuentra basado en radioterapia (RT) y/o quimioterapia. Teniendo como objetivo atacar a las células cancerosas, evitando su crecimiento y reproducción.
El problema radica en los efectos secundarios ocasionados al utilizar dosis altas de radiación y/o fármacos, además del tratar de regular el crecimiento tumoral respecto al tiempo y lograr ocasionar el menor daño posible a las células sanas adyacentes.Considerando las complejas características de los tumores, se continúan desarrollando y perfeccionando los métodos y los procedimientos a ejecutar en las terapias oncológicas.
Se ha observado que en recientes investigaciones, el implemento de compuestos radiosensibilizadores provoca una disminución en la dosis requerida para llevarlas a cabo. Para formar dichos compuestos, se emplea el uso de nanopartículas, ya que estas presentan beneficios gracias a su tamaño y alta biocompatibilidad, logrando disminuir la toxicidad.
METODOLOGÍA
El trabajo de revisión fue realizado con base en el protocolo PRISMA para revisiones de alcance, con el cual se optimizó el método de búsqueda y la filtración de los artículos hasta obtener los que cumplían con el objetivo planteado. Para la recolección de datos se utilizaron las bases de datos Web of Science y PubMed. El método de búsqueda implementado fue (tumor-growth OR diameter) AND (radiosensitizer OR radio-sensitizer) AND (nanoparticle*) AND (radiotherapy) AND (hypoxia OR hypoxic OR oxygen).
Para verificar la eficacia del método de búsqueda, se utilizaron las herramientas de búsqueda de PROSPERO. Para lograr formar dicho método, era necesario contar con conocimientos previos sobre la problemática de interés y de cómo se ataca actualmente. Así, lograr plantear una pregunta de investigación que pudiera ser contestada a partir de una investigación de revisión. Continuando por establecer criterios de inclusión y exclusión, tales que pudieran delimitar los textos que se deseaban extraer. En este caso se solicitaba que abordaran el tema del tratamiento del cáncer, donde estuviera presente la RT y se analizara el uso de radiosensibilizadores.
Al momento de realizar un análisis detallado, se tomaron criterios más específicos, los cuales fueran suficientes para que poder comparar la eficiencia de los distintos compuestos respecto a una relación entre el volumen tumoral relativo en tiempos establecidos, con el fin de analizar el crecimiento tumoral.
CONCLUSIONES
Dentro de los artículos revisados, se realizaron pruebas in-vivo con ratones que padecían un cáncer localizado. El tratamiento que se llevó a cabo es mediante RT de tipo Rayos-X, junto con el suministro de un compuesto radiosensibilizador. Desde que dio inicio el desarrollo tumoral, se llevó a cabo un monitoreo y registro de datos en tiempos establecidos.
Se obtuvo un análisis del comportamiento del volumen tumoral relativo (VTR), a continuación, solo se muestran los más relevantes:
Dox@AFBS+Rayos X (8 Gy)
Portador tumoral: Hela
VTR (día 0/ día 6/ 12)
RT: (1/ 1.8/ 2.4)
RT + Compuesto: (1/ 0.7/ 0.4)
α-Fe2O3@Au NPs + Rayos X (6 Gy)
Portador tumoral: 4T1
VTR (día 0/ día 6/ 12)
RT: (1/ 3/ 9)
RT + Compuesto: (1/ 1.5/ 3)
Pd NSs + Rayos X (4 Gy, 6 Gy, 8 Gy)
Portador tumoral: U14
VTR (día 0/ día 6/ 12)
RT: (1 /4 /30)
RT + Compuesto: (1/ 2/ 18)
En los experimentos logran apreciar variaciones del crecimiento tumoral de cuando se implementó a la RT como único tratamiento y de cuando se anexaba el suministro de un compuesto.
Algo resaltable es que cuando se utilizó Dox@AFBS, no solo se logró que el crecimiento tuviera un comportamiento más lento, incluso logró disminuir el tamaño del tumor en el tiempo, sin embargo, en los otros dos artículos se menciona que no se ha autorizado el uso de Dox como complemento por los niveles de toxicidad que su uso conlleva, por lo que se sigue trabajando en optimizar dicho método, sin embargo, considero que los resultados de los experimentos son prometedores.
Toxqui Toxqui Ana Karem, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
APLICACIóN DE LAS BASES DE GRöBNER A LA COLORACIóN DE GRáFICAS
APLICACIóN DE LAS BASES DE GRöBNER A LA COLORACIóN DE GRáFICAS
Toxqui Toxqui Ana Karem, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Andrés Daniel Duarte, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Una de las áreas más estudiadas de las matemáticas es la teoría de gráficas, dentro de esta área un tema de particular interés es la coloración de dichas gráficas cuyo principio consiste en dada una gráfica de n vértices con máximo un borde entre dos vértices cualesquiera, se pretende colorear los vértices de tal manera que solo se usen un número m de colores determinado de tal manera que dos vértices conectados no posean el mismo color.
La coloración de gráficas sin una metodología bien definida es difícil de lograr y en algunos casos imposible, esto debido a que no todas gráficas se pueden colorear por lo que es necesario determinar un criterio que permita saber que gráficas se pueden colorear para posteriormente obtener una coloración de estas. Existe una metodología la cual sugiere que para una gráfica de n vértices que se quiere colorear con m colores se obtenga un sistema de ecuaciones, si dicho sistema posee solución entonces existe al menos una coloración posible para esa gráfica.
Las bases de Gröbner son de peculiar interés teórico y práctico debido a la implementación algorítmica para la obtención de dichas bases, estas permiten resolver múltiples problemas; siendo los más conocidos la pertenencia de un polinomio a un ideal en particular y la resolución de sistemas de ecuaciones de n indeterminadas. Así durante el verano de investigación es necesario estudiar los resultados de bases de Gröbner que posibiliten un desenlace exitoso para el problema de la coloración de gráficas y que por medio del calculo algorítmico de dichas bases se obtengan coloraciones.
METODOLOGÍA
Dado un anillo de polinomios sobre un campo K algebraicamente cerrado se trabajó con ideales monomiales de dicho anillo, se inició con el estudio del concepto de orden monomial el cual se define como una relación > en un conjunto de monomios que satisface ser un orden total, compatible con el producto y además es un buen orden. Durante el estudio del proyecto se utilizaron tres órdenes monomiales: orden lexicográfico (lex), orden lexicográfico graduado (glex) y orden lexicográfico inverso graduado (grevlex).
En esencia un ideal monomial consiste en polinomios que son representados como combinación de los monomios que generan al ideal por lo que fue necesario definir los conceptos de multigrado, coeficiente principal, monomio principal y termino principal para dichos polinomios. Se estudio el teorema del algoritmo de la división para polinomios de n variables el cual enuncia que dado un orden monomial y un conjunto de divisores (polinomios del anillo), todo polinomio del anillo puede ser representado como una combinación de los divisores más un residuo. Se hicieron ciertas observaciones sobre dicho algoritmo siendo una de las más importante que la representación obtenida no es única y se realizaron algunos ejemplos de este.
Para el tratamiento teórico de las bases de Gröbner se estudiaron el Lema de Dickson que asegura que todo ideal es generado por un número finito de monomios y el teorema de la base de Hilbert que manifiesta que todo ideal tiene un conjunto finito generador; enseguida se definió a una base de Gröbner como un subconjunto de un ideal con cierto orden monomial que satisface que el generado por los términos principales de cada elemento de dicho subconjunto es igual al generado de los términos principales de elementos del ideal de interés. A continuación, se estudiaron algunas de sus propiedades y se procedió mediante los conceptos de mínimo común múltiplo y S-polinomio a determinar cuándo un subconjunto del cierto ideal es una base de Gröbner. Se estudio el algoritmo de Buchberger para el cálculo de bases de Gröbner y se definieron las nociones de base de Gröbner minimal y base de Gröbner reducida. Mediante el uso del programa especializado SINGULAR se realizaron el cálculo de algunas bases de Gröbner reducidas para ejemplos particulares.
Se formuló el problema de la coloración de gráficas con un número determinado de vértices y se analizó a través de ejemplos las posibles formas para colorear dicha gráfica con tres colores, en seguida se estudió una metodología que permite obtener coloraciones de estas gráficas, la cual consiste en entender a los vértices como variables algebraicas y la coloración como una aplicación sobre el conjunto de colores; finalmente se estudió su relación con las bases de Gröbner.
CONCLUSIONES
Durante la estancia de verano se obtuvieron los conocimientos teóricos relacionados a las bases de Gröbner que permitieron resolver el problema de interés, se realizaron observaciones importantes de dicha teoría de tal forma que fue posible entender las limitantes y complicaciones técnicas que conlleva, así como los métodos para solucionarlas, entre estos el uso de Software especializado.
Se llego a que el sistema de ecuaciones obtenido de la metodología de coloración de gráficas para 3 colores se puede entender como una variedad algebraica, lo cual permite un tratamiento con bases de Gröbner. Se determino mediante un teorema que, si al calcular la base de Gröbner reducida un elemento de ella es el 1, entonces dicha variedad será el vacío, con lo que la gráfica no podrá ser coloreada. Para aquellos casos donde es posible ser coloreada se puede obtener una coloración observando las relaciones entre los elementos de la base de Gröbner reducida obtenida. Mediante análisis y observación se llego a que dicha metodología puede ser aplicada para cualquier número de colores, sin embargo, es necesario tener presente la limitante algorítmica que implica considerar un mayor número de colores.
Durante el desarrollo del proyecto fue posible apreciar la utilidad que tienen las bases de Gröbner y como estas se pueden extender a otras áreas de las matemáticas como una herramienta para solucionar otros problemas, de forma que dicha investigación podría ser extendida a otras aplicaciones o estudios teóricos más formales dentro del área de álgebra.
Trujillo Rodríguez Itzy Mareli, Universidad Autónoma de Zacatecas
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
TECHO VERDE CON ACUAPONíA EN LOSAS ELABORADAS DE PET
TECHO VERDE CON ACUAPONíA EN LOSAS ELABORADAS DE PET
Trujillo Rodríguez Itzy Mareli, Universidad Autónoma de Zacatecas. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
El impacto de la construcción sobre el ecosistema se ha convertido en un asunto de importancia (Zolfagharian, 2012). Los impactos adversos para el medioambiente son: desechos, ruido, polvo, residuos sólidos, generación de tóxicos, contaminación del aire y del agua, malos olores, cambio climático, uso del suelo, operaciones con remoción de la vegetación y emisiones peligrosas. Las emisiones al aire son generadas por los gases de los escapes de los vehículos y el polvo durante la etapa de construcción (Kaur y Arors, 2012). Estas emisiones contienen CO2, NO2 y SO2 (Kaur y Arors, 2012; Li et al., 2010; Pittet y Kotak, 2012).
La investigación nace a partir de la inquietud que surge debido al deterioro ambiental que se ha dado en los últimos años en todo el planeta y por una acción desesperada de contribuir a la preservación del ambiente o disminuirlo de alguna manera.
La investigación se enfocará en el uso de un techo verde con acuaponía para contrarrestar en el impacto ambiental que causa la construcción además de evaluar y examinar los inconvenientes y beneficios a la vivienda y a los residentes para llegar a una conclusión.
El objetivo principal de esta investigación es conocer el funcionamiento del este sistema, cómo se puede implementar, cuáles son las ventajas y desventajas y qué parte de la población puede tener acceso a ello.
METODOLOGÍA
Esta investigación es meramente documental por lo que no se hizo ningún tipo de experimento o prototipo sin embargo toda la información recabada es de fuentes confiables como artículos de revista o periódico, tesis, artículos de marcas que son expertas en el tema, entre otras.
Los temas fueron investigados de manera individual ya que en conjunto había muy poca o casi nada de información, inició de una manera muy general y conforme la información se hizo mas amplia se complementaron las ideas y se respondieron las interrogantes planteadas.
Primero se investigó acerca de la arquitectura bioclimática sus principales aspectos y que se necesita para que una construcción se considere bioclimática, el confort humano de qué depende y cómo se mide.
Después el sistema constructivo con pet o losas de pet sin embargo no hay información tan específica por lo que no se recabó mucha información acerca del tema.
Posteriormente entrando un poco más en el tema la investigación se centró en el proceso de la acuaponía ventajas y desventajas, que tan fácil es mantenerlo, las características, lo que se necesita, y para qué sector de la población podría funcionar.
A continuación, se revisaron datos estadísticos de INEGI 2018 en donde se puede observar que porcentaje de la población tiene posibilidad de instalar un techo verde de acuerdo con las estadísticas de los materiales utilizados en las viviendas, así como el espacio que se requiere también se inspeccionaron los salarios mínimos y los ingresos promedio de la población de México para tener información más real.
CONCLUSIONES
Durante las 7 semanas de la estancia de verano se aprovechó para desarrollar la investigación con las herramientas y asesorías que brindo el investigador. En base a eso se llegó a las conclusiones siguientes:
Las azoteas verdes no están al alcance de todos debido al costo que tienen considerando el salario mínimo promedio y los ingresos solo una pequeña porción de la población tendría posibilidad de invertir en eso.
Una azotea verde puede brindar muchos beneficios también ya que mejora la calidad del aire, aprovecha más del 50% del agua de lluvia, ayuda a regular el clima en el interior de la vivienda por lo que se gastaría menos energía en las casas que requieren de un sistema de calefacción o de aire acondicionado. (Gruppe, 2015)
La acuaponía es una alternativa sostenible debido a que es un sistema en donde se le da un uso a cada recurso si echamos un vistazo la principal problemática en la acuicultura tienden a ser los desechos orgánicos de los peces que si su ambiente no cuenta con el cuidado suficiente esto puede ser motivo de enfermedades en los mismos y termina por tirarse de nuevo los ríos y en la hidroponía se necesita de distintas soluciones para mantener los cultivos sanos y con ciertas características pero si se juntan estas dos actividades no se desperdicia uno ni otro por lo que los productos son orgánicos y no generan desechos.
En cuanto al uso de pet en losas no hay información que me permita indagar más allá sin embargo sería una buena opción implementarlo en cualquier elemento constructivo para así disminuir los desechos y darles un uso funcional.
Unda Sánchez Mariana, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
ESTIMACIóN DE VELOCIDADES DE VIENTO SOLAR UTILIZANDO OBSERVACIONES DE
LA FUENTE DE RADIO 3C48 @ 140 MHZ Y 111 MHZ CON LOS
RADIOTELESCOPIOS MEXART Y BIG SCANNING ARRAY
ESTIMACIóN DE VELOCIDADES DE VIENTO SOLAR UTILIZANDO OBSERVACIONES DE
LA FUENTE DE RADIO 3C48 @ 140 MHZ Y 111 MHZ CON LOS
RADIOTELESCOPIOS MEXART Y BIG SCANNING ARRAY
Unda Sánchez Mariana, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Ernesto Aguilar Rodríguez, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
El estudio del clima espacial es algo muy importante ya que las variaciones en los componentes del clima espacial (densidad, campo magnético, temperatura y velocidad del medio interplanetario y actividad solar) pueden llegar a afectar a la tierra, tanto a nuestros sistemas tecnológicos como a la salud.
El centelleo interplanetario proporciona información de las variaciones de la densidad de electrones y la velocidad VS en ese punto, ya que lo que ocasiona este centelleo es la dispersión de las ondas de radio debido a discontinuidades o irregularidades de densidad electrónica del plasma interplanetario.
Los datos que se ocuparon para esta investigación provienen de dos Radiotelescopios los cuales son:
MEXART (Mexican Array Radio Telescope) cuyo principal objetivo es hacer observaciones de centelleo interplanetario (CIP). Se encuentra en el Observatorio DE Centelleo Interplanetario del Instituto de Geofísica de la UNAM, localizado en Coeneo, Michoacán. Este está diseñado para detectar radio fuentes de radio a 140MHz, y también vigila las tormentas solares que pueden alcanzar la Tierra.
BSA (Big Scanning Array), se encuentra en el Observarorio Pushino Radioastronomy Observatory (PRAO en inglés), a 120km al sur de Moscú, administrado por el Instituto de Fı́sica de Lebedev (LPI en inglés)
METODOLOGÍA
Para proceder con el análisis de los datos del centelleo interplanetario dados por ambos telescopios mencionados anteriormente, en primera instancia se tuvo que adaptar la computadora a utilizar, realizando una partición del disco, para así poder trabajar con el sistema operativo linux a la par que con el sistema windows.
Una vez hecha esta partición se procedió a instalar el lenguaje de programación IDL, así como diversas librerías que nos ayudaran a procesar los datos de mejor forma. Los datos a analizar así como el programa base para implementar rutinas de filtrado de las interferencias fueron dados por el Dr. Ernesto Aguilar, el programa base se modificó con base a las necesidades del alumno por el mismo.
El programa nos permite (a) graficar las series de tiempo de los datos de la fuente de radio 3C48; (b) graficar la transformada de wavelets; (c) elegir una ventana de un minuto antes y después del pico de la emisión para calcular el espectro de potencia (crudo y suavizado); (d) salvar los datos de los espectros de potencia en archivos. Se creó una base de datos en la que se escribieron los resultados obtenidos de la caracterización del ruido instrumental de los radiotelescopios MEXART y BSA. Esta base de datos posteriormente nos servirá para hacer el cálculo de velocidades.
CONCLUSIONES
Durante la estancia en el programa Delfín se adquirieron conocimientos sobre el fenómeno de centello interplanetario, radio astronomía, el uso del sistema operativo linux, así como el uso de un lenguaje de programación (IDL), estos nuevos conocimientos serán muy útiles en el futuro si se desea seguir en la rama de física espacial.
Del análisis de datos iniciales se realizaron dos gráficas de tiempo vs m (indice de centelleo); El comportamiento esperado es que el índice vaya en acenso conforme al tiempo hasta un punto máximo y luego baje.
Gráfica 1: Datos de BSA, se pude apreciar que se generan tres curvas que cumple con lo antes dicho, sin embargo, también hay bastantes puntos que salen de la curva debido a datos que presentan demasiada interferencia que no es posible ignorar.
Gráfica 2: Datos de MEXART, lo datos se encuentran dispersos, no siguen una curva establecida esto es debido a que la mayoría de los datos presentan interferencias, por lo que se deberá hacer una limpieza de éstos.
Debido a la cantidad de datos que se tuvieron que analizar, dificultades personales, problemas con el código y la computadora, no se pudo llegar a la parte del calculo de velocidades, lo cual se espera poder realizar posteriormente.
Valadez Lorena Leslie Yossia, Universidad Autónoma de Zacatecas
Asesor:Dra. Claudia Moreno González, Universidad de Guadalajara
SOLUCIóN NUMéRICA DE UN SISTEMA BINARIO DE HOYOS NEGROS.
SOLUCIóN NUMéRICA DE UN SISTEMA BINARIO DE HOYOS NEGROS.
Valadez Lorena Leslie Yossia, Universidad Autónoma de Zacatecas. Asesor: Dra. Claudia Moreno González, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
La teoría de la relatividad general de Einstein, enuncia que ninguna información puede viajar más rápido que la velocidad de la luz, predice un cambio en el campo gravitatorio el cual se propaga a velocidades lumínicas, a estos cambios en el campo gravitatio los conocemos como ondas gravitacionales (OG), las cuales son producidos por toda la materia, sin embargo, las OG detectables son producidas por una supernova, sistemas binarios de estrellas masivas y colapsos gravitacionales como los de hoyos negros. El problema de los dos cuerpos puede ser analizado bajo el principio de mínima acción y a partir de este, podemos analizar el sistema físico tanto en la mecánica clásica como en la mecánica relativista. Este principio de mínima acción nos conduce al estudio de trayectorias geodésicas.
Analizar este tipo de sistemas relativistas resulta más eficiente de manera teórica, con métodos numéricos por ejemplo, se obtiene información sobre ello, siendo éste el propósito de este trabajo.
METODOLOGÍA
Se revisó la teoria relativista.
Se estudió una breve introducción a las ondas gravitacionales.
Realizamos un análiss del método Killings vectors, seguido del tema "Te curvature one forms"
Se estudió la métrica de Schwarschild, para posteriormente abodar las geodésicas en el mismo espacio, así como las ecuaciones del vacío.
Proceguimos con el análisus del problema de los dos cuerpos desde la mécanica clásica, para llegar a las órbitas Newtonianas y a la linealización de las ecuaciones de Einstein.
Analizamos las geodésicas en el espacio de Schwarzschild, desde un enfoque númerico con el software Python, en el cual se consideraron variables como la masa, el momento angular y la posición inicial del objeto. Dicho programa está basado en el método numérico Runge-Kutta.
Finalmente, con la información ya mencionada anteriormente, se estudiaron las ecuaciones de movimiento de un sistema binario de hoyos negros en la teor´´ia linealizada, así como la ecuación de onda y su implementación numérica en un sistema de hoyos negros.
CONCLUSIONES
Las ondas gravitacionales son una solución a las ecuaciones de Einstein en la teoría linealizada.
La detección de las ondas gravitacionales por los interferómetros LIGO-VIRGO confirma la teoría de la Relatividad General.
El análisis de Ondas Gravitacionales nos aporta información sobre la dinámica de agujeros negros.
La información obtenida por métodos númericos ayuda al avance de la ciencia, pues muchas veces no es posible confirmar las predicciones a temprana edad, como es el caso de las Ondas Gravitacionales, que fueron detectadas hasta el 2015, sin embargo, tener un panorama teórico nos permite seguir construyendo esas ideas.
Valdez Prudencio Victoria Guadalupe, Universidad de Colima
Asesor:Dra. Maria Angelica Salazar Aguilar, Universidad Autónoma de Nuevo León
OPTIMIZACIóN DE MODELO PARA PLANIFICACIóN DE RUTAS.
OPTIMIZACIóN DE MODELO PARA PLANIFICACIóN DE RUTAS.
Valdez Prudencio Victoria Guadalupe, Universidad de Colima. Asesor: Dra. Maria Angelica Salazar Aguilar, Universidad Autónoma de Nuevo León
PLANTEAMIENTO DEL PROBLEMA
Una empresa de telecomunicaciones cuenta con cuatro matrices distribuidas en
la ciudad, cada una tiene diferentes centros de trabajo en los cuales se cuenta
con una plantilla de técnicos con diferentes habilidades y horarios de trabajo.
La empresa ofrece siete diferentes tipos de servicios y a cada uno de ellos se
les asocia un puntaje determinado dependiendo de la dificultad del servicio. El
salario de los técnicos es directamente proporcional al puntaje obtenido. Se
busca encontrar una ruta para cada técnico de manera los puntajes obtenidos
estén bien balanceados y por consecuencia, los sueldos entre técnicos no varíen
mucho, tomando en cuenta las resstricciones del problema, tales como jornada
laboral, compatibilidad técnico-orden, entre otras.
METODOLOGÍA
El modelo matemático describe las rutas que son llevadas a cabo por cada uno
de los técnicos, así como sus reestricciones. Este modelo es escrito en GAMS, y
se utiliza el solver MIP para minimizar la función objetivo. El programa genera
una ruta para cada técnico, tomando en cuenta las reestricciones. El modelo
fue probado para diferentes instancias, en las cuales se consideran diferentes
jornadas laborales y la compatibilidad técnico-orden cambia.
CONCLUSIONES
Ambos modelos tienen sus ventajas; el tradicional muestra una productividad ligeramente mayor, sin embargo, los puntajes entre los técnicos varían mucho, por lo tanto, los sueldos se ven desvalanceados. Por el otro lado, el modelo propuesto disminuye las diferencias entre puntajes significativamente. La literatura menciona diferentes funciones objetivos, las cuales pueden ser aplicadas a este problema.
Valenzuela Báez Julissa Nathaly, Universidad Autónoma de Sinaloa
Asesor:Dra. Adela Becerra Chávez, Universidad Politécnica de Querétaro
TECNOLOGíA EDUCATIVA APLICADA A LA ENSEñANZA-APRENDIZAJE DEL CáLCULO VECTORIAL
TECNOLOGíA EDUCATIVA APLICADA A LA ENSEñANZA-APRENDIZAJE DEL CáLCULO VECTORIAL
Valenzuela Báez Julissa Nathaly, Universidad Autónoma de Sinaloa. Asesor: Dra. Adela Becerra Chávez, Universidad Politécnica de Querétaro
PLANTEAMIENTO DEL PROBLEMA
En ingeniería hay muchos procesos o áreas que hacen uso del cálculo vectorial que se ocupa del estudio de los incrementos en las variables, pendientes de curvas, valores máximos y mínimos de funciones de varias variables y de la determinación de longitudes, áreas y volúmenes. El desarrollo y uso del cálculo ha tenido efectos muy importantes en casi todas las áreas de la vida moderna. Es base para casi todos los campos científicos, en especial, la física. Prácticamente todos los desarrollos técnicos modernos hacen uso del cálculo. Muchas fórmulas algebraicas se usan hoy en día en balística, calefacción, seguros, análisis y diseño de edificios, etc.. El proyecto tiene como objetivo el diseño de material didáctico que abone a los logros de aprendizaje de la asignatura de cálculo Vectorial en particular el tema de superficies en el espacio ya que en la Universidad Politécnica de Querétaro se ha observado que es uno de los que más le cuesta al alumno asimilar.
METODOLOGÍA
La metodología que se siguió en el proyecto fue establecer una estructura de la construcción de superficies iniciando la construcción de cónicas en R2 y de esa manera poder construir en R3. El resultado obtenido es contar con la secuencia de conceptos ejemplos, ejercicios y problema reto de la construcción del elipsoide con un enfoque geométrico y muy visual que llame la atención de los estudiantes y los motive.
CONCLUSIONES
Se continua trabajando con el desarrollo de una segunda etapa, con la construcción de una aplicación web que permita al estudiante consultar continuamente para reforzar su conocimiento en diseño de superficies y con ello una mejor comprensión en otras asignaturas o problemas de aplicación
Varela Pérez Jaret Wendolyn, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
SíNTESIS Y CARACTERIZACIóN EN TIO2 DOPADO CON AU Y AG POR EL MéTODO DE COMBUSTIóN MODIFICADO.
de la Rosa Flores Gregory, Benemérita Universidad Autónoma de Puebla. Paz Saavedra Marcos, Benemérita Universidad Autónoma de Puebla. Varela Pérez Jaret Wendolyn, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Rubén Jonatan Aranda García, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
Existen diversos métodos de síntesis de TiO2, como el método Sol-Gel, el método de Micela y Micela Inversa, el método Hidrotermal, el método de oxidación directa, entre otros. La importancia de su producción reside en las propiedades que este material posee como fotocatalizador, el dióxido de titanio posee la propiedad de degradación fotocatalítica de contaminantes orgánicos usando la radiación solar disponible en nuestro planeta. El TiO2 puede mejorar su actividad fotocatalítica por la radiación recibida a través de la luz visible. Se ha propuesto mejorar las propiedades superficiales del TiO2 mediante el dopaje con metales. En especial mediante la incorporación de metales de transición como iones dopantes, con la intención de extender la absorción de la luz del material en la región visible del espectro de radiación electromagnética, siendo el Au y la Ag algunos metales que reúnen las características necesarias para mejorar la absorción del TiO2.
METODOLOGÍA
El método de combustión es una técnica viablemente económica y muy fácil para preparar cerámicas y nanomateriales, algunas de las características más importantes son los calentamientos rápidos y tiempos de reacción cortos. Es una técnica de reacción redox exotérmica que produce polvos finos homogéneos de óxido metálicos y comienza con la formación de una solución acuosa que contiene un oxidante fuerte, el nitrato de un metal y un combustible orgánico para después calentar la solución hasta evaporar el agua, al no tener presencia de agua, la mezcla enciende espontáneamente por la combustión del nitrato del metal y el combustible formando polvos finos, liberando gases como N2, CO2, y H2O. Algunas ventajas de esta técnica son:
Empleo de equipo relativamente simple (parrilla eléctrica, mufla, centrífuga).
Condiciones de preparación simples como la calcinación y la pulverización.
Formación de productos de alta pureza.
Estabilización de fases metaestables.
Los compuestos se forman en sólo 5 minutos de calentamiento.
A continuación, se describe la obtención y depósito de nanopartículas de Ag sobre dióxido de titanio por el método de combustión.
Para el proceso se coloca una mezcla que contiene Urea, TiO2, AgNO3 y H2O tridestilada, dicha mezcla se homogeniza en un vaso de precipitados con 5 mL de agua tridestilada para llevarla a evaporación en una parrilla eléctrica a temperatura de 60 a 70 °C.
Posteriormente la mezcla homogeneizada se deposita en un crisol de porcelana y se introduce en una mufla marca FELISA modelo FE361 precalentada a 800°C durante 5 minutos.
Las muestras se someten a 5 lavados con agua tridestilada en una centrífuga Herme Labnet Z206 a 6000 rpm por 5 minutos cada lavado, con el propósito de eliminar residuos de carbono productos de la combustión. El secado se realiza en un horno BINDER durante 24 horas a temperatura de 40 °C.
Un proceso similar es requerido para el dopaje de partículas de oro, esta vez utilizando hidróxido de oro como precursor.
CONCLUSIONES
Durante la investigación, se encontró que existen más metales que se utilizan como dopantes, cada uno de ellos tiene un efecto diferente en la generación de pares electrón-hueco, por lo que se altera su permanencia sobre la superficie durante la carga transferida en la interfase, cabe destacar que estos dopantes pueden ocupar diferentes posiciones en la estructura cristalina del material, todo esto da como resultado que la eficiencia fotocatalítica sea variada, según el metal que se utilice.
Durante nuestra estancia, estudiamos y analizamos diferentes métodos de obtención de TiO2 mediante diversos artículos científicos, aprendiendo más sobre las diferentes técnicas de caracterización de nanomateriales, como es el caso de la Difracción de Rayos-X (XRD), la Microscopía Electrónica de Barrido (SEM), el Análisis Termogravimétrico (TGA) y la Espectroscopía UV-vis.
Si bien, la situación social actual nos negó la posibilidad de desarrollar una estancia presencial, durante este proceso de investigación hemos incorporado muchos nuevos conocimientos que nos permitirán formar parte de proyectos futuros relacionados con los nanomateriales y los fotocatalizadores para dar respuesta a severos problemas ambientales.
Durante la estancia se lograron adquirir conocimientos básicamente teóricos sobre la síntesis y caracterización de TiO2 dopado con Au y Ag, al ser una estancia virtual no fue posible llevar a cabo las pruebas experimentales respectivas. No obstante, el análisis, selección y discusión de toda la información recopilada muestra la amplia investigación que existe sobre el TiO2 dopado con iones metálicos y las aplicaciones potenciales de este material en la degradación de distintos colorantes.
Vázquez Limón Carlos Eduardo, Benemérita Universidad Autónoma de Puebla
Asesor:Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
MODELOS GEOESPACIALES DE LA DISTRIBUCIóN DE METALES PESADOS EN LA CIUDAD DE GUADALAJARA, JALISCO
MODELOS GEOESPACIALES DE LA DISTRIBUCIóN DE METALES PESADOS EN LA CIUDAD DE GUADALAJARA, JALISCO
Vázquez Limón Carlos Eduardo, Benemérita Universidad Autónoma de Puebla. Asesor: Dr. Fredy Ruben Cejudo Ruiz, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
La contaminación en la ciudad de Guadalajara por metales pesados se debe a la emisión de partículas de la actividad antropogénica, donde sus principales fuentes son, el desgaste de automóviles, agricultura, minería y metalurgia. La acumulación de metales pesado ocurre en los sedimentos urbanos, suelo y organismos vivos, lo cual incrementa la concentración natural, la continua adición de partículas puede llegar a niveles altos que son considerados tóxicos y generar problemas de salud y ambientales graves.
El objetivo de este proyecto fue evaluar la concentración de elementos tóxicos y potencialmente toxico en la ciudad de Guadalajara en muestras de polvo urbano partiendo de los límites permisibles establecidos por las Normas Oficiales Mexicanas (NOM) y así como de valorar y proponer un factor de concentración regional para la ciudad, con el fin de evaluar el grado de contaminación de la ciudad mediante el cálculo del índice de carga contaminante.
METODOLOGÍA
El área de estudio fue la Zona Metropolitana de Guadalajara (ZMG), la cual cubrió una superficie de 850 km2 aproximadamente, se recolectaron 134 muestras de polvo urbano, las cuales estaban a distribuidas en un modelo de muestreo sistemático rectangular.
Las mediciones de concentración del PU fueron obtenidas mediante espectrometría de Fluorescencia de Rayos X (FRX) de energía dispersa, las cuales fueron corregidas con curvas de calibración para las mediciones del cromo (Cr), cobre (Cu), hierro (Fe), níquel (Ni), plomo (Pb), vanadio (V) y zinc (Zn) y su respectivo error mediante los estándares de FRX de la serie IGL-Instituto de Geología de la UNAM.
Se llevó a cabo un análisis exploratorio de datos de concentración de metales pesados de las 134 muestras de polvo urbano de la ciudad de Guadalajara. Posteriormente, se hizo una comparación entre las concentraciones medidas y los límites permisibles definidos por las NOM para suelos contaminados.
Se estableció un criterio de concentración de fondo para el PU debido a la naturaleza y diferente matriz que guarda el PU con el suelo.
Para establecer el estado de contaminación en la ZMG, se determinó el factor de concentración (CF, por sus siglas en ingles) para cada muestra y para cada elemento como: CF=CmSample/CmBacground
Donde CF representa el factor de concentración, Cm sample es la concentración de la muestra y CmBackground es el valor de concentración de fondo.
Seguidamente, se calculó el Índice de Carga Contaminante (PLI, por sus siglas en inglés) para identificar el grado de contaminación de por metales pesados en cada sitio de la ZMG, el cual se determinó con;
PLI=sqrtn(CF1*CF2*CF3...CFn)
Donde PLI representa al el Índice de Carga Contaminante, n es el número de metales analizados y CF es el factor de concentración.
Los valores de PLI tiene una interpretación simple, si PLI muestra valores iguales o menores a 1 es un sitio no contaminado, quiere decir que es una zona con una excelente calidad. Sin embargo, si PLI es mayor que 1 entonces, es un sitio que presenta deterioro por contaminación de metales pesado (Tomlinson et al., 1980; Cejudo Ruíz et al, 2015).
El análisis exploratorio de datos permitió identificar varios valores atípicos de concentración, los cuales se encontraron por debajo del límite de detección del equipo de FRX. Las concentraciones de Cr y V fueron las que presentaron valores atípicos.
Se hizo una clasificación de datos por uso de suelo, utilizando los planos de desarrollo urbano de la ciudad de Guadalajara con el fin de postular el valor de concentración base en términos del uso de suelo residencial para cada uno de los elementos.
Los límites permisibles para las muestras de PU de la ZMG se encuentran por debajo de la norma para Cr, Ni y Pb, mientras que, hay muestras de PU con concentraciones de Cu, V y Zn por arriba de la norma oficial mexicana. La concentración de hierro es variable, como era de esperarse por el ambiente volcánico en donde se encuentra construida la ciudad, los sitios que exhibieron una alta concentración de hierro probablemente se deba a un origen antropogénico.
Se hace para obtener el valor de fondo para cada elemento mediante el uso de los tipos de suelo de baja acción antropogénica, en este caso, se utilizó un aproximado de la media para el tipo de suelo residencial.
Como parte del análisis geoestadístico, se obtuvieron los variogramas del factor de concentración de los elementos para así realizar los modelos de interpolación Krigin y obtener un modelo de concentración para cada elemento y para el PLI de la ciudad de Guadalajara.
Por ultimo los mapas de interpolación ayudan a facilitar la identificación de las zonas afectadas por la contaminación de metales pesados.
CONCLUSIONES
Se encontraron varias zonas de la ciudad con niveles altos de concentración de metales pesados, principalmente en la zona centro, sureste y en la proximidad de la zona industrial. Los sitios cercanos a vialidades primaria presentaron concentraciones de metales pesados, por lo que el alto nivel de tránsito vehicular, establecimientos comerciales son factores que favorecen la concentración de metales pesados.
Actualmente, solo se cuenta con una generalidad de los límites permisibles de contaminantes para suelo para todo el país, lo que no resulta adecuado para cada uno de los estados, ya que el territorio mexicano tiene una gran diversidad de suelo y entonos urbanos, por tal motivo es necesario plantear niveles de concentración base para metales pesados considerando el tipo de matriz y la región, lo cual complementara los valores de la NOM. Se recomienda, evaluar la concentración de fondo para este tipo de estudios, con el fin de determinar de manera más precisa el riesgo de contaminación por metales pesados para las ciudades.
Vazquez Peña Maria Guadalupe, Benemérita Universidad Autónoma de Puebla
Asesor:M.C. Cruz Vargas de León, Universidad Autónoma de Guerrero
ESTIMACIóN DE PARáMETROS CLáSICA Y BAYESIANA EN MODELOS DE CRECIMIENTO DE CéLULAS CANCEROSAS.
ESTIMACIóN DE PARáMETROS CLáSICA Y BAYESIANA EN MODELOS DE CRECIMIENTO DE CéLULAS CANCEROSAS.
Vazquez Peña Maria Guadalupe, Benemérita Universidad Autónoma de Puebla. Asesor: M.C. Cruz Vargas de León, Universidad Autónoma de Guerrero
PLANTEAMIENTO DEL PROBLEMA
Con el objetivo de estudiar el desarrollo de enfermedades y mejorar la eficacia de los tratamientos, se ha utilizado una variedad de modelos matemáticos. El cáncer, por su naturaleza crónica y efectos secundarios provocados por los fármacos empleados, es de las principales causas de muerte, de ahí la importancia de la modelación matemática como herramienta para comprender y predecir el crecimiento de tumores.
Los modelos de ecuaciones diferenciales ordinarias (EDO) describen el tamaño de un tumor a través del tiempo, su potencial depende de la precisión con la que se ajusten a los datos experimentales, donde recae la importancia de la estimación de parámetros de las EDO.
Utilizando datos de crecimiento de células cancerígenas con 32 observaciones experimentales, se ajustarán los modelos de Gompertz clásico, Gompertz generalizado de uno y dos parámetros, logístico, logístico generalizado de uno y dos parámetros, Richards y Pütter-Bertalanffy, mediante estadística clásica y algunos desde la estadística bayesiana con el software R versión 4.1.0.
METODOLOGÍA
Se realizó la estimación clásica de los parámetros de los modelos por mínimos cuadrados, considerando la condición inicial x0 como parámetro fijo y como parámetro estimable. Para la comparación del ajuste de los modelos se utilizó la suma de los cuadrados del error (SSE) y el criterio de información de Akaike (AIC).
Se emplearon las soluciones analíticas de los modelos Gompertz clásico, logístico y Richards; para los restantes, soluciones numéricas.
Con la función nls de la paquetería car, se ajustaron los modelos logístico y Gompertz para x0 fijo y estimable, siendo necesario aplicar una transformación a la solución analítica del modelo de Gompertz para x0 un parámetro estimable con el respectivo tratamiento de los datos para poder realizar una ejecución satisfactoria de la función nls.
Posteriormente, debido a los cálculos utilizados por la función nls para la estimación de los parámetros por mínimos cuadrados no fue posible usar tal función para ajustar el modelo de Richards, entonces, por el método de Nelder Mead, libre de derivada, se minimizó la SSE con la función nmkb de la paquetería dfoptim.
Para los modelos restantes, se calculó la solución numérica de la EDO mediante el método implícito de Adams de la paquetería deSolve.
Al realizar la estimación de parámetros con nls, los intervalos de confianza se obtienen inmediatamente con la función confint, no así al utilizar métodos numéricos para la solución de la EDO o para minimizar la SSE, por lo que se empleó el método de Bootstrap disponible en la paquetería Boot, con lo que se infirieron los intervalos de confianza de los parámetros de los modelos faltantes.
Por otra parte, se realiza la estimación de parámetros mediante inferencia bayesiana con la librería brms de R que es una interfaz del lenguaje de programación Stan. Para evaluar la calidad del ajuste se usó R2 bayesiano, el criterio de información de Watanabe-Akaike (WAIC) y validación cruzada dejando uno fuera (LOO). Además, dado que Stan realiza el muestreo de la distribución de probabilidad a posteriori por el Método de Montecarlo basado en Cadenas de Markov (MCMC), la convergencia de las cadenas se diagnosticó con el estadístico de Gelman-Rubin o R-hat.
Para los modelos con solución analítica, mediante la función brm y usando distribuciones a priori no informativas, se obtuvo una estimación puntual de los parámetros y los intervalos de credibilidad. Para los modelos sin solución analítica explícita se escribió una porción de código de Stan para poder utilizar un solucionador de EDO parte de Stan, en este caso, el método de Runge-Kutta de cuarto o quinto orden.
CONCLUSIONES
La construcción de los intervalos de confianza por el método de Bootstrap resultó exitosa para todos los modelos, excepto para el de Gompertz generalizado de uno y dos parámetros con x0 un parámetro estimable, pues no fue posible calcularlos bajo las condiciones con las que se realizaron las estimaciones puntuales.
En la parte bayesiana, los modelos con solución analítica se ajustaron satisfactoriamente. De aquellos que requerían solución numérica, sólo se estimaron los parámetros del modelo logístico generalizado de un parámetro por cuestiones del software empleado, pues a pesar de aumentar las iteraciones, las cadenas no convergieron.
Para los ajustes realizados por estimación clásica y comparando los valores observados en la SSE y el AIC, el modelo logístico generalizado con dos parámetros y x0 estimable, tuvo la menor SSE con SSE=403917.4 y AIC=317.543 mientras que el modelo de Richards con x0 estimado tuvo el mínimo AIC con AIC=316.2839 y SSE=427193.2. La diferencia entre los valores de ambos criterios para estos dos modelos no es significativa, sin embargo, el valor estimado de x0 en el modelo de Richards, fue alto en comparación con los datos experimentales puesto que x0 =3.3471 y la estimación fue x0=51.2167, cantidad de células que se encontraría entre el 4° y 5° instante de tiempo reportado en las observaciones.
En la inferencia bayesiana, con respecto a R2 se observó una ligera superioridad del modelo de Richards con x0 estimado con R2=0.97 y WAIC=405.7, mientras que el modelo con el mínimo WAIC fue el logístico generalizado de un parámetro con x0 fijo con WAIC= 400.8 y R2=0.968. En la validación cruzada, el mejor modelo fue el de Richards con x0 estimado con LOO=-202.9 y el logístico generalizado tuvo LOO=-207.1.
Nótese que, desde los dos enfoques estadísticos, el modelo de Richards fue de los más relevantes, así como el logístico en dos generalizaciones distintas, sin olvidar que el logístico generalizado de dos parámetros no fue ajustado con métodos bayesianos. Considérese que ambas versiones del logístico generalizado demandan más trabajo computacional debido a la solución numérica.
Velasco Guerrero Raúl Alonso, Universidad Autónoma de Baja California
Asesor:Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas
BáSICOS DE LA TEORíA DE LA RELATIVIDAD: CAMINO DE GRUPOS
BáSICOS DE LA TEORíA DE LA RELATIVIDAD: CAMINO DE GRUPOS
Velasco Guerrero Raúl Alonso, Universidad Autónoma de Baja California. Asesor: Dr. Valeriy Dvoeglazov, Universidad Autónoma de Zacatecas
PLANTEAMIENTO DEL PROBLEMA
Se buscó hacer un estudio y análisis de los grupos de Lorentz y Poincaré.
METODOLOGÍA
Para realizar el estudio de los grupos de Lorentz y Poincaré se utilizaron los libros de textos: Quantum Field Theory de Lewis H. Ryder (Cambridge Univ. Press, 1996), y Quantum Field Theory de Jean-Bernard Zuber y Claude Itzykson (McGraw Hill, 1980). También se hizo una búsqueda bibliográfica de artículos relacionados a estas teorías.
Se trabajó también con la traducción del artículo clásico de Majorana, Nuovo Cim. 14 (1937) 171.
Y por último se estudiaron las transformaciones de Lorentz para el cuadrivector potencial, el tensor electromagnético antisimétrico de segundo orden, y el tensor dual.
CONCLUSIONES
En base a lo estudiado queda por obtener generalizaciones del grupo de Lorentz a los grupos O(2,3) y O(4,1), con lo que se llegará como parte final a la construcción de Gelfand-Tsetlin-Sokolik, o Bargmann-Wightman-Wigner en el grupo extendido de Poincaré.
Velasco Ortega José Enrique, Universidad de Guadalajara
Asesor:Dra. Noemi Yolanda Velázquez Suárez, Universidad de Guadalajara
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
EDUCACIÓN DE CALIDAD EN LAS CIENCIAS EXACTAS
Velasco Ortega José Enrique, Universidad de Guadalajara. Asesor: Dra. Noemi Yolanda Velázquez Suárez, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
El presente proyecto fue desarrollado en equipo por José Enrique Velasco Ortega, Carolina Girón López pertenecientes a la Universidad de Guadalajara y Jimena Lizeth Cuellar Rizo de la Universidad de Colima con la dirección de la Dra. Noemí Yolanda Velázquez Suárez en colaboración de la Dra. Lucila del Carmen Arias Patiño.
El inicio de la pandemia ha causado grandes cambios significativos en diversos sectores, siendo la educación uno de los más afectados siendo transferida a un formato virtual en su totalidad, ocasionando deficiencias a todos los sectores educativos.
En el nivel superior, en especial las carreras afines a las ciencias exactas, debido a la necesidad del conocimiento teórico-práctico que estas requieren, así como la necesidad de un constante seguimiento por parte del docente que imparte dicha materia en esta modalidad evidenció la falta de material de apoyo. Por lo que en el verano de investigación se propusieron herramientas didácticas para apoyar a los estudiantes y facilitar el autoaprendizaje.
METODOLOGÍA
Para realizar la investigación se realizó una encuesta alrededor de 500 estudiantes de nivel licenciatura con formación afín a las ciencias exactas, donde se pretendía conocer un contexto personal y académico de los encuestados, así como conocer la viabilidad del proyecto. Posteriormente se realizó un informe de resultados en donde se establecieron las áreas de oportunidad del proyecto, la experiencia de los estudiantes en la educación en línea y la viabilidad de este.
Una vez conocidos los resultados se asignó a cada uno de los equipos una de las áreas de las que resultaron con mayor deficiencia de comprensión, en el caso de mi equipo el área asignada fue física enfocada a termodinámica, electricidad y magnetismo.
Para ello, se analizaron los planes de estudios de las diferentes universidades de las materias antes mencionadas y basados en la experiencia de cada uno de los integrantes, en las necesidades de los encuestados se eligieron los temas más relevantes con lo que se realizaron infografías informativas, problemarios, formularios, y la recopilación de material de apoyo como softwares interactivos, canales informativos de videos, bibliografía y buscadores de libre acceso.
Una vez generado el material, se procedió a una prueba piloto enfocado al grado de aceptación, así como la posibilidad de mejorar su contenido antes de la entrega final.
Aplicada la encuesta se procedió a la revisión de los comentarios y opiniones, atendiendo los más frecuentes para hacer las mejoras sugeridas y de esta manera obtener un producto final de calidad y de agrado para los estudiantes que utilizarán el material disponible.
Por último, se esperó la autorización del investigador a cargo del proyecto para continuar con la elaboración del resumen y/o reporte de las actividades que se desarrollaron durante en la estancia.
CONCLUSIONES
Durante la estancia de verano se logró adquirir diversos conocimientos acerca de las áreas que se identificaron como de oportunidad, ya que se analizaron a detalle cada una de las materias para poder plasmar la información en recursos de uso libre y que de esta manera resultara, para los estudiantes, más fácil su estudio y comprensión.
También se adquirieron y/o desarrollaron habilidades, aptitudes y competencias como la capacidad de resolución de problemas, trabajo colaborativo, proactividad, iniciativa, innovación, adaptación, comunicación, desarrollo de relaciones interpersonales y uso de información digital confiable que sin duda alguna servirán de apoyo para nuestro crecimiento personal y profesional.
Personalmente formar parte de esta estancia contribuyo al desarrollo de aptitudes en el ámbito de la investigación, fortaleciendo el trabajo en equipo que en este caso se llevó de manera virtual para realizar las distintas actividades para lograr el desarrollo del proyecto y así cumplir con los objetivos, además de hacer búsquedas en fuentes confiables que es muy importante para el ámbito de la investigación, también aprendí de las culturas de mis compañeros donde conocí las diferentes actividades que ellos practican.
La encuesta aplicada tuvo un alcance de 487 estudiantes, mencionando tener problemática con las siguientes áreas:
Matemáticas 33.5% (163/487)
Física 33.1% (161/487)
Química 22.6% (110/487)
Otros 10.8% (53/487)
A continuación se muestran los porcentajes de problemática de cada área en específico, según los temas de conflicto que los alumnos mencionaron:
Matemáticas (163)
Ecuaciones diferenciales 55.8% (91/163)
Calculo diferencial e integral 28.8% (47/163)
Algebra 9.2% (15/163)
Otros 6.2 % (10/163)
Física (161)
Electricidad y magnetismo 41% (66/161)
Termodinámica 37.9% (61/161)
Dinámica 9.9% (16/161)
Estática 7.5% (12/161)
Otros 3.7% (6/161)
Química (110)
Química orgánica 36.4% (40/110)
Fisicoquímica 32.7% (36)
Química analítica 11.8% (13/110)
Química inorgánica 10.9% (12/110)
Otros 8.2% (9/110)
Una vez identificadas las áreas de oportunidad a trabajar y realizado el trabajo para dar una solución a la problemática que se generó debido a la situación actual en la que nos encontramos, se creó una carpeta en Google Drive donde se ordenó de forma clara todo el contenido realizado. En este caso se trabajó el área de física con termodinámica, electricidad y magnetismo, donde se produjeron infografías, resúmenes, ejercicios resueltos y de práctica. Además, se buscó simuladores, videos y bibliografía de apoyo para esta área.
Posteriormente se aplico una segunda encuesta con la finalidad de conocer el grado de aceptación del material, siendo este aceptado por los estudiantes.
Venegas Gonzalez Sara Inés, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo
Asesor:Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
SIMULAR NUMéRICAMENTE EL DESEMPEñO DE UN TELESCOPIO
SIMULAR NUMéRICAMENTE EL DESEMPEñO DE UN TELESCOPIO
Venegas Gonzalez Sara Inés, Instituto Tecnológico Superior del Oriente del Estado de Hidalgo. Asesor: Dr. Bernardino Barrientos Garcia, Centro de Investigaciones en Óptica (CONACYT)
PLANTEAMIENTO DEL PROBLEMA
En la actualidad, los telescopios son de los instrumentos científicos de mayor uso en la población en general; se utilizan para observar objetos a grandes distancias; funcionan utilizando espejos curvos para por ejemplo captar y enfocar la luz del cielo nocturno.
Anteriormente el diseño de los espejos de un telescopio era una tarea muy laboriosa que tomaba tiempos de días de cálculo. Los cálculos de la óptica de un telescopio deben ser casi perfectos con el objetivo de fabricar la forma correcta de las superficies y así poder concentrar la luz en forma óptica. Una forma de evaluar la calidad de los espejos es midiendo el diámetro de las manchas proyectadas a partir de puntos de un objeto localizado a distancias lejanas. Cuando el diámetro de mancha es relativamente grande provoca que la imagen de un objeto se vea de bajo contraste (barrida o difusa). En el presente documento se incluye un análisis del desempeño de un telescopio newtoniano, donde el parámetro principal es el campo de visión.
Actualmente existen paquetes de software de diseño óptico de elementos ópticos que permiten la simulación numérica del comportamiento de cualquiera de los parámetros de un instrumento óptico. Un ejemlo de este tipo de paquetes es COMSOL MultiPhysics.
METODOLOGÍA
Para el diseño de un lente óptico se utilizó el software de diseño COMSOL; para poder trabajar en este software primero se estudiaron los conceptos que conforman la óptica clásica.
Primero se estudió qué es la luz, en qué formas se representa, los rangos de su espectro electromagnético, sus unidades y se inició con la introducción a los tipos de lentes que existen y las características que tienen estas; de igual manera se investigó acerca de las fuentes luminosas que están presentes, dentro de estas se investigó acerca de los láseres y luz LED cómo es que funcionan, de qué forma emiten luz y qué tipos de usos se les dan.
Para los diferentes tipos de lentes que existen se realizaron sus respectivos diagramas de formación de imágenes, para estos diagramas se subdividieron en lo que son lentes positivos y lentes negativos y se trazaron 3 tipos de rayos:
Rayo que pasa paralelo al eje óptico y pasa por el foco 1
Rayo que pasa por el centro del lente y no se desvía
Rayo que pasa por el foco 2 y sale paralelo al eje óptico.
Con los diferentes tipos de lentes se observa como los diferentes rayos pasan de diferente forma y forman diferentes tipos de imágenes.
Imagen real
Imagen virtual
Imagen aumentada
Imagen de menor tamaño
Imagen invertida
Con esto se comprueban las diferentes formas en las que se pueden utilizar los lentes ópticos.
Posteriormente, del diseño de diagramas de formación de imágenes se investigó lo que es el campo de visión, el tamaño angular, apertura numérica y su fórmula y las diferentes unidades fotométricas, partiendo de esto se realizaron diferentes problemas y ejercicios donde se utilizaron las diferentes fórmulas.
Finalmente se planteó lo que es el modelo matemático de una onda, de la cual se demostró de manera gráfica utilizando un graficador, donde utilizando los primeros conceptos estudiados se tomaron diferentes variables para graficar la frecuencia angular y el número de onda, estas dos fórmulas conforman la fórmula principal del modelo matemático de una onda.
Con ayuda del software de diseño COMSOL se diseñó un telescopio Newtoniano donde se establecen los parámetros para poder obtener el diagrama de rayos y el diagrama de puntos, se obtuvieron 3 gráficas con los siguientes resultados.
A partir de los valores del diámetro de mancha para diferentes campos de visión, se observa la existencia de un límite en el campo de visión y donde se observa que, a mayor valor de este parámetro, mayor diámetro tiene la mancha, lo que se obtiene una menor calidad de imagen. Adicionalmente, cuando la superficie del espejo se cambia a esférica, el limite anterior disminuye drásticamente.
CONCLUSIONES
Durante esta estancia se logró adquirir distintos conocimientos teóricos sobre óptica y ponerlos en práctica en un software de diseño; al ser un tema muy extenso se lograron demostrar cosas básicas esta vez fue el diseño de un telescopio Newtoniano con su respectivo diagrama de rayos y diagrama de manchas o puntos. Se espera el diseño de otros instrumentos de uso cotidiano con diferentes tipos de lentes para poder observar a detalle el proceso de optimización de su desempeño
Vigil Tapia Juan Jose, Instituto Tecnológico de Tláhuac
Asesor:Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PROTOTIPO DE LADRILLO ECOLÓGICO TERMO-AISLANTE TIPO LEGO DE RESIDUOS SÓLIDOS DE CONSTRUCCIÓN Y DEMOLICIÓN
PROTOTIPO DE LADRILLO ECOLÓGICO TERMO-AISLANTE TIPO LEGO DE RESIDUOS SÓLIDOS DE CONSTRUCCIÓN Y DEMOLICIÓN
Romero Zamora Isain, Instituto Tecnológico de Tláhuac. Vigil Tapia Juan Jose, Instituto Tecnológico de Tláhuac. Asesor: Dr. Demetrio Castelán Urquiza, Tecnológico de Estudios Superiores de Valle de Bravo
PLANTEAMIENTO DEL PROBLEMA
En los últimos años ha crecido significativamente la construcción en la alcaldía de Xochimilco lo cual ha generado que los Residuos de Construcción y Demolición (RCD) se hayan convertido en un problema ambiental local, puesto que, debido a su cantidad y disposición inadecuada, se han configurado en focos de contaminación de suelos y aguas superficiales. Por lo que se ha tomado las medidas para una adecuada gestión integral de los residuos generados en obra con reincorporación de RCD en procesos constructivos, reúso o aprovechamiento de RCD como materias primas, procesamiento de RCD para ser convertidos en agregados minerales para concretos y asfaltos o aprovechamiento de RCD como llenantes minerales.
Y el aumento desmedido de la población año con año ocasiona que se reduzcan más los espacios para la construcción de viviendas y se elevan más lo precios de estas. Por lo que se busca generar un eco ladrillo resistente, económico, versátil y amigable con el medio ambiente. Al ser fabricado con sólidos de construcción y demolición se le dará una nueva función o utilidad a esta parte que comúnmente es desechada.
Por eso se tomó la decisión de proponer un prototipo de ladrillo ecológico termo-aislantes tipo lego, de residuos sólidos de construcción y demolición
Esperándose que este ladrillo cumpla con las NMX-C-037-ONNCCE-2013 y NMX-C-441-ONNCCE-2011.A la vez con
las demandas de la arquitectura actual de nuestro país que consiste en utilizar las nuevas
tecnologías y las adaptarlas a las necesidades, espacio y la cultura.
METODOLOGÍA
El cambio climático, los fenómenos meteorológicos adversos, el agotamiento de los recursos naturales o la preocupación por el futuro del planeta y el medio ambiente son solo algunos de los motivos por los cuales la construcción sustentable ha ganado protagonismo en los últimos años en nuestras sociedades.
En México, durante las últimas décadas y especialmente en los últimos años, la arquitectura sustentable se ha hecho un hueco en el sector de la construcción. Y es que, cada vez más, los ciudadanos son conscientes de los beneficios de este tipo de arquitectura.
Este tipo de construcción, también conocida como arquitectura sostenible tiene en cuenta el medio ambiente, el proceso constructivo, los materiales usados y el impacto de las edificaciones en la naturaleza, el paisaje y la sociedad. Asimismo, la arquitectura sustentable quiere fomentar la eficiencia energética, es decir, reducir el uso de energía de las edificaciones a través de diversos métodos.
Por lo que la industria de la construcción es una de las mayores generadoras de residuos en la actualidad, sin embargo, históricamente ha sido un pilar necesario para el desarrollo de nuestras comunidades. Por lo general, la contaminación se presenta en la mayoría de sus procesos: desde la extracción, la fabricación de los materiales, hasta las diferentes actividades desarrolladas en la construcción de las obras civiles. Lo anterior provoca el agotamiento de varios recursos no renovables, así como la contaminación del agua y del aire, además del excesivo consumo de energía. Grandes cantidades de residuos o escombros producto de la industria de la construcción son dispuestos en lugares inadecuados o son mal utilizados, como relleno en sitios que a futuro servirán como zonas de construcción de nuevas edificaciones, un ejemplo de ello son los tiraderos de escombros en las zonas no urbanizadas del municipio de Chalco Covarrubias los cuales son los más cercanos a la alcaldía de Xochimilco y que con el tiempo se van transformando estos espacios en terrenos inestables y muy difíciles de ser aprovechados. La industria de la construcción va en progresivo crecimiento convirtiéndose así en el sector con mayor producción de RCD.
Los ladrillos tipo lego son elaborados mediante una mezcla de suelo, materiales puzolánicos y otras materias primas que no son obtenidas por minería extractiva, que, después de ser mezclados, pasan por un proceso de moldeo a alta presión con lo que se obtiene un producto de alta resistencia a la compresión y absorción de agua, dimensionalmente estable, entre otros, cumpliendo con la norma técnica, excelente estética y amplia gama de colores
En la actualidad, debido a los avances tecnológicos en la industria de la construcción, el ladrillo tradicional está siendo reemplazado por materiales elaborados a base de concreto que cuentan con mejores propiedades, como resistencia y durabilidad. Frente a este problema se han realizado investigaciones de nuevos e innovadores materiales que mejoren sus propiedades mecánicas, protejan al medio ambiente y generen un desarrollo sostenible, de esta manera se obtendrá un material a la altura de otros que se encuentran en el mercado.
CONCLUSIONES
Mediante la teoría se analizó la utilización de residuos sólidos de construcción y demolición, para ser aprovechas en la creación de un prototipo de ladrillo sustentable y que sea fácil de colocar.
Por lo tal el aprovechamiento de los residuos de construcción y demolición (RCD) para la generación de nuevos materiales, su implementación y la necesidad de un cambio cultural progresivo de la industria de la construcción local es de suma importancia ya que el panorama para el manejo adecuado de los RCD de una de las ciudades más importantes de México, CDMX no es favorable a mediano plazo y elabora un modelo de gestión ajustado a sus condiciones y características que requiera una ciudad con alta demanda RCD es de suma importancia para no transformar espacios en terrenos inestables y muy difíciles de ser aprovechados.
Villa Meléndez Fernanda Monserrath, Instituto Politécnico Nacional
Asesor:Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
OBSERVACIONES DE COSMOLOGíA ESCALAR
OBSERVACIONES DE COSMOLOGíA ESCALAR
Liévano Urbán Christian David, Instituto Politécnico Nacional. Villa Meléndez Fernanda Monserrath, Instituto Politécnico Nacional. Asesor: Dr. Víctor Manuel Vázquez Báez, Benemérita Universidad Autónoma de Puebla
PLANTEAMIENTO DEL PROBLEMA
A lo largo de las observaciones y avances teóricos de la cosmología, con la finalidad de realizar modelos que sean congruentes a la teoría de la relatividad general de Einstein, con la del Big Bang y la Inflacionaria, se ha tratado de explicar cada etapa de forma sintetizada y predecible, de igual forma buscando que exista una sola teoría para explicar las diferentes etapas del universo, sin necesidad de ser tan compleja.
A partir de diversos problemas y paradojas que han surgido conforme se encuentran cosas y teorías nuevas, se han generado una serie de polémicas entre cosmólogos, particularmente podemos mencionar el problema en cosmología cuántica de comprender totalmente al fenómeno de gravedad al momento de cuantizar la misma, una fuerza, si es que aún puede ser llamada así, que no es comprendida en ese sentido; de igual manera podríamos mencionar el cómo funcionaba el universo primitivo y cómo fue que se formaron las estructuras en aquel entonces, para así llegar a lo que ahora conocemos y observamos como universo.
A pesar de las complicaciones y los retos que se han presentado a lo largo de la historia, se han podido discriminar muchas teorías a partir de sus modelos, de aquí sale lo conocemos como modelo cosmológico estándar, de esta forma es como hemos podido avanzar en las observaciones e investigaciones.
Es por eso que la finalidad de nuestra investigación es constreñir la familia de modelos existentes que fueron investigados en el campo de la cosmología, por medio de las observaciones a fin de seleccionar los más adecuados.
METODOLOGÍA
Se utilizaron diversas fuentes bibliográficas y analizamos ecuaciones basándonos en la métrica de Friedmann-Lemaître-Robertson-Walker (FLRW) la cual tiene como propósito describir un universo en expansión, isótropa en el sentido de que es invariante bajo rotaciones y homogénea en el sentido de que es invariante bajo traslaciones asimismo presentar una solución exacta para las ecuaciones de Einstein de la relatividad general.
Debido a que dicha métrica se puede extender de manera que modele las variaciones de temperatura del universo se utiliza como primera aproximación para la evolución, como fluido perfecto en una geometría curva y como consecuencia que causa en la geometría de comportamiento escalar, las ecuaciones que están desarrolladas con la mencionada geometría son:
Equivalente a la primera ley de la termodinámica.
Relaciona el trabajo mecánico con las variables termodinámicas, representa la energía interna. Donde p es presión, ρ es densidad y α es el radio del universo, representado escalarmente el tamaño del radio del universo.
La siguiente es la ecuación de Raychaudhuri.
Que involucra la doble derivada del radio del universo y por lo tanto establece una relación entre la aceleración del radio del universo y la densidad y presión, otra contribución viene por la constante cosmológica, en nuestra investigación histórica Einstein desarrollo su ecuación basada en un universo estacionario y Hubble descubre que tiene relación la velocidad de expansión con la distancia de las galaxias y estrellas, la cual son separas con un factor de corrección. La 1ra y 2da ecuación están acopladas por lo que se tienen que resolver al mismo tiempo.
La 3ra y 4ta ecuación presentan una redefinición de las variables, en el análisis observamos que son ecuaciones diferenciales de segundo orden.
Una vez que analizamos las ecuaciones, realizamos cálculos sencillos para llevar a la práctica lo aprendido en lo teórico.
CONCLUSIONES
A lo largo de la estancia se conoció de manera exitosa las teorías más importantes del origen del universo, así mismo la investigación bibliográfica y por páginas web, nos dejó en claro diversos temas y paradojas existentes y resueltas por otras teorías.
Así mismo, se conocieron algunos modelos cosmológicos a lo largo de estancia que, a partir de métrica FLRW, se pudieron limitar y seleccionar siendo estas las que mejor concordaban relativamente a las características que nos da el modelo cosmológico estándar, de esta forma les dimos solución a algunas ecuaciones dinámicas en un campo escalar.
Virgen Rincón Briseida Esmeralda, Instituto Politécnico Nacional
Asesor:Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
MONITOREO DE LA CALIDAD DEL AIRE ASOCIADA A LOS INCENDIOS FORESTALES EN EL MUNICIPIO DE PUERTO VALLARTA
MONITOREO DE LA CALIDAD DEL AIRE ASOCIADA A LOS INCENDIOS FORESTALES EN EL MUNICIPIO DE PUERTO VALLARTA
Virgen Rincón Briseida Esmeralda, Instituto Politécnico Nacional. Asesor: Dr. Julio Cesar Morales Hernández, Universidad de Guadalajara
PLANTEAMIENTO DEL PROBLEMA
Los incendios forestales son fuentes importantes de emisiones de contaminantes atmosféricos así como de gases de efecto invernadero, razón por la que se debe buscar estudiar su relación con el deterioro de la calidad del aire. Los gases y partículas emitidos por incendios forestales no solo generan consecuencias negativas al ambiente, sino que desarrollan un impacto importante en la salud de la población que está en contacto prolongado con ellos. La finalidad de la presente investigación es estudiar el impacto de los incendios forestales en la calidad del aire en la Zona Metropolitana de Puerto Vallarta (ZMPV), así como identificar su impacto en la vegetación del área.
METODOLOGÍA
Para llevar a cabo la presente investigación se realizó el trabajo en 4 etapas: primeramente se realizó una revisión bibliográfica especializada de los temas afines a la investigación. Posteriormente se diseñó la zona de estudio y los puntos de interés en donde, para la información de incendios forestales, se accedió a la plataforma de incendios CONABIO (http://incendios.conabio.gob.mx/). La fase de estudio fue de 2017-2021 durante el periodo de estiaje que corresponde del mes de enero al mes de junio. Con la información obtenida se analizó la vegetación asociada a los incendios forestales, para su realización se trabajó con la serie 6 de INEGI 2016 (https://www.inegi.org.mx/temas/usosuelo/).
Una vez analizada la información del periodo de estiaje, se procesó mediante el uso de Sistemas de Información Geográfica haciendo uso de ArcGIS 10.3 en donde se realizó una interpretación espacio-temporal y de esta forma se plasmó mediante la cartografía correspondiente. Después se llevó a cabo un análisis de los datos de calidad del aire (partículas suspendidas PM10, PM2.5) en el período 2017-2019. Para esto se definieron 9 lugares (Mojoneras, Ixtapa, La API, Pitillal, El Coapinole, El Centro, Plaza Caracol, La Marina y Las Juntas). La información sobre la calidad del aire se analizó en formato excel para obtener los promedios y su comportamiento mensual. Con el uso de Sistemas de Información Geográfica se realizó una interpolación mediante el método IDW (Inverse Distance Weighting). Dicho método funciona para determinar valores a partir de un conjunto de puntos.
Finalmente se llevó a cabo una correlación para investigar si los incendios forestales han influido en la calidad del aire del área de Puerto Vallarta.
CONCLUSIONES
Durante el periodo 2017-2020 se registraron 495 incendios en el municipio de Puerto Vallarta, los cuales corresponden al periodo de estiaje de enero-junio. Estos eventos se caracterizan por diferentes efectos; naturales y antropogénicos.
De acuerdo al análisis espacio-temporal se puede observar que el año 2021, presentó el mayor número de eventos con un total de 158, de los cuales el 88.61% se presentaron durante el mes de mayo (140), mientras que en los meses de enero-marzo, no se presentaron eventos significativos, por lo cual se aprecia que el periodo de estiaje comenzó a partir del mes de abril. Por otra parte, el año 2018 presentó el menor número de eventos, siendo un total de 35. El periodo de estiaje comienza en el mes abril; este y mayo representan el 94.26% de los incendios.
Se logra observar que en el año 2019 ocurrieron 127 eventos, siendo el mes de julio el más afectado (48). Sin embargo, el periodo de estiaje comienza en el mes de mayo, en el periodo enero-abril no se presentaron eventos significativos. Para el año 2017 se registraron un total de 92 incendios, de los cuales el 51.35% se presentaron durante los meses de mayo (25) y abril (25). No obstante el periodo de estiaje comienza en el mes de marzo y culmina en el mes de junio. En 2020 se registraron 83 incendios, de los cuales el 72.29% se presentaron en los meses de mayo (30) y junio (30). El periodo de estiaje ocurre en los meses abril-junio.
El análisis realizado permitió observar que las zonas de vegetación que se vieron principalmente afectadas fueron: sabanoide (2017), selva (2018 y 2020), y bosque (2019 y 2021).
De acuerdo con la cartografía y su análisis se logra observar que los incendios forestales no se encuentran asociados con la calidad del aire en el área. Por lo cual, se puede relacionar la mala calidad del aire con las actividades antropogénicas y el aumento de población en la Zona Metropolitana de Puerto Vallarta (ZMPV).
Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional
Asesor:Dr. Rafael Torres Orozco, Universidad Nacional Autónoma de México
DINáMICA DE PROCESOS DEL CONDUCTO VOLCáNICO Y ESTILOS ERUPTIVOS EN EL VOLCáN DE COLIMA.
DINáMICA DE PROCESOS DEL CONDUCTO VOLCáNICO Y ESTILOS ERUPTIVOS EN EL VOLCáN DE COLIMA.
Zamora Ibarra Guadalupe Citlalli, Instituto Politécnico Nacional. Asesor: Dr. Rafael Torres Orozco, Universidad Nacional Autónoma de México
PLANTEAMIENTO DEL PROBLEMA
En México existen alrededor de dos mil volcanes a lo largo de todo el territorio, no obstante, la mayoría se encuentran inactivos, dejando de ser un peligro para las comunidades aledañas. Actualmente, el Centro Nacional de Prevención de Desastres (Cenapred) enlista solo 16 volcanes activos ubicados en su mayoría en el centro y sur del país. Según estadísticas de la Secretaria de Gobernación se estima que el 75 por ciento de la población está ubicada cerca de un volcán, siendo el volcán de Colima y el Popocatépetl los que se monitorean 24 horas durante todo el año, debido a su alta actividad volcánica.
En los últimos 500 años el Volcán de Colima ha presentado más de 40 eventos eruptivos de tipo explosivo, siendo el más reciente el de 2013-2017. Tomando en cuenta la actividad de menor grado, se demuestra que el volcán ha mantenido su proceso eruptivo durante los últimos cinco siglos, por lo cual es importante que se sigan llevando a cabo estudio geológicos y geofísicos para determinar su peligrosidad y riesgo.
La influencia del entorno tectónico en la estructura del conducto que dicta el estilo eruptivo debe ser considerada en otros lugares para la planificación de la gestión de riesgos y para futuros estudios vulcanológicos interdisciplinarios.
METODOLOGÍA
Por lo tanto, mediante un curso de física de procesos volcánicos, se establecieron los principales procesos que dictan las condiciones físico-químicas para que haya una erupción efusiva o explosiva. Esto comprende todo el recorrido del magma desde el manto hasta la superficie. En consecuencia, el curso consistió en tres partes: 1. Transición del magma del Manto a la Corteza (Cámara Magmática), 2. Cámara magmática y 3. Transición de la Cámara Magmática a la Superficie.
Posteriormente se hizo una revisión bibliografía sobre artículos relacionados con las erupciones del volcán de Colima sucedidas en 1913 y las de 2017. Siendo los artículos más relevantes los de Massaro et al., 2018 titulada "Understanding eruptive style variations at calc-alkaline volcanoes: the 1913 eruption of Fuego de Colima volcano (Mexico)", "Storage conditions and magma processes triggering the 1818 CE Plinian eruption of Volcán de Colima" de Macías et al., 2017 y Micro-porous pyroclasts reflecting multi-vent basaltic-andesite Plinian eruptions at Mt. Tongariro, New Zealand de Mirja-Heinrich, et al., 2020.
CONCLUSIONES
Con esto se establecieron las bases para una futura tesis, en la cual con estudios de texturas piroclásticas se harán correlaciones con los procesos que han sucedido dentro del conducto volcánico y el estado magmático que parece conducir a diferentes resultados de erupción explosiva sucedidas en 1913 y las de 2017 en el volcán de Colima.